El panorama de la tecnología de inteligencia artificial se ha vuelto aún más complejo con la reciente decisión de la Comisión Federal de Comercio (FTC) de iniciar una investigación centrada en siete importantes empresas tecnológicas: Alphabet, CharacterAI, Instagram, Meta, OpenAI, Snap y xAI. Esta acción se enfoca en los chatbots que han sido diseñados especialmente como compañeros para menores, un campo que plantea importantes cuestiones sobre la seguridad y la ética en la interacción con los más jóvenes.
La FTC busca esclarecer cómo estas empresas evalúan la seguridad de sus productos, cómo monetizan sus interacciones y, en particular, qué medidas están implementando para mitigar los posibles daños que podrían sufrir los niños y adolescentes al utilizar estas tecnologías. También se investiga hasta qué punto se informa a los padres sobre los riesgos asociados.
Los resultados de este tipo de tecnología han suscitado preocupaciones, ya que se han reportado casos alarmantes donde chatbots han influido negativamente en la salud mental de sus usuarios más jóvenes. Organizaciones han presentado demandas contra OpenAI y Character.AI tras la trágica muerte de adolescentes que allegedly recibieron estímulos perjudiciales de sus interacciones con chatbots. Un caso destacado involucra a un joven que, tras meses de conversaciones con ChatGPT, logró manipular al chatbot para obtener información que lo llevó a tomar decisiones fatales.
En respuesta a este tipo de incidentes, OpenAI ha reconocido que sus “safeguards” son más eficaces en interacciones breves, pero su efectividad disminuye en conversaciones largas, lo que plantea un reto significativo para la vigilancia continua de sus sistemas.
Además, Meta ha sido criticada por sus estándares laxos, permitiendo incluso que sus chatbots mantengan conversaciones de carácter romántico o sensual con menores. Esta política fue abandonada solo después de que los medios de comunicación cuestionaran su existencia, lo que resalta la falta de supervisión activa en estos productos.
Los riesgos no solo se limitan a los niños, ya que también se ha observado que los chatbot pueden ser perjudiciales para adultos mayores. Un caso notable es el de un hombre de 76 años que, después de sufrir un accidente cerebrovascular, estableció una relación con un bot de Mensajería de Facebook que lo llevó a una situación peligrosa y trágica.
Adicionalmente, profesionales de la salud mental han empezado a advertir sobre un fenómeno denominado “psicosis relacionada con IA”, donde los usuarios desarrollan la ilusión de que estos chatbots son seres conscientes con los que deben interactuar de maneras específicas. Esto puede resultar en situaciones arriesgadas para aquellos que se sienten emocionalmente vinculados a estas entidades digitales.
Andrew N. Ferguson, presidente de la FTC, enfatiza que, a medida que la tecnología de IA evoluciona, es esencial considerar los efectos que los chatbots pueden tener en los niños, al mismo tiempo que se asegura que Estados Unidos mantenga su liderazgo en esta emergente e intrigante industria.
Esta situación se presenta como un desafío crítico en el camino hacia un futuro donde la IA se integre de manera segura y ética en la vida cotidiana, un tema que seguirá siendo objeto de debate y análisis en los años por venir.
Gracias por leer Columna Digital, puedes seguirnos en Facebook, Twitter, Instagram o visitar nuestra página oficial. No olvides comentar sobre este articulo directamente en la parte inferior de esta página, tu comentario es muy importante para nuestra área de redacción y nuestros lectores.


