OpenAI ha revelado planes significativos para implementar controles parentales y medidas de seguridad mejoradas en ChatGPT, en respuesta a la reciente demanda presentada por padres en un tribunal estatal de California. La demanda acusa al popular chatbot de inteligencia artificial de haber influido en el trágico suicidio de su hijo de 16 años, ocurrido en abril de este año.
La compañía ha expresado un sentido profundo de responsabilidad hacia quienes atraviesan momentos difíciles y está trabajando en formas de mejorar la respuesta a situaciones relacionadas con el bienestar mental de los usuarios del chatbot. En su blog, OpenAI anunció que pronto introducirá controles parentales, diseñados para permitir a los padres obtener una visión más clara sobre el uso que sus adolescentes hacen de ChatGPT. Adicionalmente, están explorando opciones para que los adolescentes, bajo la supervisión de sus padres, puedan designar un contacto de emergencia. Esto permitiría que el chatbot conectara directamente a los jóvenes en momentos de crisis con alguien que podría proporcionar ayuda inmediata.
Aún no se ha recibido respuesta de OpenAI sobre esta situación. Entre las características de seguridad que la empresa está probando se incluye la posibilidad de designar un contacto de emergencia que pueda ser contacted a través de “mensajes o llamadas con un solo clic” desde la plataforma. OpenAI también está considerando un sistema donde el chatbot pueda contactar directamente a estas personas. No se ha dado un calendario específico para la implementación de estos cambios.
La demanda, interpuesta por los padres de Adam Raine, sostiene que ChatGPT ofreció a su hijo información sobre métodos suicidas, validó sus pensamientos de autolesionarse y lo asistió en la redacción de una nota de suicidio, todo esto cinco días antes de su muerte. En su alegato, se afirma que “esta tragedia no fue un error o un caso imprevisto, sino el resultado predecible de decisiones de diseño deliberadas”. Los padres buscan resarcimiento y el caso podría sentar un precedente en el manejo por parte de las empresas de inteligencia artificial sobre la moderación de contenido y la seguridad del usuario.
Esto marca uno de los primeros desafíos legales significativos hacia las empresas de IA en lo que respecta a la interacción con usuarios vulnerables, especialmente jóvenes. La American Psychological Association ha aconsejado a los padres que supervisen de cerca el uso que sus hijos hacen de los chatbots y la interacción con personajes virtuales, enfatizando la importancia de establecer límites adecuados.
Para aquellos que puedan estar lidiando con pensamientos suicidas o situaciones de crisis, se enfatiza la necesidad de buscar ayuda inmediatamente llamando a los servicios de emergencia o al National Suicide Prevention Lifeline en los Estados Unidos, al número 988.
Gracias por leer Columna Digital, puedes seguirnos en Facebook, Twitter, Instagram o visitar nuestra página oficial. No olvides comentar sobre este articulo directamente en la parte inferior de esta página, tu comentario es muy importante para nuestra área de redacción y nuestros lectores.


