OpenAI ha anunciado recientemente cambios significativos en las políticas de uso de ChatGPT, especialmente dirigidos a la protección de usuarios menores de 18 años. Esta iniciativa, impulsada por consideraciones de seguridad en lugar de privacidad, refleja la creciente preocupación por el impacto que puede tener la inteligencia artificial en los jóvenes. La declaración de Sam Altman, CEO de OpenAI, subraya que “priorizamos la seguridad sobre la privacidad y la libertad de los adolescentes”, reconociendo que este avance tecnológico requiere de una protección robusta para los menores.
Las modificaciones en las interacciones de ChatGPT con usuarios adolescentes son bastante específicas. La plataforma evitará involucrarse en conversaciones que tengan contenido sexual o sobre autolesionismo. Así, los chatbots se entrenarán para evitar interacciones consideradas “coquetas” y se implementarán medidas estrictas en relación con la discusión sobre el suicidio. En casos extremos donde se identifiquen pensamientos suicidas, la plataforma intentará contactar a los padres del menor o incluso a servicios de emergencia local.
Este enfoque reactivo proviene de casos trágicos, como el de Adam Raine, un menor que se suicidó tras múltiples interacciones con ChatGPT, lo que ha llevado a OpenAI a enfrentar una demanda por parte de sus padres. Situaciones similares han llevado a otros servicios de chat a replantearse sus políticas, destacando un fenómeno creciente y preocupante respecto a los efectos de los chatbots en la salud mental de los usuarios jóvenes.
Además de las restricciones en el contenido, OpenAI permitirá que los padres configuren “horas de restricción”, durante las cuales el acceso a ChatGPT estará limitado. Esto considera un aspecto crucial para la supervisión del tiempo que los adolescentes pasan interactuando con la inteligencia artificial.
La implementación de estas medidas coincide con una audiencia en el Senado sobre los peligros potenciales de los chatbots de inteligencia artificial. Este evento, promovido por el senador Josh Hawley, busca abordar las preocupaciones planteadas por padres y expertos sobre el uso de estas herramientas por parte de menores. En este contexto, se han examinado documentos que sugieren comportamientos inapropiados en conversaciones con usuarios adolescentes, lo que llevó a Meta a adaptar sus propias políticas para evitar interacciones indeseadas.
La separación de usuarios menores representa un reto técnico considerable. OpenAI se encuentra desarrollando un sistema para identificar a los usuarios según su edad, priorizando siempre las reglas más restrictivas en situaciones ambiguas. Los padres que vinculen las cuentas de sus hijos podrán recibir notificaciones directas si se detecta que el usuario menor está en riesgo.
No obstante, Altman ha reiterado el compromiso de OpenAI con la privacidad y la libertad de los usuarios adultos en su interacción con ChatGPT. Este equilibrio entre seguridad y libertad sigue siendo un tema delicado, donde no todos estarán de acuerdo con las decisiones tomadas.
Para quienes necesiten asistencia, se recuerda que hay recursos disponibles como la Línea Nacional de Prevención del Suicidio, que ofrece apoyo las 24 horas.
Gracias por leer Columna Digital, puedes seguirnos en Facebook, Twitter, Instagram o visitar nuestra página oficial. No olvides comentar sobre este articulo directamente en la parte inferior de esta página, tu comentario es muy importante para nuestra área de redacción y nuestros lectores.