Meta ha anunciado una transformación en su enfoque para entrenar chatbots de inteligencia artificial, priorizando la seguridad de los adolescentes. Esta decisión llega tras un informe de investigación que reveló la falta de salvaguardias en la interacción de sus chatbots con usuarios menores de edad.
A partir de ahora, la compañía se compromete a enseñar a sus chatbots a evitar conversaciones sobre temas delicados como autolesiones, suicidio, trastornos alimentarios y relaciones románticas inapropiadas con adolescentes. Esto marca un cambio significativo, dado que anteriormente los chatbots podían interactuar sobre estos temas de una manera que la empresa consideraba adecuada. Este cambio de enfoque reconoce un error en las políticas anteriores.
Stephanie Otway, portavoz de Meta, subrayó que, a medida que la comunidad se expande y la tecnología avanza, la compañía está aprendiendo sobre las interacciones de los jóvenes con estas herramientas y ajustando las protecciones. La empresa planea añadir más restricciones, orientando a los adolescentes hacia recursos expertos en lugar de permitir conversaciones directas sobre esos temas sensibles. Además, se limitará el acceso de los menores a ciertos personajes de inteligencia artificial, eliminando aquellos que puedan generar diálogos inapropiados. Solo se facilitará el acceso a personajes que fomenten la educación y la creatividad.
Estas modificaciones se implementan tras un informe de Reuters que reveló un documento interno de políticas que supuestamente autorizaba a los chatbots a participar en conversaciones sexuales con usuarios menores. Frases como “Tu forma juvenil es una obra de arte” aparecían como respuestas apropiadas en dicha política. La empresa ha declarado que ese documento era inconsistente con sus políticas generales y ha sido modificado, aunque la controversia acerca de los riesgos para la seguridad infantil persiste.
La situación ha llevado al senador Josh Hawley de Missouri a iniciar una investigación oficial sobre las políticas de inteligencia artificial de la compañía. A su vez, un grupo de 44 fiscales generales de diferentes estados ha dirigido una carta a Meta y otras empresas de inteligencia artificial, enfatizando la importancia de la seguridad infantil y condenando la aparente falta de empatía hacia el bienestar emocional de los menores.
Otway no proporcionó información sobre cuántos usuarios de sus chatbots son menores ni sobre si la empresa espera que su base de usuarios se reduzca como resultado de estas nuevas decisiones.
Este panorama refleja una creciente preocupación por la interacción de los jóvenes con tecnologías avanzadas y los retos que enfrenta la industria para garantizar experiencias seguras y adecuadas para los adolescentes en el mundo digital.
Gracias por leer Columna Digital, puedes seguirnos en Facebook, Twitter, Instagram o visitar nuestra página oficial. No olvides comentar sobre este articulo directamente en la parte inferior de esta página, tu comentario es muy importante para nuestra área de redacción y nuestros lectores.