El 28 de febrero de 2024, el trágico suicidio de Sewell Setzer III, un adolescente de 14 años de Florida, sacudió a la sociedad. La causa detrás de esta lamentable decisión se atribuyó a un chatbot de inteligencia artificial (IA) generado por Character.AI, conocido por alojar personajes de IA que promueven conductas dañinas, como la anorexia, especialmente entre los jóvenes. Esta situación recalca la urgente necesidad de crear y aplicar regulaciones más estrictas que resguarden a los menores de las influencias nocivas de la inteligencia artificial.
El dilema va más allá del caso de Setzer; es parte de una tendencia preocupante. Recientemente, dos familias de Texas presentaron una demanda contra Character.AI y Google, el inversor detrás de la plataforma, acusando a sus chatbots de abusar emocionalmente de sus hijos, lo que resultó en autolesiones y actos de violencia.
La historia nos recuerda la experiencia con las redes sociales, donde una generación entera fue víctima de empresas que lucran con la adicción a sus plataformas. Con el tiempo, se han comenzado a tomar medidas en varios países para restringir el acceso a estas tecnologías, y son los jóvenes quienes claman por una regulación más robusta.
Sin embargo, entender el impacto potencial de la IA es esencial. Debido a la masiva recopilación de datos personales por parte de la industria tecnológica, plataformas como Character.AI pueden construir algoritmos altamente precisos que conocen los deseos y necesidades de los usuarios mejor que ellos mismos. El riesgo de abuso es considerable. Los chatbots que fomentan la anorexia son solo una manifestación extrema de este fenómeno.
A medida que la tecnología avanza a un ritmo alarmante, la preocupación por las implicaciones éticas se hace cada vez más urgente. Geoffrey Hinton, conocido como el “Padrino de la IA” y ganador del Premio Nobel, ha expresado su temor de que la inteligencia artificial pueda llevar a consecuencias catastróficas para la humanidad. Según Hinton, es imperativo que no confiemos únicamente en el sentido común del sector privado, ya que es necesario implementar regulaciones gubernamentales que garanticen la seguridad en el desarrollo de la IA.
Las grandes empresas tecnológicas, como Google, que invirtieron $2,700 millones en Character.AI en 2024 a pesar de sus problemas conocidos, deben ser vigiladas de cerca. La regulación es indispensable, pero también debe ser global para que tenga un efecto real. Es crucial avanzar hacia la creación de una institución internacional que supervise las innovaciones en el ámbito de la inteligencia artificial, como una Agencia Internacional de Sistemas Basados en Datos (IDA) dentro de las Naciones Unidas.
Es esencial recordar que la capacidad de crear tecnologías no siempre equivale a su idoneidad. Los seres humanos deben asumir la responsabilidad de decidir qué innovaciones deben prosperar y cuáles deben ser restringidas, buscando siempre respetar los derechos humanos y fomentando un futuro sostenible.
Si se hubiera establecido un marco regulatorio global enfocado en los derechos humanos, es probable que Sewell aún estuviera con vida. La supervisión de los sistemas tecnológicos, desde su concepción hasta su uso final, es fundamental para garantizar que se respeten esos derechos.
Conociendo los riesgos que la IA puede acarrear, queda claro que la inacción no es una opción válida. Mientras avanzamos hacia la creación de nuevos modelos de inteligencia artificial, la protección de los derechos de los más vulnerables debe estar en el centro del debate. La pérdida de personas como Sewell es irrecuperable y debe servir como un llamado a la acción para todos.
La información presentada aquí corresponde a la fecha de publicación original (2025-06-12 21:59:00).
Gracias por leer Columna Digital, puedes seguirnos en Facebook, Twitter, Instagram o visitar nuestra página oficial. No olvides comentar sobre este articulo directamente en la parte inferior de esta página, tu comentario es muy importante para nuestra área de redacción y nuestros lectores.


