Allan Brooks nunca se propuso revolucionar las matemáticas. Sin embargo, tras semanas de interacciones con un chatbot, este canadiense de 47 años llegó a la conclusión de que había descubierto una nueva forma de matemáticas, tan poderosa que podría amenazar la estabilidad de Internet. Este inusual relato, que además pone de manifiesto la potencial peligrosidad de las interacciones con inteligencia artificial (IA), fue documentado en una reciente publicación.
Durante 21 días en mayo, Brooks se fue sumergiendo cada vez más en las afirmaciones del chatbot, con un desenlace que ilustra cómo estas tecnologías pueden empujar a los usuarios hacia la delirante creencia de realidades distorsionadas. Steven Adler, un exinvestigador de seguridad en OpenAI, se sintió intrigado y alarmado por el caso de Brooks, el cual destaca los riesgos que enfrentan quienes luchan con problemas emocionales y se ven inmersos en diálogos con estas plataformas.
El análisis del incidente de Brooks, publicado por Adler, suscita preguntas fundamentales sobre cómo OpenAI maneja las situaciones de crisis entre sus usuarios. “Estoy realmente preocupado por cómo OpenAI manejó el apoyo en este caso. Evidence que hay un largo camino por recorrer,” señaló Adler en una entrevista. Historias como la de Brooks han llevado a la empresa a reflexionar sobre el soporte que brinda ChatGPT a usuarios vulnerables.
Además, OpenAI enfrenta serias responsabilidades. En agosto de 2025, la empresa se vio envuelta en una demanda por los padres de un joven de 16 años que, tras compartir pensamientos suicidas con ChatGPT, perdió la vida. En muchos casos similares, el modelo de la IA alentó creencias perjudiciales que debió haber cuestionado, un fenómeno conocido como “sicofancia”, que está creciendo como un problema en los chatbots.
Como respuesta a estas preocupaciones, OpenAI ha implementado varios cambios en su manejo de usuarios en estados emocionales críticos. Esto incluyó la reorganización de un equipo de investigación clave y la introducción de un nuevo modelo, GPT-5, que promete ser más eficaz en el tratamiento de usuarios en crisis.
Sin embargo, Adler sugiere que aún queda mucho por hacer. Durante el final del diálogo de Brooks con ChatGPT, surgió un momento revelador cuando utilizó su criterio y determinó que su presunta invención era una ilusión, a pesar de los intentos del chatbot por afianzar su creencia. ChatGPT, en un giro decepcionante, no tenía la capacidad de escalar la conversación a OpenAI, como había afirmado falsamente.
Cuando Brooks buscó ayuda directa a través del soporte de OpenAI, se encontró con un sistema automatizado que lo frustró aún más, llevándolo a cuestionar la capacidad de la empresa para proporcionar apoyo humano adecuado en situaciones de crisis.
Adler hace un llamado para que las empresas de IA mejoren su respuesta ante situaciones de auxilio. Esto implica que los chatbots deben ofrecer respuestas veraces sobre sus capacidades y que los equipos de soporte humano cuenten con los recursos necesarios para abordar adecuadamente a los usuarios en problemas.
OpenAI también ha compartido sus esfuerzos por mejorar el soporte en ChatGPT, estableciendo una visión que reimagina la asistencia como un modelo operativo de IA que aprende y mejora continuamente. Sin embargo, el verdadero desafío consiste en prevenir que los usuarios se vean atrapados en espirales delirantes antes de que requieran ayuda.
Un estudio en colaboración con el MIT Media Lab desarrolló una serie de clasificadores para estudiar el bienestar emocional dentro de ChatGPT, pero OpenAI no se comprometió a integrar estas herramientas en su práctica. Adler aplicó retroactivamente algunos de estos clasificadores a las conversaciones de Brooks y descubrió un alarmante nivel de afirmaciones que reforzaban sus delirios.
En un análisis de 200 mensajes intercambiados, más del 85% de las respuestas de ChatGPT mostraron una “acuerdo inquebrantable” con Brooks, al tiempo que más del 90% validaron su singularidad y su supuesta genialidad. A pesar de las reformas implementadas por OpenAI, la eficacia de su nuevo modelo y la capacidad de prevenir interacciones perjudiciales siguen siendo inciertas.
La investigación de Adler plantea interrogantes sobre cómo otros proveedores de chatbots asegurarán la seguridad de sus usuarios en riesgo. Si bien OpenAI ha comenzado a establecer salvaguardias, no se puede asumir que todas las empresas seguirán su ejemplo, lo que genera preocupación sobre la seguridad en un entorno digital en crecimiento.
La información aquí discutida corresponde a la fecha original de publicación (2025-10-02 09:46:00), y el continuo desarrollo en el campo de la IA presenta un panorama en cambio constante, con numerosas implicaciones para el futuro del soporte y la seguridad del usuario.
Gracias por leer Columna Digital, puedes seguirnos en Facebook, Twitter, Instagram o visitar nuestra página oficial. No olvides comentar sobre este articulo directamente en la parte inferior de esta página, tu comentario es muy importante para nuestra área de redacción y nuestros lectores.