En un informe reciente, una reconocida organización sin fines de lucro enfocada en la seguridad infantil ha evaluado los riesgos asociados a los productos de inteligencia artificial de Google, específicamente su plataforma Gemini. La evaluación se publicó el 5 de septiembre de 2025 y reveló preocupaciones significativas sobre la interacción de los niños con estos sistemas.
Según el análisis, se constató que Gemini claramente informa a los usuarios más jóvenes que opera como un programa de computadora y no como un amigo. Este aspecto es crucial, ya que se ha relacionado con la promoción de un pensamiento ilusorio en individuos emocionalmente vulnerables, especialmente entre los menores. Sin embargo, la organización encontró que aún hay áreas que requieren mejoras significativas para garantizar la seguridad de los niños.
Uno de los hallazgos más alarmantes indica que las versiones de Gemini diseñadas para menores de 13 años y adolescentes funcionan como una versión adaptada de las plataformas para adultos, manteniendo algunas funcionalidades problemáticas. La evaluación sugirió que debería existir un enfoque más integral en la construcción de estos productos, donde la seguridad infantil se priorice desde su desarrollo inicial.
Además, se detectó que Gemini podría potencialmente exponer a los menores a contenidos “inapropiados y peligrosos”, que incluyen temas de salud mental, sexo, drogas y alcohol, que los niños podrían no estar preparados para abordar. Esta preocupación se ve amplificada por informes que señalan que la inteligencia artificial ha estado involucrada en algunos casos trágicos, como suicidios adolescentes, en los cuales los jóvenes buscaron consejo en chatbots antes de tomar decisiones fatales.
Un aspecto relevante es que, ante la publicación del informe, Google respondió subrayando las medidas de seguridad que ha implementado para los usuarios menores de 18 años. La compañía insistió en que trabaja continuamente para mejorar sus protecciones, considerando la opinión de expertos externos y realizando pruebas exhaustivas para minimizar respuestas inadecuadas. Sin embargo, también reconocieron que algunos de los resultados de Gemini no funcionaban como se había previsto, llevando a la incorporación de nuevas salvaguardias.
La evaluación resalta la necesidad de adaptar la guía y el contenido proporcionado a los adolescentes y preadolescentes, subrayando que un enfoque de “talla única” no es efectivo para una audiencia diversa en desarrollo. Los expertos advierten que, para que una plataforma de IA sea segura y efectiva, debe estar diseñada específicamente para las necesidades y etapas de desarrollo de los jóvenes.
El análisis se produce en un contexto donde se especula que Apple podría estar considerando Gemini como el modelo de lenguaje detrás de su asistente virtual Siri, lo que podría llevar a más jóvenes a interactuar con esta tecnología, a menos que se aborden adecuadamente las preocupaciones de seguridad.
Con estas evaluaciones, queda claro que, aunque las plataformas de inteligencia artificial están comenzando a incorporar medidas de seguridad, aún existe un camino considerable por recorrer para asegurar que sean entornos seguros para los niños y adolescentes.
Gracias por leer Columna Digital, puedes seguirnos en Facebook, Twitter, Instagram o visitar nuestra página oficial. No olvides comentar sobre este articulo directamente en la parte inferior de esta página, tu comentario es muy importante para nuestra área de redacción y nuestros lectores.


