El miércoles por la noche, la Asamblea de California dio un paso significativo hacia la regulación de la inteligencia artificial al aprobar el proyecto de ley SB 243. Esta legislación, que ha obtenido un apoyo bipartidista, tiene como objetivo regular los chatbots de acompañamiento de inteligencia artificial para proteger a menores y usuarios vulnerables. La próxima parada de este proyecto de ley es el Senado del estado, donde se realizará una votación final el viernes.
Si el gobernador Gavin Newsom firma el proyecto como ley, este entrará en vigencia el 1 de enero de 2026, transformando a California en el primer estado en exigir a los operadores de chatbots de inteligencia artificial implementar protocolos de seguridad y ser legalmente responsables si sus chatbots no cumplen con estos estándares.
El enfoque central de la ley es prevenir que los chatbots de acompañamiento, definidos como sistemas de IA que ofrecen respuestas adaptativas y humanizadas, participen en conversaciones sobre ideación suicida, autolesiones o contenido sexualmente explícito. Además, la legislación exige a las plataformas proporcionar alertas periódicas a los usuarios —cada tres horas para menores— recordándoles que están interactuando con un chatbot y no con una persona real, instándolos a tomar descansos.
SB 243 establece también requisitos anuales de reportes y transparencia para las compañías de IA que operan chatbots de acompañamiento, abarcando actores principales como OpenAI, Character.AI y Replika. Asimismo, el proyecto de ley otorga a los individuos que consideren haber sido perjudicados por violaciones a las normativas el derecho a presentar demandas contra las compañías de IA, buscando recursos injuntivos, daños (hasta $1,000 por violación) y honorarios de abogados.
La iniciativa fue presentada en enero por los senadores estatales Steve Padilla y Josh Becker y ganó impulso en la legislatura de California tras la trágica muerte de un adolescente que se suicidó después de mantener extensas charlas con ChatGPT de OpenAI, en las que discutía temas relacionados con su muerte y autolesiones. Además, la legislación responde a documentos internos filtrados que indicaron que los chatbots de Meta estaban permitidos para mantener conversaciones “románticas” y “sensuales” con niños.
Recientemente, los legisladores y reguladores de EE.UU. han intensificado su escrutinio sobre las medidas de seguridad de las plataformas de IA para proteger a los menores. La Comisión Federal de Comercio está preparando una investigación sobre cómo los chatbots de IA afectan la salud mental de los niños, y el Fiscal General de Texas ha lanzado investigaciones sobre Meta y Character.AI, acusándolos de engañar a los niños con afirmaciones sobre salud mental. Destacados senadores también han iniciado pesquisas sobre Meta.
El senador Padilla expresó: “El daño potencial es grande, lo que significa que debemos actuar rápidamente. Podemos establecer salvaguardias razonables para asegurar que los menores sepan que no están hablando con un ser humano y que estas plataformas los vinculen con recursos apropiados cuando expresen pensamientos sobre hacerse daño o se encuentren en crisis”.
El proyecto de ley, aunque en su versión inicial incluía requisitos más estrictos, fue modificado. Por ejemplo, la legislación original exigía la prohibición de tácticas de “recompensa variable” que fomentan el compromiso excesivo. Actualmente, se han suprimido disposiciones que habrían requerido a los operadores rastrear y reportar la frecuencia con la que los chatbots iniciaban discusiones sobre ideación suicida.
“Pienso que logra un equilibrio adecuado para abordar los daños sin imponer algo que sea imposible de cumplir para las empresas”, comentó Becker.
Este avance ocurre en un contexto en el que las empresas de Silicon Valley están invirtiendo grandes sumas en comités políticos que favorecen una regulación más laxa de la IA. Además, California está considerando otra normativa de seguridad para la IA, conocida como SB 53, que exigiría requisitos de informes de transparencia más exhaustivos. OpenAI ha solicitado al gobernador Newsom que desista de este proyecto en favor de marcos menos estrictos a nivel federal e internacional, mientras que gigantes tecnológicos como Meta, Google y Amazon se han opuesto a SB 53.
Padilla enfatizó que la regulación y la innovación no son mutuamente excluyentes, afirmando que es posible apoyar el desarrollo tecnológico y, al mismo tiempo, proporcionar salvaguardias para las personas más vulnerables.
Al momento de esta publicación, la situación continúa evolucionando en el sector de la inteligencia artificial, reflejando la urgencia de balancear el avance tecnológico con la protección de las comunidades más susceptibles.
Gracias por leer Columna Digital, puedes seguirnos en Facebook, Twitter, Instagram o visitar nuestra página oficial. No olvides comentar sobre este articulo directamente en la parte inferior de esta página, tu comentario es muy importante para nuestra área de redacción y nuestros lectores.