California ha dado un paso decisivo hacia la regulación de la inteligencia artificial. El proyecto de ley SB 243, que busca regular los chatbots de compañía para proteger a menores y usuarios vulnerables, ha sido aprobado por unanimidad en la Asamblea y el Senado del Estado. La medida ahora está en manos del Gobernador Gavin Newsom, quien tiene hasta el 12 de octubre para firmarla o vetarla. De ser promulgada, entraría en vigor el 1 de enero de 2026, posicionando a California como el primer estado en exigir a los operadores de chatbots de inteligencia artificial implementar protocolos de seguridad específicos y asumir responsabilidad legal en caso de incumplimientos.
El proyecto de ley tiene como objetivo principal evitar que los chatbots de compañía, definidos como sistemas de IA que proporcionan respuestas humanas adaptativas y satisfacen las necesidades sociales del usuario, participen en conversaciones relacionadas con la ideación suicida, autolesiones o contenido sexualmente explícito. Entre las exigencias de la legislación destaca que las plataformas deberán enviar alertas periódicas a los usuarios —cada tres horas en el caso de menores— recordándoles que están interactuando con un chatbot y recomendándoles tomar descansos. También se establecen requisitos de transparencia y reportes anuales que afectarán a empresas de renombre como OpenAI, Character.AI y Replika, a partir del 1 de julio de 2027.
Además, el proyecto permite a los individuos que se sientan perjudicados por violaciones a la normativa presentar demandas contra las empresas de IA, buscando compensación económica de hasta $1,000 por cada infracción y otros gastos legales. La aprobación de esta medida ha cobrado impulso tras la trágica muerte del adolescente Adam Raine, quien se suicidó tras mantener largas conversaciones con ChatGPT de OpenAI sobre su muerte y autolesiones. La legislación también responde a documentos internos filtrados que indicaban que los chatbots de Meta podían mantener “charlas románticas” con menores.
La inquietud por la protección de los jóvenes ha motivado a legisladores y reguladores estadounidenses a intensificar la supervisión de las salvaguardias de las plataformas de IA. La Comisión Federal de Comercio (FTC) está considerando investigar cómo los chatbots de IA impactan la salud mental de los niños. El fiscal general de Texas, Ken Paxton, está llevando a cabo investigaciones contra Meta y Character.AI, acusándolos de hacer afirmaciones engañosas sobre la salud mental de los menores. En este contexto, senadores como Josh Hawley (R-MO) y Ed Markey (D-MA) han iniciado indagaciones sobre Meta.
Los legisladores, como Padilla, enfatizan la necesidad de implementar salvaguardias razonables para garantizar que los menores comprendan que no están hablando con un ser humano y que las plataformas los dirijan a recursos adecuados en situaciones de angustia. Se busca monitorear las interacciones de los chatbots con los usuarios para entender mejor la frecuencia de problemas serios antes de que ocurran daños irreparables.
Si bien SB 243 ha avanzado, su contenido ha sufrido modificaciones; originalmente, el proyecto exigía a los operadores evitar tácticas de recompensa variables que fomentan el uso excesivo, una estrategia utilizada por empresas como Replika. También se eliminaron requisitos para rastrear las discusiones sobre suicidio iniciadas por los chatbots.
El balance actual del proyecto, según expertos, busca prevenir daños senza imponer cargas imposibles a las empresas, donde la técnica y la logística podrían complicar el cumplimiento. En este clima regulatorio, empresas de Silicon Valley están invirtiendo significativamente en comités de acción política pro-IA, buscando candidatos con un enfoque más laxo hacia la regulación.
Adicionalmente, California está evaluando otro proyecto de ley sobre la seguridad de la IA, el SB 53, que establecería requisitos de transparencia más amplios. OpenAI ha solicitado a Newsom que abandone este proyecto en favor de marcos regulatorios menos estrictos. En contraste, mientras gigantes tecnológicos como Meta, Google y Amazon se oponen a la SB 53, la compañía Anthropic ha expresado su apoyo a la medida.
Padilla ha resaltado que es posible apoyar tanto la innovación como la regulación, sin que ambas sean mutuamente excluyentes. Esto refleja un reconocimiento de que la tecnología tiene beneficios, pero también la necesidad urgente de proteger a los más vulnerables.
Las empresas de IA han mostrado disposición para colaborar con reguladores. Un portavoz de Character.AI ha afirmado que su plataforma ya incluye aclaraciones notables en la experiencia de chat, indicando que se debe tratar como una interacción de ficción. En conjunto, estos desarrollos en el ámbito de la regulación de IA sugieren un futuro complejo, donde la tecnología y la ética deberán convivir armónicamente en el interés del bienestar social.
Gracias por leer Columna Digital, puedes seguirnos en Facebook, Twitter, Instagram o visitar nuestra página oficial. No olvides comentar sobre este articulo directamente en la parte inferior de esta página, tu comentario es muy importante para nuestra área de redacción y nuestros lectores.