En un monumental giro en la regulación de la inteligencia artificial, Anthropic ha expresado su apoyo oficial al proyecto de ley SB 53, propuesto por el senador estatal Scott Wiener. Este proyecto, que podría convertirse en el primero en EE. UU. en exigir transparencia a los desarrolladores de modelos de IA, busca que gigantes tecnológicos como OpenAI, Google y xAI implementen marcos de seguridad rigurosos. Esta medida se presenta en un contexto en el que importantes grupos tecnológicos, como la CTA y Chamber for Progress, se oponen firmemente a la ley.
En palabras de Anthropic, “el reto no es si necesitamos una regulación de IA, sino si la abordaremos de manera reflexiva hoy o de manera reactiva mañana”. Este enfoque alude a la urgencia con la que deben manejarse los avances en IA, dado que las decisiones se toman en un entorno que carece de consenso en Washington.
El SB 53 no solo obligaría a los desarrolladores de modelos de IA a crear informes públicos sobre seguridad antes de lanzar nuevas tecnologías, sino que también establecería protecciones para denuncias de empleados que reporten preocupaciones de seguridad. Específicamente, el proyecto se centra en limitar riesgos catastróficos, definidos como la muerte de al menos 50 personas o daños por encima de mil millones de dólares, sin abordar, en su medida, problemas más inmediatos como los deepfakes.
Aunque la versión anterior del SB 53 fue aprobada por el Senado de California, aún necesita una votación final antes de llegar a la mesa del gobernador. Hasta la fecha, el gobernador Gavin Newsom no ha comentado sobre esta iniciativa, recordando que anteriormente vetó un proyecto similar, el SB 1047.
Las propuestas de regulación han encontrado una fuerte oposición tanto en Silicon Valley como en administraciones del pasado, que argumentan que tales medidas podrían limitar la capacidad innovadora de EE. UU. frente a competidores como China. Inversionistas destacados como Andreessen Horowitz han manifestado su preocupación sobre cómo estas regulaciones podrían violar la Cláusula de Comercio de la Constitución, lo que impediría a los estados implementar leyes que afecten el comercio interestatal.
Por su parte, Jack Clark, cofundador de Anthropic, ha señalado que la industria de la tecnología no puede esperar a que el gobierno federal actúe sobre estas cuestiones. La falta de un estándar federal actualiza la relevancia de SB 53, que ofrece un sólido modelo para la gobernanza de la IA.
En agosto, OpenAI envió una carta al gobernador instándole a no aprobar regulaciones que puedan ahuyentar a las startups de California, aunque esta carta no menciona directamente al SB 53. Críticas a esta carta han surgido, catalogándola como engañosa por expertos en políticas.
A pesar de la resistencia, SB 53 es vista como un enfoque más moderado en comparación con proyectos anteriores. Expertos aseguran que, aunque muchas compañías ya tienen políticas internas de seguridad, la ley establecida obligaría a estos estándares en la legislación.
Recientemente, SB 53 fue enmendado para remover una cláusula que exigía auditorías de terceros, un punto de gran controversia para las empresas tecnológicas, que las consideran excesivas.
Con el avance de la regulación, la industria observa con atención cómo estos acontecimientos podrían establecer un nuevo paradigma en la seguridad y transparencia de la inteligencia artificial.
Gracias por leer Columna Digital, puedes seguirnos en Facebook, Twitter, Instagram o visitar nuestra página oficial. No olvides comentar sobre este articulo directamente en la parte inferior de esta página, tu comentario es muy importante para nuestra área de redacción y nuestros lectores.


