El reciente avance en la legislación sobre inteligencia artificial en California, con la aprobación de la Ley SB 53, subraya que la regulación estatal puede coexistir con la innovación en el campo de la IA. Esta ley, firmada por el gobernador Gavin Newsom, se convierte en un hito al exigir a los grandes laboratorios de IA que sean transparentes sobre sus protocolos de seguridad, enfocándose en evitar riesgos catastróficos. Entre estos riesgos se incluyen la posibilidad de que los modelos de IA sean utilizados para ciberataques a infraestructuras críticas o para crear armas biológicas.
Adam Billen, vicepresidente de políticas públicas en la organización de defensa dirigida por jóvenes Encode AI, enfatiza que, aunque las empresas tecnológicas ya están realizando pruebas de seguridad y emitiendo tarjetas de modelo, la presión competitiva puede llevarlas a escatimar en esos esfuerzos. Según Billen, políticas como la SB 53 son cruciales para mantener estándares y proteger la seguridad pública, especialmente en un contexto donde algunas empresas podrían relajar los requisitos bajo la presión de la competencia.
A pesar de la preocupación general en Silicon Valley sobre cómo cualquier regulación podría obstaculizar el progreso tecnológico y la competitividad de EE.UU. frente a países como China, Billen argumenta que tomar medidas como eliminar leyes estatales que abordan temas cruciales como la seguridad infantil y la discriminación algorítmica no es la solución adecuada. La industria ha estado invirtiendo considerablemente en campañas políticas para asegurarse de que los legisladores favorezcan un entorno pro-IA.
En este sentido, varias entidades, incluyendo grandes actores del sector y firmas de capital de riesgo, han desarrollado una coalición que se opone a propuestas como la moratoria sobre la regulación de IA, que impediría cualquier legislativa estatal en este ámbito durante diez años. Sin embargo, la lucha aún no ha terminado, ya que existen intentos por parte de organizaciones políticas para reintroducir un marco normativo federal que podría anular las leyes estatales.
Billen advierte que una legislación federal estrechamente definida podría poner en peligro el sistema federalismo que caracteriza la gobernante democrática de EE. UU., especialmente en relación con las tecnologías más avanzadas. La SB 53, aunque relevante, no es suficiente para abordar todos los riesgos asociados con la IA. A su juicio, leyes específicas deben tener en cuenta la amplia gama de desafíos que surgen con esta tecnología.
En el contexto de la competencia global, Billen reconoce la importancia de mantener la ventaja de EE.UU. en IA, sugiriendo que las políticas dirigidas a la producción y exportación de chips de IA podrían ser más efectivas que la eliminación de leyes protectoras a nivel estatal. A pesar de los esfuerzos del gobierno para bloquear el acceso a chips avanzados para China, las decisiones comerciales de compañías como Nvidia revelan una intrincada dinámica entre la seguridad y la rentabilidad.
La SB 53 destaca un ejemplo de cómo la democracia puede funcionar —industrias y legisladores colaborando hacia una regulación que sirva a todos. Billen sostiene que esta ley muestra que un enfoque colaborativo puede ser efectivo, subrayando que la democracia y el federalismo son pilares fundamentales en la formulación de políticas que impacten en el desarrollo de una tecnología tan importante como la inteligencia artificial.
Gracias por leer Columna Digital, puedes seguirnos en Facebook, Twitter, Instagram o visitar nuestra página oficial. No olvides comentar sobre este articulo directamente en la parte inferior de esta página, tu comentario es muy importante para nuestra área de redacción y nuestros lectores.