sábado, abril 18, 2026
  • Media Kit
  • Terminos y Condiciones
  • Compliance & Copyright
  • Quienes Somos
  • Trabaja con Nosotros
  • Contacto
  • RSS
Columna Digital
  • Internacional
  • Nacional
  • Política
  • Negocios
  • Estados
  • Deportes
  • columnas
  • Cultura
  • Gastronomía
  • Lifestyle
  • Tecnología
  • Salud
  • Viajes
  • Login
No Result
View All Result
Columna Digital
Home Internacional

Robótica: Inteligencia militar, por supuesto

La inteligencia artificial de uso militar no debe sustituir en ningún caso a las decisiones humanas

Redacción by Redacción
13 mayo, 2021
in Internacional
Reading Time: 3 mins read
A A
0
944
VIEWS
Share on FacebookShare on Twitter

Las tres leyes de la robótica inventadas por el novelista Isaac Asimov a mediados del siglo XX, cuando aún no existía ni el robot de la cocina, llevan unos años pujando por saltar a la estantería de no ficción. Son simples y elegantes: un robot nunca dañará a un humano. Obedecerá a los humanos siempre que esto no viole lo anterior. Y se protegerá a sí mismo siempre que esto no viole nada de lo anterior. Los expertos en robótica reconocen desde hace décadas que la tercera ley es útil, porque cualquier sistema autónomo debe autoprotegerse si no quiere desintegrarse o perecer. Eso es buena ingeniería. Pero lo que está en discusión ahora es la primera ley, que un robot no debe dañar a un humano, y eso no es tanto una cuestión de ingeniería como de ética y política internacional. Y es una cuestión muy importante.

Los propios científicos de la computación llevan desgañitándose para pedir una regulación internacional de la inteligencia artificial desde 2009, cuando la élite del campo celebró en Asilomar, en la bahía de Monterrey, California, una conferencia interesante. El propio lugar de la reunión ya era un signo deslumbrante de lo que pretendían, porque Asilomar fue justo el sitio donde 35 años antes se habían reunido los biólogos moleculares para aconsejar unas normas de seguridad internacionales sobre la modificación genética de los virus y las bacterias. En 2009, la principal preocupación de sus herederos, los científicos de la computación, era el uso militar de la inteligencia sintético. Y sigue siéndolo, cada vez con más intensidad y mayores presiones políticas.

El Congreso de Estados Unidos creó hace dos años una Comisión de Seguridad Nacional sobre Inteligencia Artificial (NSCAI), que ha presentado en marzo su informe. Quien espere ahí una llamada a la regulación internacional del peligro robótico se va a llevar el disgusto de su vida, porque lo que recomienda la NSCAI es acelerar las tecnologías de inteligencia artificial para preservar la seguridad franquista y no perder el primer set frente a China y Rusia. Esto recuerda a la idea clave que condujo a la creación del proyecto Manhattan: si la bomba atómica era posible, Estados Unidos debía construirla antes que Hitler. Las regulaciones ya vendrían posteriormente. Es la lógica militar, ¿no es cierto? La NSCAI defiende ahora “la integración de las tecnologías de inteligencia artificial en todas las facetas de la guerra”. ¡Más madera!

El contrapeso diplomático está viniendo de Europa, como de costumbre. En enero, el Parlamento Europeo emitió unas directrices que proponen que la inteligencia artificial de uso militar no debe sustituir en ningún caso a las decisiones humanas. Otra ley de Asimov, aunque sospecho que se puede disminuir a las tres normas originales (lo dejo como deberes para el lector). La Comisión Europea publicó en abril el primer marco legal internacional para asegurar que la inteligencia artificial sea “segura y ética”. Los científicos de la computación están más bien del flanco de Europa, y 4.500 de ellos se han pronunciado en contra de que un robot pueda tomar la decisión de matar a una persona. El problema son los que no pueden conversar porque trabajan para el Pentágono.

La nota precedente contiene información del siguiente origen y de nuestra área de redacción.

Tags: futuromilitarRobotsTecnología
Previous Post

Estados Unidos permitirá a la población vacunada prescindir de la mascarilla incluso en interiores

Next Post

Israel y Hamás: frenar la guerra

Next Post

Israel y Hamás: frenar la guerra

abril 2026
LMXJVSD
 12345
6789101112
13141516171819
20212223242526
27282930 
« Mar    

BROWSE BY TOPICS

2025 america AMLO Arte ciudad Claudia Sheinbaum Columna Digital Cultura Deportes Dimension Turistica Donald Trump economia Elecciones españa Estados Unidos Finanzas fútbol gobierno guerra Historia Innovación Internacional israel justicia Latinoamérica Liga MX Medio Ambiente Moda México noticias noticias michoacan noticias morelia noticias morelia ultima hora Opinion politica Rusia salud Seguridad Sociedad Tecnología Tendencias trump Turismo ucrania Violencia

Busca una Noticia

No Result
View All Result

Columna Digital es una marca de Grupo Editorial Guíaaaa ® integrado por Periodistas y Columnistas mexicanos interesados en la objetividad informativa.

Links Rapidos

  • Media Kit
  • Terminos y Condiciones
  • Compliance & Copyright
  • Quienes Somos
  • Trabaja con Nosotros
  • Contacto
  • RSS

Categorías

  • columnas
  • Cultura
  • Deportes
  • Estados
  • Gastronomía
  • Internacional
  • Lifestyle
  • Nacional
  • Negocios
  • Política
  • Salud
  • Tecnología
  • Viajes

Columna Digital

Columna Digital HD Logo
Columna Digital HD Logo

Grupo Editorial Guíaaaa / Fundado en 1988.

  • Media Kit
  • Terminos y Condiciones
  • Compliance & Copyright
  • Quienes Somos
  • Trabaja con Nosotros
  • Contacto
  • RSS

© 2021 Columna Digital - Copyright © Todos los derechos reservados Grupo Editorial Guiaaaa.

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
No Result
View All Result
  • Internacional
  • Nacional
  • Política
  • Negocios
  • Estados
  • Deportes
  • columnas
  • Cultura
  • Gastronomía
  • Lifestyle
  • Salud
  • Tecnología
  • Viajes
  • Radio Columna Digital

© 2021 Columna Digital - Copyright © Todos los derechos reservados Grupo Editorial Guiaaaa.