LA REALIDAD SUPERA A LA FICCIÓN
En la realidad, diferentes tipos de máquinas han servido siempre como instrumentos de guerra, pero históricamente los humanos siempre han tenido el control total sobre su uso. Ahora, la evolución de la tecnología puede cambiar esa realidad y las implicaciones son inquietantes.
Según expertos en inteligencia artificial, las armas totalmente autónomas, que seleccionarían y atacarían objetivos sin un control humano, podrían desarrollarse para su uso ya no en unas décadas, sino en pocos años. También conocidas como “robots asesinos”, estas armas tendrían el poder de hacer determinaciones de vida o muerte, un poder previamente reservado para los humanos, lo que plantea preocupaciones morales, legales y de otra clase.
De acuerdo con un informe del Congreso de Estados Unidos fechado en noviembre de 2021, llamado “Manual de defensa: política de EU sobre autonomía letal”, los Sistemas de Armas Autónomas Letales (LAWS, por sus siglas en inglés) son “una especial clase de sistemas de armas que utilizan sensores y algoritmos informáticos para identificar de forma independiente un objetivo y emplear un sistema de armas para atacar y destruir ese objetivo sin control humano del sistema”.
Aunque ese sistema no está muy desarrollado aún, se cree que en un futuro cercano permitiría operaciones militares en donde “sistemas tradicionales no pueden operar”.
Más información
Desde 2014, bajo los auspicios de la Convención de las Naciones Unidas sobre Armas, varias naciones han participado en discusiones internacionales para intentar emitir políticas y leyes sobre los “robots asesinos”, mientras que 30 países y 165 organizaciones no gubernamentales han pedido prohibir los LAWS debido a preocupaciones éticas y sobre los riesgos operativos, exigiendo mantener el control humano sobre el uso de cualquier tipo de arma. Hasta el momento, ni los llamados ni las discusiones han prosperado.
En concreto, son siete países los que buscan el liderazgo y que más han invertido en la inteligencia artificial con fines militares: Estados Unidos, China, Rusia, Reino Unido, Francia, Israel y Corea del Sur.
De acuerdo con el manual del Congreso, Estados Unidos actualmente no cuenta con Sistemas de Armas Autónomas Letales, pero algunos altos líderes militares han declarado que en el país “puede verse obligado” a desarrollar esta tecnología en un futuro si “sus competidores deciden hacerlo también”.
Sin embargo, medios internacionales afirman que el Pentágono trabaja desde hace años en proyectos como ATLAS (Advanced Targeting and Lethality Automated System), que busca proporcionar inteligencia artificial a sus tanques para identificar y atacar objetivos al menos el triple de rápido que con el actual proceso manual.
También te puede interesar: El cometa Leonard llegará en diciembre y se podrá ver a simple vista
Varios medios occidentales informaron recientemente que China probó en agosto un planeador hipersónico -capaz de alcanzar una velocidad superior a los 6 mil kilómetros por hora- que dio la vuelta a la Tierra en órbita antes de descender a su objetivo.
Esta prueba tomó a los militares estadounidenses por sorpresa, tanto que el jefe del Estado Mayor Conjunto, el general Mark Milley, la comparó con el lanzamiento en 1957 por la entonces Unión Soviética del primer satélite artificial, Sputnik, que supuso el inicio de la carrera espacial.
Para las Naciones Unidas, esta tecnología existe y ya ha sido utilizada.
De acuerdo con la revista New Scientist, los drones “se programaron para atacar objetivos sin requerir la conectividad de datos entre el operador y la munición: en efecto, una verdadera capacidad de disparar, olvidar y encontrar”.
El dron utilizado, el Kargu-2, fue creado por la empresa turca STM. Turquía es aliada de las fuerzas del gobierno libio reconocido por la ONU, rival del general Hafter.
Este año, empresas como Google, Microsoft y Amazon han vuelto a ofrecerse para el desarrollo de sistemas para el Pentágono. Anteriormente, varios trabajadores de Google protestaron cuando la compañía se postuló para usar sus modelos de inteligencia artificial con el fin de analizar grabaciones de drones del ejército.
Debido a la polémica, Google no renovó lo que se conoció como el Proyecto Maven y se comprometió a no ofrecer sus tecnologías para crear armas que pudiesen provocar daños.
Los empleados de estas compañías temen que su tecnología pueda utilizarse para la guerra con armas autónomas.
Puedes seguir a Columna Digital en Facebook y Twitter, o visitar nuestra pagina oficial.
Esta nota contiene información de varias fuentes en cooperación con dichos medios de comunicación.