Los Estados miembro de la Unesco cuentan desde ahora una guía para “afrontar de manera responsable los efectos conocidos y desconocidos de la inteligencia artificial en los seres humanos, las sociedades y el medio ambiente y los ecosistemas”. Ese es el objetivo de la Recomendación sobre la Ética de la Inteligencia Artificial, una suerte de declaración universal para el uso de estos sistemas que durante la conferencia general celebrada este miércoles fue adoptada por los 193 países del organismo.
La guía contempla los principios que deben inspirar el desarrollo de tecnologías tan controvertidas como el reconocimiento facial y aborda también temas menos polémicos. Como el potencial efecto de los sistemas de recomendación sobre la diversidad cultural o lingüística.
El documento de 30 páginas que Azoulay describe como un “texto histórico” no es legalmente vinculante. Pero desde la Unesco esperan que se convierta en una referencia global para el desarrollo y uso ético de esta tecnología. En este contexto conviven ya numerosos marcos y guías desarrollados por organizaciones de diferentes niveles. Desde la iniciativa de entidades como la OCDE hasta propuestas como la carta de derechos digitales. Adoptada por el gobierno español el pasado 14 de julio.
En la redacción del documento
Se inició a principios de 2020 han participado grupos de expertos. Formados por representantes de Google, Facebook, Microsoft, las Universidades de Stanford y Nueva York, la Academia China de Ciencia y Tecnología, en septiembre del año pasado. Se presentó un primer borrador y se abrió el plazo para que los países de la Unesco presentasen sus comentarios y observaciones sobre el texto. Que ha seguido revisándose hasta la última conferencia general.
Entre las claves de la recién adoptada recomendación se encuentra la acotación de principios básicos. Que atañen al desarrollo de algunas de las tecnologías más cuestionadas del momento, como los sistemas de reconocimiento facial. De acuerdo con el documento adoptado por la Unesco, que cuenta con países como China entre sus integrantes. Estos sistemas “no deberían ser utilizados con fines de vigilancia masiva o rendición de cuentas sociales”. En el caso de las armas autónomas, la subdirectora general de Ciencias Sociales y Humanas de la Unesco, Gabriela Ramos, explica en un comunicado que, aunque no se hace referencia explícita a los drones de uso militar ni al armamento autónomo letal, la recomendación establece normas básicas como el que “las decisiones de vida o muerte no deben ser tomadas por sistemas de inteligencia artificial” y se especifica que en estos escenarios “la última palabra debe ser humana”.
Puedes seguir a Columna Digital en Facebook y Twitter, o visitar nuestra pagina oficial.
La nota precedente contiene información del siguiente origen y de nuestra área de redacción.


