Líderes en inteligencia artificial (IA) como OpenAI y DeepMind se encuentran en una intensa competencia para desarrollar inteligencia artificial general (IAG), un nivel de IA capaz de realizar cualquier tarea intelectual que normalmente ejecutaría un ser humano. Esta carrera ha sido catalogada como una prioridad de seguridad nacional, especialmente para Estados Unidos y China, quienes están invirtiendo sumas masivas de dinero y recursos, a menudo comparadas con las del Proyecto Manhattan. En este contexto, la IA se transforma en una forma de “poder duro”, que se considera valiosa principalmente para las superpotencias con grandes capacidades tecnológicas.
Sin embargo, esta perspectiva parece cada vez más anticuada. Desde el lanzamiento de un modelo de IA de bajo costo y rendimiento competitivo por parte del desarrollador chino DeepSeek a principios de este año, se ha inaugurado una nueva era en la que la creación de herramientas de IA avanzadas ya no depende exclusivamente de unos pocos gigantes tecnológicos. Estos desarrolladores están demostrando que el verdadero potencial de la IA radica en su capacidad para fomentar el “poder blando”.
La idea de que “más grande es mejor” en el desarrollo de modelos de IA terminó en 2024. A partir de ese momento, la jerarquía en la eficacia de los modelos ya no se basa únicamente en el volumen de datos y la potencia de cálculo. DeepSeek ha demostrado que es posible construir modelos de primer nivel sin las millonarias inversiones que antes se requerían, y su elección de adoptar un enfoque de código abierto ha catalizado una ola de innovación en la industria.
La dominancia de OpenAI y un pequeño grupo de empresas ha sido desplazada por un panorama más competitivo y diversificado. Empresas como Alibaba, Moonshot AI, y Sakana AI están liderando la creación de modelos de código abierto, mientras que Meta (anteriormente Facebook) aumenta sus inversiones en su programa Llama. Esta nueva realidad implica que alarde de capacidades de modelos de vanguardia ya no es suficiente. En el ámbito de aplicaciones industriales, los chatbots de IA, aunque eficientes en respuestas generales, aún no alcanzan la fiabilidad necesaria para tareas críticas.
Se hace evidente que la inteligencia artificial del mundo real requiere gestionar procedimientos complejos, interdependencias y variables confusas. Esto implica que tanto los desarrolladores de modelos como los de aplicaciones deben trabajar de manera más interconectada, asumiendo un rol más activo en el diseño de aplicaciones específicas.
Este desarrollo está íntimamente relacionado con la geopolítica. El concepto de “IA soberana” está en auge, sugiriendo la importancia de disminuir la dependencia de tecnologías extranjeras para mantener la autonomía en el desarrollo de la IA. Históricamente, la preocupación sobre la externalización de infraestructuras críticas, como motores de búsqueda y redes sociales, se ha centrado en los déficits digitales y en los riesgos económicos que eso conlleva.
No obstante, una IA soberana no necesariamente implica el desarrollo de todas las herramientas en un solo país. De hecho, combinar modelos de diversas partes del mundo puede ser una estrategia más eficaz desde el punto de vista financiero y diversificación de riesgos. El verdadero objetivo no debe centrarse solo en la autosuficiencia, sino en el desarrollo de modelos atractivos que otros deseen adoptar voluntariamente.
El poder blando ha estado tradicionalmente asociado con la promoción de ideas y valores, como la democracia y los derechos humanos, así como con exportaciones culturales. A medida que diferentes modelos de IA coexistan, aquellos que logren ser más adoptados tendrán el potencial de influir en las decisiones cotidianas de la población, convirtiéndose en una fuente de poder blando.
A pesar de esto, la aceptación pública es crucial para el éxito. Muchos usuarios son escépticos sobre los sistemas de IA, ya sean chinos o estadounidenses, debido a preocupaciones sobre la vigilancia y la violación de la privacidad. Solo los sistemas considerados fiables serán adoptados plenamente por gobiernos y empresas. Esto abre la puerta para que Japón y Europa, si logran ofrecer modelos dignos de confianza, se consoliden como actores creíbles en el Sur Global.
La confianza en la IA contempla aspectos que van más allá de eliminar sesgos o prevenir filtraciones de datos. A largo plazo, es fundamental diseñar sistemas que potencien las capacidades humanas en lugar de sustituirlas. Si la IA termina concentrando riqueza y poder, podría intensificar las desigualdades sociales.
La historia de la inteligencia artificial apenas comienza, y hay una oportunidad de evitar que se convierta en una carrera en la que “el ganador se lo lleva todo”. Sin embargo, tanto en regiones desarrolladas como en el Sur Global, la desigualdad vinculada a la IA podría dar lugar a divisiones persistentes. Asegurar que esta tecnología sea una herramienta de empoderamiento y no de control es esencial para su futuro.
La información aquí presentada corresponde a la fecha de publicación original, 27 de agosto de 2025, y refleja las preocupaciones y avances en el ámbito de la inteligencia artificial hasta ese momento.
Gracias por leer Columna Digital, puedes seguirnos en Facebook, Twitter, Instagram o visitar nuestra página oficial. No olvides comentar sobre este articulo directamente en la parte inferior de esta página, tu comentario es muy importante para nuestra área de redacción y nuestros lectores.


