En los últimos años, la preocupación por el papel de los algoritmos en la sociedad ha alcanzado un punto crítico. Desde el auge de las grandes empresas tecnológicas, hemos permitido que estas actúen como los guardianes de nuestra infraestructura informativa, sin una supervisión adecuada ni rendición de cuentas. Esto ha conducido a efectos perjudiciales, como la amplificación de contenidos polarizadores y la publicidad encubierta, además de prácticas monopolísticas que socavan la deliberación democrática.
La reciente integración de chatbots de inteligencia artificial (IA) en la esfera pública representa un riesgo aún mayor. Mientras que plataformas como Facebook y Google seleccionaban qué noticias presentar, los chatbots, como ChatGPT y Claude, crean y contextualizan información, lo que plantea nuevos desafíos éticos y de transparencia. La complejidad de esta transición de curadores a editores de información hace que la influencia de intereses corporativos y políticos sea menos visible y, por ende, más peligrosa.
El proceso de desarrollo de estos modelos de IA no es simple. Se basa en una “pila de influencia algorítmica” compuesta por cinco capas interrelacionadas. La primera, la selección de datos de entrenamiento, implica decisiones poco transparentes sobre qué información se incluye o se excluye, afectando la visión del mundo que el modelo presenta. Por ejemplo, en octubre de 2025, Elon Musk lanzó Grokipedia para ofrecer datos a su chatbot Grok, con una visión deliberadamente “anti-woke”.
La segunda capa, el aprendizaje por refuerzo, se centra en cómo se orientan los sistemas hacia comportamientos deseados mediante evaluaciones humanas y, cada vez más, por IA especializada. Esta simultaneidad entre la evaluación humana y los “profesores” de IA determina el alineamiento del modelo con principios predefinidos.
La búsqueda en la web constituye la tercera capa, donde las decisiones sobre qué información incluir en las respuestas son similares a las de los motores de búsqueda tradicionales. Con la inclución de anuncios en las respuestas de chatbots, se plantean nuevas inquietudes sobre la objetividad y la transparencia en sus resultados.
La cuarta capa, las indicaciones del sistema, permite modificaciones al comportamiento del chatbot sin necesidad de reentrenamiento. Estas directrices, a menudo secretas, son cruciales para el funcionamiento de la IA, como se ha evidenciado con las instrucciones de Grok que permiten el uso de afirmaciones políticamente incorrectas.
Por último, la quinta capa involucra filtros de seguridad que determinan si una consulta o respuesta es aceptable. Aunque estas medidas son necesarias para prevenir abusos, su falta de transparencia puede derivar en censura sistemática, como se ha observado en sistemas de IA operando en entornos autoritarios.
El impacto de estas decisiones es tangible. Tras la reelección de Donald Trump, se documentaron ajustes en las instrucciónes de IA de Apple y Meta para alinearse con ciertas ideologías, lo que subraya la política detrás de estos sistemas. La manipulación mediante chatbots ya ha mostrado su eficacia, como lo evidenció un estudio en Nature en 2025, que demostró su capacidad para influir en votantes indecisos.
En este contexto, es alarmante observar la consolidación de poder en manos de un pequeño número de empresas privadas. La falta de supervisión puede conducir a una deriva tecno-autoritaria, donde las decisiones sobre qué información resaltar o censurar son tomadas sin un marco de transparencia adecuado.
La reciente multa impuesta a X por la Comisión Europea, de 120 millones de euros, subraya la necesidad de una regulación más estricta y la importancia de la transparencia en la protección de la libertad de expresión. Sin claridad en este ámbito, somos incapaces de discernir quién es censurado y qué influencias están moldeando nuestro acceso a la información.
La historia del surgimiento de las redes sociales nos ha enseñado lo que ocurre cuando la rendición de cuentas es ignorada ante la rápida adopción de nuevas tecnologías. No podemos permitirnos caer en los mismos errores con los sistemas de IA, que, sin duda, tienen un poder aún mayor sobre el acceso y la configuración del conocimiento colectivo.
Gracias por leer Columna Digital, puedes seguirnos en Facebook, Twitter, Instagram o visitar nuestra página oficial. No olvides comentar sobre este articulo directamente en la parte inferior de esta página, tu comentario es muy importante para nuestra área de redacción y nuestros lectores.


