Un nuevo debate sobre la conciencia artificial y su posibilidad ha cobrado impulso en la comunidad científica, especialmente tras la publicación del trabajo de Alexander Lerchner, un destacado científico investigador en DeepMind, la división de inteligencia artificial de Google. En su reciente estudio, Lerchner sostiene que ninguna inteligencia artificial, ni ningún sistema computacional, podrá alcanzar la conciencia. Esta afirmación contrasta notablemente con las visiones optimistas de varios CEOs de empresas de inteligencia artificial, incluido Demis Hassabis, quien pronostica que la inteligencia general artificial (AGI) tendrá un impacto diez veces más significativo que la Revolución Industrial, y lo hará a un ritmo acelerado.
La investigación de Lerchner presenta una discrepancia entre las narrativas que las empresas de inteligencia artificial divulgaban en los medios y la realidad analizada bajo un escrutinio riguroso. Varios filósofos y expertos en conciencia han expresado su satisfacción al ver que estos argumentos, que han estado en la discusión académica durante décadas, emergen desde el seno de una de las principales empresas tecnológicas. Sin embargo, algunos críticos, como Johannes Jäger, biólogo evolutivo y filósofo, sugieren que Lerchner ha reinventado conceptos ya establecidos, indicando que su desconocimiento sobre la literatura pertinente es notable.
El punto central del debate en el estudio de Lerchner es lo que él llama la “falacia de la abstracción”. Este concepto se refiere a la errónea creencia de que si una IA puede manipular datos, lenguaje o símbolos de manera que imite comportamientos humanos, entonces podría ser consciente. No obstante, según Lerchner, esto resulta imposible sin un cuerpo físico que provea a la IA de necesidades y experiencias humanas. En este sentido, plantea que una IA, por sofisticada que sea, es simplemente un conjunto de patrones almacenados que carece de significado intrínseco sin la intervención de un agente humano.
Lerchner aborda la posibilidad de que una IA física, diseñada con necesidades humanas, también fracasaría en alcanzar la conciencia, aunque este aspecto queda fuera del foco principal de su artículo. Todo esto se enmarca dentro de un vasto corpus de investigación que, según sus críticos, no está suficientemente citado en su trabajo.
Expertos como Mark Bishop, profesor de computación cognitiva, han señalado que a pesar de coincidir en su esencia con las ideas de Lerchner, los argumentos que presenta son una reiteración de discusiones previas. Esto ha suscitado curiosidad sobre el motivo por el cual Google permitió la publicación de un trabajo que podría, según varios académicos, limitar las proyecciones futuristas sobre el potencial comercial de la AGI.
Un aspecto crucial del estudio de Lerchner es su declaración de que la AGI no supone necesariamente la creación de una entidad moral, sino que se traduce en el perfeccionamiento de una herramienta no consciente. A pesar de esto, DeepMind continúa operando bajo la premisa de que la AGI es una realidad inminente, como lo evidencia la reciente búsqueda de un científico de investigación pos-AGI.
Lerchner incluyó un aviso en su estudio indicando que las perspectivas presentadas son personales y no representan necesariamente la postura de su empleador. Posteriormente a su publicación, el documento ha sido objeto de modificaciones, removeándose vínculos de marca de Google en el PDF original. La atmósfera dentro de la comunidad científica sugiere que la forma en que se discute la conciencia y la inteligencia artificial podría tener repercusiones significativas en legislaciones futuras y la percepción pública de estas tecnologías.
La reflexión crítica sobre el trabajo de Lerchner revela una inquietante insularidad en la comunidad de investigación en IA, donde muchos de los principales desarrolladores parecen ignorar literatura fundamental relacionada con la historia y las definiciones de términos clave como “inteligencia” y “agencia”. Esto genera preguntas sobre la profundidad del entendimiento que estos científicos tienen sobre los conceptos que manejan.
En conclusión, el debate sobre la posibilidad de que las inteligencias artificiales logren la conciencia está lejos de resolverse, y sugiere que la discusión en torno a la AGI debe no sólo explorar lo técnico, sino también reconocer la rica historia filosófica y biológica que sustenta estas ideas. La conexión entre el trabajo de Lerchner y el futuro de la inteligencia artificial destaca la importancia de la educación interdisciplinaria y la apertura a perspectivas históricas en el campo de la tecnología.
Gracias por leer Columna Digital, puedes seguirnos en Facebook, Twitter, Instagram o visitar nuestra página oficial. No olvides comentar sobre este articulo directamente en la parte inferior de esta página, tu comentario es muy importante para nuestra área de redacción y nuestros lectores.


