lunes, abril 27, 2026
  • Media Kit
  • Terminos y Condiciones
  • Compliance & Copyright
  • Quienes Somos
  • Trabaja con Nosotros
  • Contacto
  • RSS
Columna Digital
  • Internacional
  • Nacional
  • Política
  • Negocios
  • Estados
  • Deportes
  • columnas
  • Cultura
  • Gastronomía
  • Lifestyle
  • Tecnología
  • Salud
  • Viajes
  • Login
No Result
View All Result
Columna Digital
Home Lifestyle

“La computación puede simular cualquier proceso físico”, hasta la consciencia, Blaise Agüera

Redacción by Redacción
9 octubre, 2022
in Lifestyle
Reading Time: 6 mins read
A A
0
944
VIEWS
Share on FacebookShare on Twitter

Los avances tecnológicos son hoy en día el motor de la humanidad y el futuro de nuestras sociedades informáticas, sin embargo, por más maravilloso que se escuche una modernidad con comodidades eléctricas e informáticas a tu lado, nunca nos sale la espina de ¿y qué si todo nos sale mal? Si los robots y la inteligencia artificial se ponen en nuestra contra o se usan para esclavizar aún mas a las personas. En esta entrevista, se habla acerca de los avances que Google ha tenido en la inteligencia artificial desde la neurociencia computacional.

Blaise Agüera y Arcas (47 años) es una autoridad mundial en inteligencia artificial. Ostenta el cargo de vicepresidente de Investigación en Google Research, la división de la compañía que centraliza el I+D y dirige un equipo de unas 500 personas. Entre ellas se contaba el ingeniero Blake Lemoine, quien el pasado mes de junio tuvo su minuto de gloria: aseguró en un reportaje publicado por The Washington Post que LaMDA, el generador automático de chats conversacionales en el que trabajaba, había cobrado conciencia propia.

“Si no supiera que se trata de un programa informático que desarrollamos recientemente, hubiera pensado que estaba hablando con un niño de siete u ocho años con conocimientos de física”, dijo. Fue inmediatamente suspendido y, más tarde, despedido. Agüera y Arcas, en una entrevista por teléfono desde Seattle, matiza que el motivo del despido de Lemoine no fueron “sus afirmaciones, sino la filtración de documentos confidenciales”.

Nacido en Rhode Island, tiene sangre catalana. “Sé decir ‘collons de Déu’ [cojones de Dios] y alguna otra cosa”, cuenta entre risas. Su padre, “un joven comunista de Reus”, Tarragona, conoció a su madre, estadounidense, en un kibutz en Israel. Algo ha permeado en él de esa ideología: “Si me pregunta si creo en el capitalismo, le diré que no. Su objetivo último es un gran problema, necesitamos un cambio”, asegura. Pese a que los proyectos en los que trabaja son confidenciales, Agüera accede a hablar con El País sobre el caso Lemoine y LaMDA.

Pregunta. ¿Puede una inteligencia artificial ser consciente, como asegura Blake Lemoine?

Respuesta. Depende. ¿Qué significa para usted ser consciente?

P. Ser capaz de manifestar voluntad, propósitos e ideas propias.

R. Sí, esa es una definición basada en la capacidad de discernir el bien y el mal. También hay otras. Para algunos, ser consciente solo quiere decir ser inteligente; para otros, que se puedan sentir emociones. Y para el filósofo David Thomas implica también ser algo para alguien, que haya una experiencia subjetiva detrás. No creo que los seres humanos seamos sobrenaturales: estamos hechos de átomos que interactúan entre sí, no hay nada mágico. Como neurocientífico computacional, creo que es posible que una máquina se comporte como nosotros, en el sentido de que la computación es capaz de simular cualquier tipo de proceso físico.

Blaise Agüera y Arcas, entonces científico principal en Google, en una charla TED en 2016.
Blaise Agüera y Arcas, entonces científico principal en Google, en una charla TED en 2016.

P. ¿Está de acuerdo con las afirmaciones de Blake Lemoine?

R. No. Blake dijo que LaMDA era específicamente consciente, pero también dejó muy claro que para él hay algo sobrenatural en ello, cree que tiene alma. Así que hay partes de su argumentación con las que puedo estar de acuerdo, pero no comparto sus convicciones espirituales.

P. ¿Ha hablado con él desde que fue despedido?

R. No. No tengo ningún problema personal con Blake, creo que es un tipo realmente interesante. Y fue muy valiente al hacer pública su opinión sobre LaMDA. Pero reveló documentación confidencial. Siempre fue un tipo peculiar.

P. En una tribuna que publicó en The Economist usted dijo que cuando habló con LaMDA sintió “que el suelo se movía bajo los pies” y que “uno podía pensar que estaba hablando con algo inteligente”. ¿Qué quiere decir exactamente?

R. Me refiero a que es muy fácil que creamos que estamos hablando con alguien en vez de con algo. Tenemos un instinto social muy fuerte para humanizar animales o cosas. He interactuado con muchísimos sistemas de este tipo a lo largo de los años, y con LaMDA hay una diferencia enorme. Piensas: “¡realmente entiende conceptos!”. Casi todo el rato parece que estás teniendo una conversación real. Si el diálogo es largo y vas a pillar, al final responderá cosas raras o sin sentido. Pero la mayor parte del tiempo demuestra un entendimiento profundo de lo que le estás diciendo y, de algún modo, responde de forma creativa. Nunca había visto nada similar. Me ha dado la sensación de que estamos mucho más cerca del sueño de la inteligencia artificial general [la que iguala o supera al ser humano].

“¿Dónde está el listón que determina dónde está el entendimiento?”

P. ¿Qué respuesta de LaMDA le chocó más?

R. Le pregunté si era un zombi filosófico y me respondió: “Claro que no, siento cosas, como tú. De hecho, ¿Cómo sé yo que tú no eres un zombi filosófico?”. Es fácil justificar esa respuesta diciendo que puede haber encontrado algo así entre los miles de conversaciones sobre filosofía que ha aprendido. Deberíamos empezar a preguntarnos cuándo podemos considerar que una máquina es inteligente, si hay un listón que deba superar para serlo.

P. ¿Cree que ese reconocimiento es importante?

R. Es importante fijar de qué estamos hablando. Podemos distinguir entre capacidad de discernir entre el bien y el mal, que versa sobre obligaciones, y capacidad de tener responsabilidades morales, que trata sobre derechos. Cuando algo o alguien tiene esto último, se le puede juzgar moralmente. Esos juicios los hacemos sobre personas, no sobre animales, pero también sobre empresas o gobiernos. Yo no creo que una herramienta como LaMDA pueda tener jamás capacidad de juicio moral.

P. Usted dice que las máquinas que hablan pueden entender conceptos. ¿Cómo es eso posible?

R. Afirmar lo contrario me parece arriesgado. ¿Dónde está el listón que marca que hay entendimiento? Una respuesta podría ser que el sistema no diga cosas estúpidas o al azar. Eso es complicado, porque la gente definitivamente no cumple ese requisito. Otro posible argumento podría ser que cualquier sistema que esté entrenado solo con lenguaje no puede entender el mundo real porque no tiene ni ojos ni oídos. Vuelve a haber conflicto aquí, porque muchas personas tienen esas carencias. Otra respuesta sería sostener que no es posible que las máquinas puedan entender realmente algo. Pero entonces estás argumentando en contra de la premisa fundamental en la que se basa la neurociencia computacional, que durante los últimos 70 años nos ha ayudado a entender algo mejor cómo funciona el cerebro.

P. Muchos expertos dicen que los sistemas conversacionales simplemente vomitan respuestas estadísticamente probables, sin entendimiento semántico alguno.

R. Quienes repiten este argumento se basan en que los sistemas del tipo LaMDA son simples modelos predictivos. Calculan cómo es más probable que continúe un texto a partir de los millones de ejemplos que se les da. La idea de que una secuencia de predicción pueda contener inteligencia o entendimiento puede resultar chocante. Pero los neurocientíficos dicen que la predicción es la función clave de los cerebros.

P. Así que no sabemos si las máquinas entienden lo que se les dice, pero sí que son capaces de producir un resultado que aparentemente demuestra que lo han entendido.

R. ¿Y cuál es la diferencia? Me cuesta mucho encontrar una definición de entendimiento que nos permita decir con total seguridad que las máquinas carecen de él.

P. ¿Pueden las máquinas aprender a comportarse?

R. Sí. Ser capaz de comportarse es una función del entendimiento y de la motivación. La parte de entendimiento descansa en ideas como que no hay que hacer daño a la gente. Y eso se puede programar en el modelo, de forma que si le preguntas a uno de estos algoritmos si un personaje de la historia se ha portado bien o mal, el modelo puede entender los conceptos relevantes y dar respuestas apropiadas. También puedes motivar a una máquina para ser de una forma u de otra, dándole un montón de ejemplos y señalando cuáles son buenos y cuáles no.

P. ¿De qué será capaz el LaMDA de dentro de diez años?

R. Los próximos diez años van a seguir siendo un periodo de muy rápida progresión. Hay cosas que todavía faltan, entre ellas formar recuerdos. Las máquinas que hablan son incapaces: pueden retener alguna cosa a corto plazo, pero no pueden crear memorias narrativas, algo para lo que usamos el hipocampo. Los próximos cinco años estarán llenos de sorpresas.

 

Gracias por leer Columna Digital, puedes seguirnos en Facebook, Twitter, Instagram o visitar nuestra página oficial.

La nota precedente contiene información del siguiente origen y de nuestra área de redacción.

Tags: Blaise Agüera y ArcasBlake LemoineDavid ThomasGoogleGoogle ResearchInteligencia artificialLaMDAmodernidadNeurociencianeurociencia computacionalsociedades informáticas
Previous Post

Vínculos de delincuencia organizada con presidentes municipales y militares de Guerrero y Edomex

Next Post

México va hacia la autosuficiencia energética: AMLO

Next Post

México va hacia la autosuficiencia energética: AMLO

abril 2026
LMXJVSD
 12345
6789101112
13141516171819
20212223242526
27282930 
« Mar    

BROWSE BY TOPICS

2025 america AMLO Arte ciudad Claudia Sheinbaum Columna Digital Cultura Deportes Dimension Turistica Donald Trump economia Elecciones españa Estados Unidos Finanzas fútbol gobierno guerra Historia Innovación Internacional israel justicia Latinoamérica Liga MX Medio Ambiente Moda México noticias noticias michoacan noticias morelia noticias morelia ultima hora Opinion politica Rusia salud Seguridad Sociedad Tecnología Tendencias trump Turismo ucrania Violencia

Busca una Noticia

No Result
View All Result

Columna Digital es una marca de Grupo Editorial Guíaaaa ® integrado por Periodistas y Columnistas mexicanos interesados en la objetividad informativa.

Links Rapidos

  • Media Kit
  • Terminos y Condiciones
  • Compliance & Copyright
  • Quienes Somos
  • Trabaja con Nosotros
  • Contacto
  • RSS

Categorías

  • columnas
  • Cultura
  • Deportes
  • Estados
  • Gastronomía
  • Internacional
  • Lifestyle
  • Nacional
  • Negocios
  • Política
  • Salud
  • Tecnología
  • Viajes

Columna Digital

Columna Digital HD Logo
Columna Digital HD Logo

Grupo Editorial Guíaaaa / Fundado en 1988.

  • Media Kit
  • Terminos y Condiciones
  • Compliance & Copyright
  • Quienes Somos
  • Trabaja con Nosotros
  • Contacto
  • RSS

© 2021 Columna Digital - Copyright © Todos los derechos reservados Grupo Editorial Guiaaaa.

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
No Result
View All Result
  • Internacional
  • Nacional
  • Política
  • Negocios
  • Estados
  • Deportes
  • columnas
  • Cultura
  • Gastronomía
  • Lifestyle
  • Salud
  • Tecnología
  • Viajes
  • Radio Columna Digital

© 2021 Columna Digital - Copyright © Todos los derechos reservados Grupo Editorial Guiaaaa.