AI Labs están en una intensa carrera por construir centros de datos de dimensiones comparables a Manhattan, con costos que ascienden a miles de millones de dólares y un consumo energético similar al de una pequeña ciudad. Esta frenética actividad se basa en la creencia de que la “escalabilidad” —o la idea de que al agregar más potencia de cómputo a los métodos de entrenamiento de inteligencia artificial (IA) actuales, se lograrán sistemas superinteligentes capaces de realizar múltiples tareas— es la clave del progreso.
Sin embargo, un número creciente de investigadores en inteligencia artificial ha comenzado a cuestionar si la escalabilidad de los grandes modelos de lenguaje (LLM) está realmente alcanzando sus límites. Se plantea la necesidad de nuevos avances para mejorar el rendimiento de la IA.
Sara Hooker, exvicepresidenta de Investigación de IA en Cohere y veterana de Google Brain, está apostando por este enfoque diferente con su nueva startup, Adaption Labs. Fundada junto al también veterano de Cohere y Google, Sudip Roy, la compañía sostiene que seguir escalando LLMs resulta ineficaz para extraer un mejor rendimiento. Hooker, quien dejó Cohere en agosto, anunció discretamente la creación de su startup este mes para atraer talento.
En una entrevista, Hooker explicó que Adaption Labs busca desarrollar sistemas de IA que puedan adaptarse y aprender de sus experiencias del mundo real de manera extremadamente eficiente. Si bien se negó a proporcionar detalles sobre los métodos utilizados o si la compañía emplea LLMs, dejó claro que la adaptabilidad es el “corazón del aprendizaje”. Un ejemplo ilustrativo sería aprender a rodear un obstáculo después de tropezar con él.
Los laboratorios de IA han intentado captar esta idea a través del aprendizaje por refuerzo (RL), que permite a los modelos de IA aprender de sus errores en entornos controlados, aunque estas técnicas no son efectivas en la práctica, donde los modelos continúan cometiendo errores. Empresas como OpenAI ofrecen servicios de consultoría para afinar modelos de IA a necesidades específicas, lo que conlleva costos muy elevados, alcanzando hasta los 10 millones de dólares.
Hooker ha observado que, aunque existen laboratorios de IA que estandarizan un conjunto de modelos muy costosos de adaptar, esto no debería ser así. Afirma que los sistemas de IA pueden aprender de su entorno con gran eficiencia. Esta innovación podría cambiar drásticamente quién controla y define la IA, además de impactar a los usuarios finales.
La fe en la escalabilidad de los LLMs parece estar disminuyendo en la industria. Recientemente, un estudio de investigadores del MIT sugirió que los modelos más grandes de IA podrían estar alcanzando rendimientos decrecientes. Además, los debates en San Francisco han tomado un giro escéptico. Investigadores reconocidos han expresado dudas sobre la capacidad de los LLMs para aprender de experiencias reales.
Preocupaciones similares surgieron a finales de 2024, cuando investigadores señalaron que la escalabilidad en el preentrenamiento de modelos podría estar enfrentando rendimientos decrecientes, lo que había sido el secreto para el éxito de OpenAI y Google. Sin embargo, en 2025, se han presentado avances en modelos de razonamiento en IA, capaces de manejar problemas con mayor profundidad antes de proporcionar respuestas.
Los laboratorios de IA están convencidos de que la escalabilidad de RL y los modelos de razonamiento son el nuevo horizonte. Investigadores de OpenAI han desdeñado su primer modelo de razonamiento por esta razón, mientras que otros como Meta y Periodic Labs han explorado cómo el RL puede aumentar aún más el desempeño, aunque estos esfuerzos también conllevan costos significativos.
Por otro lado, Adaption Labs busca evidenciar que el aprendizaje a través de la experiencia puede ser más económico. Se informó que la startup está cerrando una ronda de inversión inicial entre 20 y 40 millones de dólares para financiar sus proyectos.
Hooker, quien anteriormente lideró Cohere Labs, ha demostrado que sistemas de IA compactos superan a sus versiones más grandes en diversas métricas. Además, ha ganado reconocimiento por abrir el acceso a la investigación en IA a talentos de regiones subrepresentadas.
Si el enfoque de Hooker y Adaption Labs es correcto sobre los límites de la escalabilidad, las repercusiones serán sustanciales. Hasta el momento, miles de millones han sido invertidos bajo la premisa de que modelos más grandes conducen a una inteligencia general. Sin embargo, es plausible que un verdadero aprendizaje adaptativo sea no solo más potente, sino también considerablemente más eficiente.
Información correspondiente a la fecha de publicación: 2025-10-22 14:52:00.
Gracias por leer Columna Digital, puedes seguirnos en Facebook, Twitter, Instagram o visitar nuestra página oficial. No olvides comentar sobre este articulo directamente en la parte inferior de esta página, tu comentario es muy importante para nuestra área de redacción y nuestros lectores.