En una jornada marcada por la innovación en el mundo de la tecnología, el CEO de Nvidia, Jensen Huang, presentó oficialmente la nueva arquitectura de computación, Rubin, en la reciente feria de electrónica de consumo. Descrita como la cúspide de la tecnología en hardware de inteligencia artificial (IA), la arquitectura Rubin ya se encuentra en producción y se anticipa un aumento en su producción durante la segunda mitad del año.
Durante su discurso, Huang subrayó un desafío crucial: “La cantidad de computación necesaria para la IA está en aumento exponencial”. Hizo hincapié en que la arquitectura Rubin se encuentra en plena producción, demostrando el compromiso continuo de Nvidia con la innovación.
Primero anunciada en 2024, la arquitectura Rubin marca un hito en el ciclo de desarrollo incesante de hardware de Nvidia, la cual se ha consolidado como la corporación más valiosa del mundo. Esta nueva arquitectura sustituirá a la anterior, Blackwell, que a su vez había reemplazado las arquitecturas Hopper y Lovelace.
Los chips Rubin están destinados a ser usados por prácticamente todos los grandes proveedores de la nube, incluidas alianzas de alto perfil con empresas como Anthropic, OpenAI y Amazon Web Services. Además, su implementación se prevé en el supercomputador Blue Lion de HPE y en el próximo supercomputador Doudna del Laboratorio Nacional Lawrence Berkeley.
El nombre Rubin se rinde homenaje a la astrónoma Vera Florence Cooper Rubin. Esta arquitectura consta de seis chips diseñados para trabajar de manera integrada, con una GPU Rubin en el núcleo. También aborda cuellos de botella crecientes en almacenamiento e interconexión gracias a nuevas mejoras en los sistemas Bluefield y NVLink. Se incluye un nuevo CPU Vera, creado específicamente para un razonamiento más ágil.
Dion Harris, director senior de soluciones de infraestructura de IA en Nvidia, destacó la creciente demanda de memoria relacionada con el caché en los sistemas de IA modernos. Para satisfacer estas necesidades, se ha introducido un nuevo nivel de almacenamiento que se conecta externamente al dispositivo de computación, permitiendo escalar eficientemente el pool de almacenamiento.
Adicionalmente, la arquitectura presenta avances significativos en velocidad y eficiencia energética. Según pruebas realizadas por Nvidia, la arquitectura Rubin operará 3.5 veces más rápido que su predecesora, Blackwell, en tareas de entrenamiento de modelos, y cinco veces más rápido en tareas de inferencia, alcanzando un impresionante rendimiento de hasta 50 petaflops. Esta nueva plataforma también permitirá realizar ocho veces más computaciones de inferencia por vatios consumidos.
En un contexto de creciente competencia en la construcción de infraestructura de IA, tanto laboratorios de IA como proveedores de nube luchan por acceder a los chips de Nvidia y las instalaciones necesarias para su operación. Huang estimó que, en los próximos cinco años, se destinarán entre 3 y 4 billones de dólares a la infraestructura de IA, un indicador del vasto potencial y la relevancia de esta tecnología en el futuro cercano.
La información presentada en este artículo corresponde a la fecha de publicación original (2026-01-05 16:16:00) y no incluye actualizaciones posteriores.
Gracias por leer Columna Digital, puedes seguirnos en Facebook, Twitter, Instagram o visitar nuestra página oficial. No olvides comentar sobre este articulo directamente en la parte inferior de esta página, tu comentario es muy importante para nuestra área de redacción y nuestros lectores.
![[post_title]](https://columnadigital.com/wp-content/uploads/2025/12/Aprobacion-del-Departamento-de-Comercio-para-exportar-chips-H200-a-1140x570.jpg)
![[post_title]](https://columnadigital.com/wp-content/uploads/2026/01/Sin-competiciones-de-arrancones-en-Puebla-75x75.webp)
