Nvidia Rubin: la nova plataforma d'IA amb 6 xips
Nvidia presenta la plataforma Rubin al CES 2026, amb sis xips nous que prometen reduir fins a 10 vegades el cost d'inferència respecte a Blackwell.
Nvidia Rubin: la nova plataforma d’IA amb 6 xips revolucionaris
Nvidia ha presentat al CES 2026 la plataforma Rubin, la seva nova aposta per liderar la propera generació d’intel·ligència artificial. Amb sis xips dissenyats conjuntament i una arquitectura pensada per reduir dràsticament els costos d’entrenament i inferència, Rubin aspira a convertir-se en la columna vertebral de les grans infraestructures d’IA del món.
Què és la plataforma Nvidia Rubin i per què importa
La plataforma Rubin rep el nom de Vera Florence Cooper Rubin, l’astrònoma nord-americana que va transformar la comprensió humana de l’univers amb les seves investigacions sobre la matèria fosca. Un homenatge simbòlic per a un sistema que Nvidia vol que sigui igualment transformador.
El cor de la plataforma són sis xips dissenyats de manera coordinada —el que l’empresa anomena extreme codesign—: la CPU Vera, la GPU Rubin, el commutador NVLink 6, el SuperNIC ConnectX-9, la DPU BlueField-4 i el commutador Ethernet Spectrum-6. Tots sis treballen de forma integrada per oferir un rendiment global que supera en molt la simple suma de les parts.
Els números que presenta Nvidia són contundents: fins a deu vegades menys cost per token d’inferència respecte a la generació anterior Blackwell, i la possibilitat d’entrenar models de tipus mixture-of-experts (MoE) amb quatre vegades menys GPUs. En termes pràctics, això significa que les empreses podran desplegar models d’IA avançats de manera molt més econòmica i eficient.
Les novetats tècniques que marquen la diferència
Més enllà dels xips, Rubin incorpora cinc innovacions clau que expliquen el seu salt qualitatiu. La nova generació de la tecnologia d’interconnexió NVLink permet una comunicació més ràpida entre processadors, mentre que el Transformer Engine millorat accelera les operacions pròpies dels models de llenguatge gran. A això s’hi afegeix el suport per a Confidential Computing, orientat a protegir dades sensibles durant el processament, i un nou motor RAS (Reliability, Availability and Serviceability) per garantir l’estabilitat dels sistemes.
Un dels elements més destacats és la nova plataforma d’emmagatzematge per a inferència contextual, que incorpora la DPU BlueField-4. Aquesta solució està dissenyada específicament per accelerar la IA agèntica —sistemes que actuen de manera autònoma per completar tasques complexes— i els models de raonament avançat, dues de les tendències més prometedores del sector.
Els sistemes de commutació Ethernet Spectrum-X també estrenen fotònica integrada, amb una millora del cinc per cent en eficiència energètica i disponibilitat. Un detall rellevant quan es parla de centres de dades que consumeixen quantitats ingents d’electricitat.
Un ecosistema de gegants al darrere
Nvidia ha aconseguit que la pràctica totalitat dels actors clau del sector es comprometin amb la nova plataforma. Microsoft ja ha anunciat que les seves properes superfàctories d’IA Fairwater integraran sistemes Vera Rubin NVL72 a escala de rack, amb capacitat per arribar als centenars de milers de superxips. CoreWeave serà dels primers a oferir accés comercial a Rubin a través de la seva plataforma Mission Control.
Les reaccions dels líders del sector no s’han fet esperar. Sam Altman, d’OpenAI, ha destacat que la plataforma permetrà continuar escalant la intel·ligència amb més còmput. Dario Amodei, d’Anthropic, ha posat el focus en les millores d’eficiència que permetran millor memòria i raonament als seus models. Mark Zuckerberg ha valorat el salt en rendiment necessari per desplegar models avançats a escala massiva. Fins i tot Amazon Web Services, Google, Meta, xAI i desenes d’altres empreses figuren entre els futurs adoptants de la tecnologia.
Jensen Huang i el ritme anual d’innovació
Darrere de tot plegat hi ha la visió de Jensen Huang, fundador i CEO de Nvidia, que ha convertit l’empresa en el proveïdor indispensable de la infraestructura d’IA global. El seu missatge al CES ha estat clar: Nvidia manté el seu ritme de llançar una nova generació de superordinadors d’IA cada any, i Rubin és el pas necessari per afrontar una demanda computacional que, en paraules seves, «s’ha disparat tant per a l’entrenament com per a la inferència».
Aquesta cadència anual d’innovació, unida a la capacitat de construir ecosistemes amplis al voltant de cada nova plataforma, consolida Nvidia com l’arquitecte silenciós de la revolució de la intel·ligència artificial. Amb Rubin, la companyia no sols ven xips: defineix com serà la IA dels pròxims anys.
FONTS
HN — Nvidia AI ↗