La economía sola llama la atención. Pero la tecnología detrás de esta audaz afirmación revela por qué Nvidia sigue siendo intocable en el arena de chips de IA. El Rubin CPX se dirige a un punto de dolor específico que ha inquietando a los desarrolladores de IA: procesar enormes cantidades de datos para la creación de video y la generación de software.
El problema del millón de token
La IA moderna se enfrenta a un cuello de botella aplastante. El procesamiento de solo una hora de contenido de video exige hasta 1 millón de tokens, unidades de datos que AI modela digerir. Los procesadores de gráficos tradicionales se abrochan el bulpe bajo esta carga. Mientras tanto, los sistemas de inteligencia artificial han evolucionado de chatbots simples a agentes sofisticados que escriben programas de software enteros y generan videos de alta definición.
Estos modelos avanzados deben comprender las bases de código enteras, mantener dependencias de archivo cruzado y comprender estructuras de repositorio. No solo están solo en autocompletación de tus oraciones. Se están convirtiendo en colaboradores inteligentes que requieren músculo informático sin precedentes.
La solución de NVIDIA integra los pasos de procesamiento previamente separados directamente en el chip. La decodificación de video, la codificación e inferencia, el momento en que la IA produce su salida, ahora ocurre juntos en lugar de rebotar entre diferentes componentes.
La revolución de la arquitectura
El Rubin CPX no funciona solo. Forma parte de la estrategia de inferencia desagregada de Nvidia, que divide el procesamiento de IA en dos fases distintas. La fase de contexto devora la potencia, analizando datos de entrada masivos. La fase de generación necesita transferencias de memoria rápidas para producir salidas token por token.
Esta separación permite que cada fase se ejecute en hardware optimizado para sus demandas específicas. Piense en ello como hacer que un velocista maneje las ráfagas cortas mientras un corredor de maratón aborda el largo recorrido.
Las especificaciones técnicas se leen como ciencia ficción. El Rubin CPX ofrece 30 petaflops de NVFP4 COMPUTE POWER y empaca 128 GB de memoria GDDR7. La aceleración de hardware para el procesamiento de video viene incorporada. Los mecanismos de atención, concurridos para comprender el contexto en la IA, se encuentran tres veces más rápido que los sistemas GB300 NVL72 actuales de NVIDIA.

El paquete completo
NVIDIA empaqueta esta tecnología en la rejilla CPX de Vera Rubin NVL144: un gigante que contiene 144 GPU de Rubin CPX, 144 GPU estándar de Rubin y 36 CPU de Vera. Este estante único ofrece 8 exafultos de potencia de cómputo, lo que representa un aumento de 7.5 veces sobre el GB300 NVL72.
El sistema ofrece 100 terabytes de memoria de alta velocidad con 1.7 petabytes por segundo de ancho de banda de memoria. Estos números son importantes porque determinan qué tan rápido la IA puede procesar y generar salidas complejas.
La infraestructura de soporte incluye redes Quantum-X800 Infiniband o Spectrum-X Ethernet de NVIDIA, junto con las supernics ConnectX-9. La plataforma Dynamo orquesta todo, asegurando que los componentes funcionen en armonía.
Las apuestas siguen subiendo
Wall Street observa de cerca mientras las empresas invierten cientos de miles de millones en hardware de IA. La presión para demostrar los retornos se intensifica diariamente. La promesa de Nvidia de retorno de 30x a 50x de inversión aborda esta preocupación directamente.
La compañía ya domina el mercado de chips de IA, manteniendo la corona como la compañía más valiosa del mundo. Pero la competencia acecha. Todos los principales jugadores tecnológicos quieren una parte del mercado de aceleración de IA. Al dirigirse a cargas de trabajo específicas de alto valor (generación de videos y desarrollo de software complejo, los nvidia agudizan su ventaja competitiva.
La arquitectura de Rubin tiene éxito en la tecnología Blackwell actual de NVIDIA, que marca la evolución continua de la compañía de vender chips individuales hasta proporcionar sistemas de procesamiento completos. Cada generación trae mejoras exponenciales en la capacidad al tiempo que aborda cuellos de botella específicos que limitan el avance de la IA.
A medida que los sistemas de IA se vuelven más sofisticados, exigen infraestructura que pueda mantener el ritmo. Las tareas una vez consideradas imposibles, como la IA que escribe aplicaciones completas o que genere videos de larga duración, se acerquen a la realidad. El Rubin CPX representa la apuesta de Nvidia de que resolver el desafío de procesamiento de contexto largo desbloquea la próxima ola de avances de IA.
Comienza la cuenta regresiva para finales de 2026. Si Nvidia cumple con sus promesas, el Rubin CPX podría acelerar la transición de AI de demostraciones impresionantes a aplicaciones transformadoras del mundo real. Para las empresas que invierten miles de millones en infraestructura de IA, esa transformación no puede llegar pronto.
Escrito por Alius Noreika
Publicado anteriormente en The European Times.


