Nvidia ha vuelto a dar un golpe sobre la mesa este miércoles al hacer públicos unos datos que reafirman su hegemonía en el sector de los semiconductores. Según las últimas pruebas de rendimiento, sus nuevos servidores de inteligencia artificial han logrado multiplicar por diez la velocidad de procesamiento de modelos recientes, incluidos dos de los más destacados provenientes de China: Kimi K2 Thinking de Moonshot AI y los desarrollos de DeepSeek. Este avance no es baladí, pues se produce en un momento en el que la industria está virando su atención. Si bien hasta ahora la prioridad era el entrenamiento masivo de modelos —terreno donde Nvidia no tiene rival—, el foco se desplaza ahora hacia la inferencia, es decir, la puesta en marcha de estas herramientas para millones de usuarios finales, un segmento donde la competencia de rivales como Advanced Micro Devices (AMD) o Cerebras se presenta mucho más feroz.
La eficiencia de los «expertos» y la arquitectura Blackwell
La clave de esta mejora sustancial reside en la arquitectura de los llamados modelos «mixture-of-experts» (mezcla de expertos). Esta técnica, que ha ganado una popularidad explosiva tras el impacto global de los modelos de código abierto de la firma china DeepSeek a principios de 2025, fragmenta las consultas complejas en partes más pequeñas que son asignadas a sub-modelos especializados dentro del sistema. Grandes actores como OpenAI, la francesa Mistral y la propia Moonshot AI ya han adoptado este enfoque.
Para dar soporte a esta demanda, Nvidia ha detallado que su última generación de servidores integra 72 de sus chips más punteros en un único ordenador, conectados mediante enlaces de altísima velocidad. Es precisamente esta capacidad de aglutinar tal cantidad de procesadores y la rapidez de la comunicación entre ellos lo que ha permitido que el modelo de Moonshot rinda diez veces más que en la generación anterior de servidores. Con esto, la compañía estadounidense busca demostrar que, aunque estos modelos eficientes requieran menos potencia bruta para su entrenamiento, su infraestructura sigue siendo la mejor opción para ejecutarlos de cara al usuario final.
Sinergia estratégica: la integración con Palantir
Mientras Nvidia blinda su posición en el hardware, también ha movido ficha en el terreno del software corporativo mediante una alianza que promete redefinir el panorama empresarial. La compañía ha unido fuerzas con Palantir Technologies para integrar su sistema de software CUDA y la arquitectura de GPU Blackwell en la Plataforma de Inteligencia Artificial (AIP) de Palantir. Este movimiento se interpreta como una evolución natural entre dos de los mayores beneficiarios de la revolución tecnológica actual: en los últimos tres años, las acciones de Nvidia se han revalorizado un 960%, alcanzando una capitalización de 4,4 billones de dólares, mientras que Palantir ha subido más de un 2.000% desde el lanzamiento de ChatGPT.
El acuerdo tiene un calado profundo. Históricamente, Nvidia ha tenido como principales clientes a los hiperescaladores como Microsoft, Amazon o Meta, centrados en el desarrollo de modelos. Sin embargo, al asociarse con Palantir, el fabricante de chips da un paso decisivo para salir de los laboratorios y los centros de datos puros e integrarse en los flujos de trabajo diarios de las grandes corporaciones y agencias gubernamentales. Palantir, especializada en organizar y dar sentido a volúmenes masivos de datos desestructurados mediante sus herramientas Foundry y Gotham, se beneficiará de la potencia de cálculo de Nvidia para ofrecer análisis en tiempo real, IA agéntica y flujos de trabajo personalizables.
Hacia un sistema operativo para la empresa moderna
La lectura que hace el mercado de esta colaboración es clara: ambas compañías están construyendo, de facto, el sistema operativo de inteligencia artificial para el tejido empresarial y gubernamental. Para Palantir, contar con la infraestructura de Nvidia supone un catalizador para la captación de clientes en un sector donde compite con gigantes como Salesforce o SAP, permitiéndole potencialmente mejorar sus márgenes y el valor de vida del cliente.
Por su parte, para Nvidia, esto supone diversificar su narrativa ante los inversores, dejando de ser vista únicamente como un diseñador de chips para convertirse en un proveedor de una pila tecnológica completa (full-stack) indispensable para sectores críticos como la defensa, la logística, el descubrimiento de fármacos o la gestión de riesgos financieros. Mientras la competencia, con AMD preparando sus propios servidores de alto rendimiento para el próximo año, intenta recortar distancias, esta doble estrategia de potencia bruta y alianzas de software sitúa a Nvidia en una posición envidiable para seguir dictando el ritmo de la innovación tecnológica.