
Nvidia anuncia servidor de IA con rendimiento 10 veces superior: responde al auge de modelos de mezcla de expertos
Industria 4.003/12/2025
Industrial Insider
Nvidia dio a conocer este miércoles nuevos datos que revelan un salto significativo en el rendimiento de su más reciente servidor de inteligencia artificial, capaz de mejorar hasta diez veces la eficiencia de modelos avanzados, incluidos dos populares desarrollos provenientes de China. El anuncio refuerza su posición en un mercado que ha comenzado a virar del entrenamiento de modelos —donde Nvidia ha dominado sin competencia seria— hacia el despliegue en tiempo real, un terreno en el que enfrenta presión creciente de rivales como AMD y Cerebras.
La compañía californiana centró su presentación en una técnica de creciente adopción: los modelos de mezcla de expertos (Mixture of Experts, MoE). Este enfoque divide la carga de trabajo entre diferentes “expertos” internos del modelo, optimizando el uso de recursos computacionales y mejorando la eficiencia del sistema. La popularidad de estos modelos se disparó en 2025 tras el lanzamiento de DeepSeek, un modelo chino de código abierto que sorprendió al ecosistema global por su alto rendimiento con menor necesidad de entrenamiento.
A partir de ese hito, gigantes como OpenAI, la francesa Mistral y la también china Moonshot AI se volcaron al desarrollo de modelos MoE. En julio, Moonshot presentó Kimi K2 Thinking, un modelo de alto rendimiento también basado en esta arquitectura, que ha generado gran interés por su escalabilidad y eficiencia.
En ese contexto, Nvidia aseguró que su nuevo servidor de IA —dotado con 72 de sus unidades de procesamiento más avanzadas interconectadas por enlaces ultrarrápidos— logró mejorar en 10 veces el rendimiento del modelo Kimi K2 Thinking en comparación con sus servidores de generación anterior. La compañía reportó un rendimiento equivalente en modelos desarrollados por DeepSeek, lo que representa una mejora crítica para despliegues masivos de IA.
El salto en rendimiento se atribuye no solo al volumen de chips integrados, sino a la velocidad de interconexión entre ellos, una ventaja estructural que Nvidia sigue manteniendo sobre competidores emergentes. Fuentes cercanas a la compañía confirmaron que los enlaces de alta velocidad y la arquitectura de integración vertical han sido clave para escalar operaciones con eficiencia térmica y energética, dos de los cuellos de botella más serios en grandes modelos de lenguaje.
Este anuncio llega en un momento clave, cuando el enfoque de la industria ha pasado de entrenar modelos cada vez más grandes a desplegarlos de manera eficiente y rentable en millones de dispositivos y entornos de producción. Para Nvidia, el reto ya no es solo vender chips, sino garantizar soluciones completas de infraestructura capaces de manejar modelos distribuidos, complejos y adaptativos.
Analistas del sector señalan que, aunque compañías como AWS, Google Cloud y Microsoft Azure ofrecen infraestructura competitiva, Nvidia aún mantiene la delantera gracias a su ecosistema cerrado, que combina hardware optimizado, software propietario y alianzas estratégicas con los principales actores de la IA generativa.
El anuncio también tiene implicaciones geopolíticas: al mostrar compatibilidad y rendimiento superior con modelos chinos de código abierto como los de Moonshot y DeepSeek, Nvidia envía un mensaje estratégico en medio de un clima tenso por las restricciones estadounidenses a la exportación de chips de alto rendimiento a China. A pesar de las limitaciones, la compañía parece dispuesta a seguir figurando en los flujos tecnológicos globales, incluso en entornos complejos.
En resumen, el nuevo servidor de Nvidia refuerza su apuesta por liderar no solo la etapa de entrenamiento, sino la era del deployment masivo de modelos de IA. En un mercado que exige velocidad, eficiencia y escalabilidad, la compañía reafirma su papel como piedra angular de la infraestructura de la inteligencia artificial global.



SoftBank aprueba segundo pago de 22,500 mdd para completar inversión en OpenAI




China refuerza controles fronterizos para frenar compra de chips de Nvidia

AMD se alía con OpenAI para impulsar la infraestructura de IA con chips de alto rendimiento










