Pat Gelsinger critica a NVIDIA en su propio evento, dice que Huang tuvo suerte y que el precio de sus GPU es muy alto para inferencia
El GTC 2025 acaba de pasar como un torbellino por el planeta tecnológico, y NVIDIA mostró tantas cartas que realmente es complicado que se le escape algo del mercado. Los verdes presentaron sus arquitecturas hasta 2027 en una muestra de fuerza con un mensaje claro: "Esto es lo que cambiará el sector de la IA La entrada Pat Gelsinger critica a NVIDIA en su propio evento, dice que Huang tuvo suerte y que el precio de sus GPU es muy alto para inferencia aparece primero en El Chapuzas Informático.

El GTC 2025 acaba de pasar como un torbellino por el planeta tecnológico, y NVIDIA mostró tantas cartas que realmente es complicado que se le escape algo del mercado. Los verdes presentaron sus arquitecturas hasta 2027 en una muestra de fuerza con un mensaje claro: "Esto es lo que cambiará el sector de la IA y no hay nada igual". En contra de lo que hacen en PC, están tan seguros que se permiten decirle al mundo y a su competencia lo que ya tienen listo dos años antes. Pero esta visión, aunque compartida en parte por algunos CEO rivales, muestra también un punto crítico: los costes. En este aspecto, Pat Gelsinger, dentro del GTC 2025, criticó los precios de NVIDIA para sus GPU, diciendo que la inferencia en cuanto a costes debería estar más optimizada.
Dentro del propio evento de los verdes y para el podcast de Acquired, el cual NVIDIA subió a su propio canal de YouTube, Gelsinger reafirma su postura, se muestra poco impresionado con lo que mostraron los verdes y de hecho, ataca la base de flotación de Huang como los usuarios hacen en PC con las RTX 50.
Pat Gelsinger dice que Huang tuvo suerte y que las GPU NVIDIA para inferencia tienen un precio muy alto
En una mesa donde se reunieron el Dr Satoshi Matsuoka, el cual creó el primer Superordenador impulsado con la plataforma CUDA, el Dr Anirudh Devgan, CEO actual de Cadence, y como no, Pat Gelsinger, el cual sigue adelante con su jubilación anticipada, dicha mesa era de todo menos común.
Los entrevistadores de Acquired comenzaron con Matsuoka por su relación más directa con NVIDIA, pero rápidamente pasaron a preguntarle a Pat Gelsinger algo bastante concreto: ¿pensaste que con las GPU se iba a crear este tipo de mercado a día de hoy? La respuesta de Gelsinger, como siempre, no dejó indiferente a nadie:
En aquel momento la CPU era la reina de la colina, quiero decir, lo que dominaban eran los procesadores. Estábamos ejecutando las cargas de trabajo en ellas, día a día, y eran Sistemas Operativos, bases de datos y virtualización en general. Ahí es donde estaba centrada la energía de los desarrolladores y aplicaciones.
Si querías construir un Superordenador simplemente unías muchas de ellas en un mesh. Jensen y yo tuvimos muchas conversaciones sobre la computación basada en el rendimiento.
Hoy nos referimos a ella como Computación Acelerada frente a Computación escalada, ya sabes, predicción de ramificación, reducción de latencia, pipeline. Realmente, ¿a quién le importa cuánto dure la pipeline? Solo maximiza el rendimiento y crea la capacidad para el programa en concreto, y bueno, ahí la CPU era la reina de la colina, y aplaudo a Jensen por su tenacidad en decir simplemente no, no estoy tratando de construir uno de esos Superordenadores.
Lo que intento es mover la carga de trabajo que comienza en los gráficos. Luego esto se convirtió en una visión más amplia por su parte, y más tarde tuvo suerte con la IA. Una vez estaba debatiendo con él y me dijo que no, que realmente tuvo mucha suerte.
Gelsinger cree que los costes para entrenamiento son óptimos en cuanto a GPU, pero no para inferencia
La conversación se fue centrando, obviamente, en la IA, tras las declaraciones de Gelsinger, el cual prosiguió brevemente con su argumento tras ser preguntado sobre cómo veía lo que NVIDIA había presentado y cómo enfrentan las empresas los costes del hardware. La respuesta, de nuevo, fue muy sincera:
Hoy, si pensamos en la carga de trabajo para el entrenamiento, está bien, pero hay que ofrecer algo mucho más optimizado para la inferencia. Sabes que una GPU es demasiado cara; yo diría que es 10,000 veces más cara de lo necesario para lograr plenamente lo que queremos con la implementación de la inferencia para IA y, por supuesto, lo que hay más allá de eso.
Lo cierto es que el hardware de NVIDIA no para de incrementar su precio, y aunque el salto de rendimiento normalmente es interesante, mucho más en este sector de la IA, la realidad es que parece que Rubin y Feynman van a suponer otra elevación de los costes.
Como el marketing que usan los verdes tiene cada vez menos credibilidad, puesto que intentan vender su producto con unas afirmaciones y datos que se están poniendo constantemente en tela de juicio, las empresas necesitan ver de primera mano si este nuevo hardware se adaptará a inferencia y entrenamiento para sus objetivos, puesto que el desembolso es mil millonario.
Gelsinger cree que las GPU son 10.000 veces más caras de lo necesario, y aunque sea un numero baladí e incluso algo exagerado, AMD e Intel han demostrado con Instinct y Gaudi que realmente se puede conseguir un rendimiento en inferencia cercano al de NVIDIA por un menor coste, y como eso es algo empírico, la base del argumento es válida, pero, ¿cuánto por encima está el coste del hardware de NVIDIA en IA?
¿Cuánto por encima lo está en PC y gaming? Como siempre, la competencia es la que fija realmente el listón, y, por ahora, AMD le está comiendo la tostada en PC, veremos si puede hacer lo mismo en IA.
La entrada Pat Gelsinger critica a NVIDIA en su propio evento, dice que Huang tuvo suerte y que el precio de sus GPU es muy alto para inferencia aparece primero en El Chapuzas Informático.