MENU
Facebook
LinkedIn
X

OpenAI busca alternativas a NVIDIA para acelerar respuestas de ChatGPT y la relación entra en una fase sensible

Una nueva fricción técnica se instaló en el corazón del boom de la inteligencia artificial luego de que OpenAI empezara a explorar, desde el año pasado, alternativas a algunos de los chips más recientes de NVIDIA para tareas de inferencia, es decir, el momento en el que un modelo ya entrenado responde a las consultas de los usuarios. El giro aparece en un contexto en el que la compañía sigue dependiendo mayoritariamente del hardware de Nvidia para operar su flota de inferencia, pero está presionada por una demanda cada vez más exigente de velocidad y coste por respuesta.

El trasfondo de la discusión apunta a un cambio de foco dentro del mercado. Mientras NVIDIA conserva su dominio en chips para entrenamiento de modelos grandes, la inferencia se volvió “el nuevo frente” porque concentra la experiencia diaria del usuario y el volumen de interacciones a escala. Dentro de OpenAI habría preocupación por el rendimiento de ciertos escenarios específicos —como desarrollo de software y modelos que se comunican con otras herramientas—, y la empresa estaría buscando hardware que, en el futuro, cubra alrededor de 10% de sus necesidades de cómputo de inferencia.

En esa búsqueda, la compañía habría mantenido conversaciones y explorado acuerdos con AMD y startups especializadas como Cerebras Systems y Groq, orientadas a acelerar respuestas con arquitecturas pensadas para inferencia. Diversas fuentes señalan que la negociación de una inversión de hasta US$100.000 millones de NVIDIA en OpenAI se ha demorado durante meses, en parte por cómo se han ido ajustando las necesidades de cómputo y la hoja de ruta de productos.

Las posturas públicas, sin embargo, buscaron contener la narrativa de ruptura. Jensen Huang calificó como “absurda” la idea de tensiones, mientras que un portavoz de OpenAI sostuvo que Nvidia ofrece el mejor desempeño por dólar para inferencia y que siguen siendo el proveedor principal. En paralelo, Sam Altman señaló que Nvidia fabrica “los mejores chips de IA del mundo” y que la empresa espera seguir siendo un cliente enorme por mucho tiempo.

La disputa técnica gira alrededor de memoria y latencia. OpenAI ha puesto atención en chips con más memoria integrada en el propio silicio, en particular diseños con grandes cantidades de SRAM, porque en inferencia el cuello de botella suele ser “traer” datos desde memoria más que hacer cálculos. En esa lógica, los GPU tradicionales —tanto de Nvidia como de AMD— dependen en gran medida de memoria externa, lo que añade tiempo y puede afectar la sensación de “respuesta inmediata” en productos intensivos en interacción.

Dentro de la empresa, el debate se habría vuelto especialmente visible en OpenAI Codex, una línea de producto en la que la rapidez pesa más porque el usuario espera iteraciones continuas mientras programa. Esa misma presión explica por qué la industria mira con atención despliegues alternativos como los de Google y sus Tensor Processing Unit, o el enfoque de Anthropic con Claude, donde la infraestructura puede favorecer inferencia a gran escala.

Redacción: Luis Santiago Miguel Cabrera Gómez