Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
Ultimas Noticias

Cuando eres OpenAI y no puedes comprar suficientes GPU, la solución es obvia: fabricar las tuyas

OpenAI va a crear sus propios chips de inteligencia artificial. Es una decisión crucial para el futuro de su negocio, pero llama la atención el aliado que ha elegido para hacerlo: Broadcom.

Cuando el río suena. El runrún viene escuchándose desde principios de 2024. NVIDIA, dueña y señora del segmento de las GPUs aceleradoras de IA, era una aliada demasiado poderosa para OpenAI. La solución era clara: desarrollar chips propios con los que minimizar esa dependencia. 

Broadcom saca pecho. Hock Tan, CEO de Broadcom, indicó ayer a los inversores que la empresa había cerrado un acuerdo con un misterioso cliente que invertiría 10.000 millones de dólares en chips de IA. Aunque Broadcom no desveló el nombre del cliente, fuentes cercanas a esos acuerdos indicaron en Financial Times que ese cliente no es otro que OpenAI. Ni Broadcom ni esta última empresa han confirmado el dato, pero los datos apuntan a que ese chip estará listo para debutar en 2026.

XPUs al poder. Esos chips, a los que Tan se refirió como XPUs, son una especie de variante especializada y personalizada de las GPUs aceleradoras de IA de NVIDIA o AMD. El ejemplo perfecto lo tenemos en las TPUs (Tensor Processor Units) que Google presentó hace casi una década y que ha ido mejorando generación tras generación (ya vamos por la séptima generación, llamada Ironwood). Broadcom, por cierto, ha colaborado en el desarrollo de esos chips de Google, así que tiene experiencia sobrada en dicho ámbito.

Chips propios para uso interno. Según indican fuentes cercanas a esta colaboración, OpenAI tiene como objetivo usar estos chips de IA de forma interna, y no hay planes para ofrecerlos a clientes externos. Eso refuerza la teoría de que OpenAI quiere crear centros de datos con estos chips propios para evitar (o al menos mitigar) la dependencia de NVIDIA. 

NVIDIA va a tener (mucha) competencia. NVIDIA domina con puño de hierro este segmento, pero hace tiempo que los rivales —tanto en Occidente como en Oriente— trabajan en lograr que su monopolio en este sector desaparezca. Microsoft tiene Maia, Amazon sus Trainium, Google sus citadas TPU y AMD por supuesto sus Instinct. Hasta Meta está en ello

Pero CUDA sigue siendo el «moat» de NVIDIA. Por supuesto la verdadera clave del éxito arrollador de NVIDIA no está tanto en sus chips como en el hecho de que su arquitectura CUDA es el estandar de facto en este mercado y todos los desarrolladores de sistemas de IA suelen basar sus proyectos en dicha plataforma. Es el «moat» de NVIDIA, ese «foso» que permite proteger su «castillo» de los rivales y seguir dominando el mercado. Y aquí también hay intentos de evitar la dependencia de la compañía, y entre ellos destacan los de China.

¿Y TSMC, qué? Lo curioso es que durante meses parecía que el aliado que OpenAI se había buscado para llevar a cabo ese proyecto era el fabricante de semiconductores más importante del mundo, TSMC. A principios de este año esa colaboración parecía ir por buen camino y varias fuentes apuntaban a que tendríamos las primeras GPUs de OpenAI durante 2026. Puede que simplemente OpenAI haya elegido contar no ya con un plan B (TSMC) para evitar su dependencia de NVIDIA, sino también preparar un plan C (Broadcom).

Imagen | Qualcomm

En Xataka | La prueba de la autosuficiencia de China en chips para IA ya está aquí: no ha comprado a NVIDIA ni una sola GPU H20 en el último trimestre

source

Mostrar más
Botón volver arriba