Google e Intel anunciaron una nueva fase de colaboración en infraestructura de inteligencia artificial durante la semana pasada, en un acuerdo que abarca desde el desarrollo de silicio personalizado hasta optimizaciones para cargas de trabajo de IA generativa en los centros de datos de ambas compañías. El objetivo declarado es crear alternativas viables a la dominante posición de Nvidia en el mercado de GPUs para IA.

Para Google, la alianza representa una extensión natural de su estrategia TPU. Lleva años desarrollando sus propios chips de tensor para entrenar y servir modelos de aprendizaje automático, pero reconoce que ninguna empresa puede cubrir todo el espectro de necesidades de hardware por sí sola. Intel aporta su experiencia en fabricación de silicio y su línea Xeon de procesadores de propósito general, además de sus inversiones en GPUs de gama alta.

Lo que hace relevante este anuncio para América Latina es el efecto en cadena sobre los precios y la disponibilidad de capacidad de cómputo para IA en la nube. Nvidia ha mantenido durante años una posición de cuello de botella: la demanda de H100 y A100 supera con creces la oferta, lo que encarece el entrenamiento de modelos para cualquier organización que no sea una gran tecnológica. Si Intel y Google logran avances significativos en eficiencia y costo por FLOP, las barreras de entrada para startups y centros de investigación en la región podrían reducirse de forma tangible.

Amazon, por su parte, no se quedó de brazos cruzados. En su carta anual a los accionistas, el CEO Andy Jassy lanzó dardos directos hacia Nvidia, Intel y Starlink, dejando entrever que AWS busca diversificar su infraestructura de hardware de IA de forma más agresiva. La guerra por controlar la capa física de la revolución de la IA está apenas comenzando.

Lee la historia completa en TechCrunch.