Por MSB | Abril de 2026
En un movimiento que refleja la rápida evolución del ecosistema de inteligencia artificial, Meta ha firmado un acuerdo para utilizar millones de CPUs diseñadas por Amazon Web Services (AWS), marcando un cambio significativo en una industria históricamente dominada por las GPUs.
El acuerdo —considerado multimillonario y de varios años— posiciona a Meta como uno de los mayores clientes de los chips Graviton de Amazon, y señala una transformación profunda en cómo se construyen y escalan los sistemas de IA modernos.
Del dominio de las GPUs a una arquitectura híbridaDurante la última década, la infraestructura de IA ha estado fuertemente asociada a GPUs, especialmente las de Nvidia, debido a su capacidad para acelerar el entrenamiento de modelos de machine learning.
Sin embargo, el acuerdo entre Meta y AWS introduce un matiz clave:
las CPUs vuelven a ganar protagonismo, pero en un rol diferente.
Los chips utilizados —AWS Graviton, basados en arquitectura ARM— no están diseñados principalmente para entrenar modelos, sino para ejecutar tareas posteriores al entrenamiento (post-training) como:
- Inferencia en tiempo real
- Ejecución de agentes autónomos
- Orquestación de servicios de IA
- Generación de código y razonamiento
Meta utilizará decenas de millones de núcleos Graviton para estas cargas de trabajo, lo que evidencia que la IA moderna ya no depende de un solo tipo de hardware.
¿Por qué CPUs para IA?El movimiento puede parecer contraintuitivo, pero responde a una realidad técnica:
1. Diferencia entre entrenamiento e inferencia- Entrenamiento (training): requiere paralelismo masivo → GPUs
- Inferencia y agentes: requieren eficiencia, latencia baja y flexibilidad → CPUs
En sistemas de IA avanzados —especialmente los llamados agentic AI— las cargas de trabajo son más dinámicas:
- Toma de decisiones en tiempo real
- Acceso a múltiples fuentes de datos
- Coordinación entre procesos
En este contexto, las CPUs ofrecen ventajas clave:
- Mejor gestión de tareas secuenciales
- Menor consumo energético
- Coste más bajo por operación
- Escalabilidad más granular
Algunas estimaciones indican que este tipo de cargas puede ejecutarse con hasta un 60% menos de consumo energético en arquitecturas optimizadas de CPU.
El factor clave: escasez de GPUsOtro elemento determinante es la limitación global de GPUs, que ha obligado a las grandes tecnológicas a diversificar su infraestructura.
- Nvidia sigue dominando el mercado
- Pero la demanda supera la oferta
- Los costes son extremadamente elevados
Esto ha impulsado una estrategia clara en la industria:
👉 desacoplar el stack de IA en múltiples tipos de hardware
Meta, en particular, ya mantiene acuerdos paralelos con Nvidia, AMD y otros proveedores, lo que confirma una tendencia hacia arquitecturas heterogéneas.
AWS y la estrategia del silicio propioPara Amazon, este acuerdo representa una victoria estratégica clave.
AWS lleva años invirtiendo en chips propios:
- Graviton (CPU) → workloads generales y de inferencia
- Trainium → entrenamiento de IA
- Inferentia → inferencia optimizada
El objetivo es claro:
reducir dependencia de terceros (como Nvidia) y mejorar la eficiencia económica del cloud.
El negocio de chips de Amazon ya genera ingresos multimillonarios y se está convirtiendo en un pilar central de su estrategia en IA.
Meta: una infraestructura de IA a escala planetariaPara Meta, el acuerdo responde a una necesidad estructural:
- Modelos cada vez más grandes
- Uso masivo en productos (Facebook, Instagram, WhatsApp)
- Expansión hacia agentes inteligentes y automatización
Esto implica una presión enorme sobre la infraestructura:
- Latencia baja para miles de millones de usuarios
- Costes operativos controlados
- Capacidad de escalar dinámicamente
El uso de CPUs optimizadas permite a Meta ejecutar IA “en producción” de forma más eficiente, especialmente en tareas repetitivas y distribuidas.
Un cambio de paradigma en la “guerra de chips”El acuerdo también redefine la competencia en el sector:
Actor
Estrategia
Nvidia
Dominio en GPUs (training)
Amazon
Chips propios (CPU + AI stack)
TPUs especializadas
Meta
Arquitectura híbrida multi-proveedor
Este nuevo escenario sugiere que la “guerra de chips” ya no se centra en un único componente, sino en ecosistemas completos de computación.
Conclusión: la IA ya no es solo cuestión de potencia, sino de arquitecturaEl acuerdo entre Meta y Amazon marca un punto de inflexión:
- La IA deja de ser exclusivamente GPU-céntrica
- Las CPUs recuperan relevancia en el ciclo de vida del modelo
- La eficiencia y el coste pasan a ser tan importantes como la potencia bruta
En definitiva, estamos entrando en una nueva fase:
👉 la optimización del stack de IA
Donde el éxito no dependerá únicamente de quién tenga los chips más potentes, sino de quién diseñe la arquitectura más inteligente.