HomeAIMeta firma maxi accordo sui processori Nvidia per data center e AI

Meta firma maxi accordo sui processori Nvidia per data center e AI

Nel nuovo accordo pluriennale tra Meta e Nvidia, i processori Nvidia diventano protagonisti di una strategia che va oltre le sole GPU e punta all’inferenza su larga scala.

Meta investe miliardi in chip Nvidia tra GPU e CPU standalone

La casa madre di Facebook, Meta, ha siglato un accordo pluriennale con Nvidia che include non solo GPU ma, per la prima volta, anche CPU standalone. L’intesa rappresenta un cambio di rotta strategico per entrambe le società.

Meta si è impegnata ad acquistare milioni di chip Nvidia, tra le attuali GPU Blackwell, le future GPU Rubin e, inediti, i processori standalone Grace e Vera. Nessuna delle due aziende ha comunicato il valore dell’operazione.

Ben Bajarin, CEO e principal analyst della società di consulenza tecnologica Creative Strategies, ha stimato l’accordo in un ordine di grandezza pari a diversi miliardi di dollari. Secondo The Register, potrebbe aggiungere decine di miliardi al fatturato di Nvidia nel corso del contratto.

Già in precedenza il CEO Mark Zuckerberg aveva annunciato l’intenzione di quasi raddoppiare la spesa per infrastrutture di intelligenza artificiale nel 2026, fino a un massimo di 135 miliardi di dollari. Questo nuovo accordo appare coerente con quella traiettoria di investimento aggressivo.

Nvidia punta ai CPU per inferenza, oltre le GPU di training

L’aspetto più significativo dell’intesa non riguarda le GPU, ma la decisione di Meta di adottare su vasta scala CPU Nvidia vendute come prodotti indipendenti. Finora i processori Grace erano proposti quasi esclusivamente come parte dei cosiddetti “Superchip”, moduli che combinano CPU e GPU.

Nel gennaio 2026 Nvidia ha modificato ufficialmente la propria strategia commerciale, iniziando a offrire le CPU separatamente. Il primo cliente reso pubblico in quella fase è stato il neocloud provider CoreWeave, segnando l’avvio di una nuova linea di business.

Il gruppo sta puntando a un mercato in rapida crescita. Negli ultimi anni l’industria dell’AI è stata dominata dall’addestramento di grandi modelli su GPU, ma l’attenzione si sta spostando sempre più verso l’inferenza, cioè l’esecuzione dei modelli già addestrati. Per molte di queste attività, l’uso di GPU risulta eccessivo rispetto alle esigenze effettive.

Bajarin ha spiegato al Financial Times che “eravamo nell’era del training e ora ci stiamo spostando sempre più verso l’era dell’inferenza, che richiede un approccio completamente diverso”. In questo contesto, l’uso di CPU ottimizzate per efficienza diventa centrale.

Caratteristiche tecniche dei processori Nvidia Grace e Vera

Secondo quanto riportato da The Register, Ian Buck, vicepresidente e general manager per Hyperscale e HPC di Nvidia, ha dichiarato che il processore Grace può “offrire 2x le prestazioni per watt” su workload di back end come la gestione di database. Inoltre, ha aggiunto che “Meta ha già avuto modo di provare Vera su alcuni di questi carichi di lavoro, con risultati molto promettenti”.

La CPU Grace integra 72 core Arm Neoverse V2 e utilizza memoria LPDDR5x, una combinazione che, secondo Nvidia, offre vantaggi significativi in termini di banda passante e densità. Queste caratteristiche sono particolarmente rilevanti nei data center, dove consumi e spazio sono vincoli critici.

La prossima generazione, il processore Vera, porta il numero dei core a 88 core Arm custom e introduce il simultaneous multi-threading, cioè la capacità di gestire più thread per core in parallelo. Include inoltre funzionalità di confidential computing, pensate per proteggere i dati durante l’elaborazione, non solo in fase di archiviazione o trasmissione.

Secondo Nvidia, Meta prevede di impiegare Vera per elaborazioni private e funzionalità di AI all’interno del servizio di messaggistica crittografata WhatsApp. Il debutto operativo di questi processori nei sistemi di Meta è atteso per il 2027, a conferma di una pianificazione di lungo periodo.

Processori Nvidia: la strategia standalone e la sfida a Intel e AMD

La scelta di offrire CPU come prodotti standalone porta Nvidia a confrontarsi direttamente con Intel e AMD nel mercato server. Finora, il gruppo era dominante soprattutto nel segmento GPU per il training dei modelli di intelligenza artificiale.

Con questa mossa, Nvidia entra in un’arena in cui Intel e AMD tradizionalmente detengono la maggior parte delle quote, in particolare nei data center general purpose. Tuttavia, la combinazione tra GPU e CPU ottimizzate per AI potrebbe ridefinire gli equilibri competitivi nei prossimi anni.

Nel complesso, la fornitura di CPU Nvidia per inferenza a Meta rappresenta un banco di prova cruciale. Se le prestazioni e l’efficienza energetica rispetteranno le aspettative, altri hyperscaler potrebbero seguire lo stesso percorso, riducendo la dipendenza dai processori x86 convenzionali.

Meta, hyperscaler e strategie diverse sui chip

L’acquisto di CPU standalone da Nvidia colloca Meta su un percorso diverso rispetto alla maggior parte degli altri hyperscaler. Amazon punta sui propri processori Graviton, sviluppati internamente, mentre Google ha scelto le CPU Axion per coprire parte dei propri carichi di lavoro.

Meta, al contrario, preferisce affidarsi a Nvidia pur lavorando in parallelo su chip AI proprietari. Secondo il Financial Times, tuttavia, questa strategia interna avrebbe incontrato “sfide tecniche” e ritardi nel rollout, rallentando la disponibilità di soluzioni completamente in house.

La decisione di Meta sottolinea quanto sia complesso e costoso sviluppare chip proprietari competitivi rispetto a quelli offerti dai principali produttori. In confronto ad aziende come Amazon e Google, l’azienda guidata da Zuckerberg sceglie dunque una combinazione più ibrida tra acquisti esterni e R&D interna.

Concorrenza crescente: chip proprietari e startup specializzate

Anche Nvidia si muove in un contesto sempre più competitivo. Negli ultimi mesi Google, Amazon e Microsoft hanno presentato nuovi chip sviluppati internamente, progettati per ridurre i costi e la dipendenza dai fornitori tradizionali.

Parallelamente, OpenAI ha co-sviluppato un chip con Broadcom e ha concluso un importante accordo con AMD, rafforzando l’ecosistema di alternative alle soluzioni Nvidia. Diverse startup, come Cerebras, stanno inoltre lanciando chip specializzati per l’inferenza che potrebbero erodere la posizione dominante di Nvidia in segmenti specifici.

Nel dicembre scorso, Nvidia ha acquisito talenti da Groq, società attiva nei chip per inferenza, tramite un accordo di licensing. Questa operazione mira a consolidare le competenze interne e a rispondere alle pressioni competitive in un mercato in rapida evoluzione.

Reazioni di mercato e diversificazione dei fornitori

Alla fine dello scorso anno, il titolo Nvidia ha perso circa 4% dopo le indiscrezioni secondo cui Meta stava trattando con Google per l’utilizzo delle Tensor Processing Unit. Finora, però, nessun accordo di questo tipo è stato annunciato pubblicamente.

Meta, peraltro, non è un cliente esclusivo di Nvidia. Secondo The Register, l’azienda gestisce anche una flotta di GPU AMD Instinct ed è stata direttamente coinvolta nella progettazione dei rack Helios di AMD, la cui uscita è prevista entro la fine di quest’anno. Ciò evidenzia una strategia di fornitura diversificata, pensata per ridurre il rischio di dipendere da un solo produttore.

Prospettive future per CPU e GPU nel cloud AI

La scelta di Meta di puntare in modo massiccio sui processori Nvidia indica che l’architettura dei data center per AI si sta evolvendo verso un mix più equilibrato tra GPU per training e CPU ottimizzate per inferenza. Questo approccio potrebbe diventare il modello di riferimento per molti grandi operatori cloud.

Detto ciò, la corsa ai chip proprietari e l’ingresso di nuovi concorrenti rendono il quadro competitivo tutt’altro che stabile. Nei prossimi anni, la capacità di offrire soluzioni efficienti, scalabili e sicure, come le CPU con confidential computing, sarà decisiva per determinare i vincitori nel mercato globale dell’intelligenza artificiale.

Francesco Antonio Russo
Francesco Antonio Russo è un analista e divulgatore nel settore delle criptovalute, del Web3 e dell’Intelligenza Artificiale. Da più di 6 anni studia l’evoluzione dei mercati digitali e delle tecnologie decentralizzate, con particolare attenzione all’impatto economico e sociale della blockchain. Su Cryptonomist approfondisce trend, regolamentazioni e innovazioni, offrendo contenuti accurati e comprensibili anche ai non addetti ai lavori.
RELATED ARTICLES

Stay updated on all the news about cryptocurrencies and the entire world of blockchain.

Featured video

LATEST