Per supportare questa espansione, l'azienda ha aumentato significativamente le sue spese in conto capitale, con un incremento del 33% anno su anno nel secondo trimestre 2024, raggiungendo gli 8,5 miliardi di dollari. Questi investimenti sono destinati principalmente a server, data center e infrastrutture di rete.
Confronto tra i principali modelli linguistici
La tabella seguente mostra le risorse GPU richieste dai maggiori modelli linguistici: - GPT-4: 25.000 GPU - Llama 3: 16.000 GPU - Grok 2: 20.000 GPU - Grok 3: 100.000 GPU - Llama 4: 160.000 GPU Questi numeri evidenziano la rapida escalation delle risorse necessarie per addestrare modelli di IA sempre più avanzati.L'azienda sta adottando una strategia che permette di allocare dinamicamente le risorse tra diverse attività legate all'IA, come la formazione di modelli generativi, l'inferenza e le attività di classificazione e raccomandazione.
La CFO Susan Li ha spiegato la strategia di Meta: "Stiamo organizzando i siti dei data center in varie fasi di sviluppo, permettendoci di aumentare rapidamente la capacità limitando gli impegni di spesa a lungo termine".Questo approccio riflette la priorità di Meta di costruire una robusta infrastruttura per le future esigenze computazionali dell'IA, piuttosto che concentrarsi sulla generazione immediata di entrate dai prodotti di IA generativa.
L'enorme investimento di Meta nell'infrastruttura per l'IA dimostra la determinazione dell'azienda a rimanere all'avanguardia nello sviluppo dell'intelligenza artificiale. Con Llama 4, Meta punta a creare un modello linguistico di nuova generazione che possa competere e potenzialmente superare i concorrenti come GPT-4 di OpenAI e Grok di xAI.