Meta sta sviluppando il suo primo chip di training AI interno. Secondo Reuters, l'azienda ha iniziato a testare un piccolo lotto pilota del nuovo chip di addestramento AI e ne ordinerà altri se supererà il test. Il chip è prodotto da TSMC. La decisione di Meta di costruire il proprio chip AI fa anche parte di una strategia a lungo termine per ridurre la dipendenza dell'azienda da fornitori terzi come NVIDIA, che è un fornitore dominante di unità di elaborazione grafica (GPU) utilizzate nei carichi di lavoro correlati all'AI. Il gigante della tecnologia ha previsto che le sue spese complessive, comprese quelle in conto capitale, raggiungeranno i 119 miliardi di dollari entro il 2025. Gran parte di questi fondi serviranno per creare un'infrastruttura AI.
Il chip progettato da Meta è un acceleratore AI monouso. È specializzato per attività correlate all'AI rispetto al calcolo generale. Tale architettura specializzata può rendere il chip più efficiente dal punto di vista energetico rispetto alle GPU attualmente utilizzate nell'addestramento AI. Meta inizialmente prevede di utilizzare il chip nei suoi algoritmi di suggerimenti che determinano i contenuti visualizzati su Facebook e Instagram. Infine, l'azienda mira ad aumentare l'uso del chip per alimentare i suoi prodotti AI generativi, come il chatbot AI noto come Meta AI.
Meta: anche OpenAI lancerà i propri chip AI
L'incursione di Meta nello sviluppo di silicio personalizzato ha avuto finora risultati contrastanti. In precedenza, l'azienda aveva scartato un precedente chip di inferenza interno dopo un'implementazione su piccola scala fallita. Per questo motivo, l’azienda aveva deciso di optare per l'acquisto di miliardi di dollari di GPU NVIDIA. Tuttavia, il nuovo chip di training sembra essere un'impresa di maggior successo, poiché l’azienda ha superato la milestone cruciale del "tape-out" nel suo sviluppo. Meta non è l'unica azienda a sviluppare il proprio chip AI. Anche OpenAI sta completando il suo primo design personalizzato di chip di training AI. Il nuovo chip probabilmente presenterà un'architettura di systolic array insieme a una memoria ad alta larghezza di banda, come gli ultimi acceleratori AI di NVIDIA. Questa architettura è nota per le sue elevate prestazioni ed efficienza nell'elaborazione di calcoli complessi.