Hugging Face alla carica, 10M € per sfidare i giganti

Hugging Face alla carica, 10M € per sfidare i giganti

> Hugging Face mira ad abbattere le barriere per lo sviluppo di applicazioni AI.

Hugging Face, un grande nome del settore del machine learning, ha annunciato un impegno di 10 milioni di dollari in GPU condivise gratuite. Questa iniziativa mira a supportare sviluppatori, accademici e startup nello sviluppo di nuove tecnologie AI, cercando di contrastare la centralizzazione dei progressi in questo campo.

Il CEO di Hugging Face, Clem Delangue, ha condiviso che l'investimento è stato reso possibile grazie alla recente raccolta di fondi dell'azienda, che ha ottenuto 235 milioni di dollari, valutando la compagnia a 4.5 miliardi di dollari. Delangue ha espresso preoccupazione per la capacità delle startup di intelligenza artificiale di competere con i giganti tecnologici, che spesso mantengono i loro modelli innovativi come proprietari e inaccessibili a terzi.

L'obiettivo di Hugging Face è rendere le tecnologie AI all'avanguardia accessibili a tutti, non solo alle grandi imprese tecnologiche. Questo è emerso durante una discussione al Google I/O, dove Delangue ha criticato l'approccio proprietario di molte aziende, promuovendo invece un modello più open source e decentralizzato.

Il cuore dell'iniziativa è il nuovo programma ZeroGPU, tramite il quale Hugging Face donerà GPU condivise alla comunità. Queste GPU sono accessibili simultaneamente a più utenti o applicazioni, riducendo la necessità che ciascuno disponga di una GPU dedicata. Tale sistema è ospitato su Hugging Face’s Spaces, una piattaforma che conta già oltre 300.000 demo AI.

L'accesso alle GPU condivise è determinato dall'uso effettivo; se una parte della capacità della GPU non viene utilizzata attivamente, essa diventa disponibile per altri utenti. Questo rende le GPU condivise cost-effective ed energeticamente efficienti, idealmente adatte per un utilizzo da parte della intera comunità. Gli ZeroGPU utilizzano dispositivi GPU Nvidia A100, che offrono circa la metà della velocità computazionale dei più costosi H100.

Delangue ha espresso difficoltà nel procurarsi GPU dai principali fornitori di cloud, citando le ingenti somme e i lunghi periodi di impegno richiesti come barriere significative all'entrata. Le aziende di piccole dimensioni, gli sviluppatori indipendenti e il mondo accademico, che spesso lavorano su scala minore e non possono prevedere l'attrazione dei loro progetti, trovano particolare svantaggio in tali accordi, essendo obbligati a pagare per le GPU a prescindere dall'uso.

Parallelamente, l'IA open source sta guadagnando terreno. Hugging Face ha visto la condivisione di oltre 35.000 varianti del modello AI open source di Meta, Llama, da quando la versione originale è stata rilasciata un anno fa. Queste varianti vanno da modelli quantizzati e fusi a modelli specializzati in settori come la biologia e il mandarino.

Delangue ha concluso: "L'IA non dovrebbe essere nelle mani di pochi. Con questo impegno verso gli sviluppatori di software libero, siamo entusiasti di vedere cosa inventeranno tutti nel segno della collaborazione e della trasparenza."

Logo AiBay