Meta esclude l'UE dal nuovo modello AI Llama

Meta esclude l'UE dal nuovo modello AI Llama

> Il gigante tech si ritira dal mercato europeo degli occhiali smart, citando l'incertezza normativa dell'UE come motivo principale della decisione.

Meta ha annunciato che non lancerà il suo prossimo modello di intelligenza artificiale multimodale nell'Unione Europea, citando preoccupazioni normative. Questo modello avanzato è in grado di gestire video, audio, immagini e testo.

La decisione impedirà alle aziende europee di utilizzare il modello multimodale, nonostante sia previsto il rilascio con una licenza aperta. Kate McLaughlin, portavoce di Meta, ha dichiarato a The Verge: "Rilasceremo un modello Llama multimodale nei prossimi mesi, ma non nell'UE a causa della natura imprevedibile dell'ambiente normativo europeo".

Recentemente, l'UE ha finalizzato le scadenze di conformità per le aziende di IA nell'ambito del suo nuovo e rigoroso AI Act. Le aziende tecnologiche che operano nell'UE avranno generalmente tempo fino ad agosto 2026 per conformarsi alle regole su copyright, trasparenza e utilizzi dell'IA come la polizia predittiva.

La decisione di Meta segue una mossa simile di Apple

La decisione di Meta segue una mossa simile di Apple, che ha recentemente affermato che probabilmente escluderà l'UE dal lancio di Apple Intelligence a causa delle preoccupazioni relative al Digital Markets Act. Meta ha anche interrotto i piani per rilasciare il suo assistente IA nell'UE e ha sospeso i suoi strumenti di IA generativa in Brasile, entrambi a causa di preoccupazioni sulla conformità alla protezione dei dati.

Implicazioni per le aziende e reazioni dell'UE

Secondo quanto riportato, una versione solo testuale del modello Llama 3 di Meta sarà comunque lanciata nell'UE. Meta afferma che i suoi modelli di IA multimodale saranno utilizzati in prodotti come gli occhiali intelligenti Meta Ray-Ban.

Axios riferisce che l'esclusione dell'UE da parte di Meta si estenderà anche ai futuri rilasci di modelli di IA multimodale, ma esclude una versione più grande e solo testuale del modello Llama 3, che Meta afferma sarà disponibile per i clienti dell'UE.

Questa situazione crea difficoltà per le aziende al di fuori dell'UE che speravano di fornire prodotti e servizi che utilizzano questi modelli, poiché sarà loro impedito di offrirli in uno dei maggiori mercati economici mondiali. Al momento della stesura di questo articolo, l'UE non ha commentato la decisione di Meta. La decisione di Apple di limitare potenzialmente il suo impiego di IA è stata criticata dal commissario europeo per la concorrenza, Margrethe Vestager.


L'argomento principale di cui si parla è l'intelligenza artificiale multimodale e le sfide normative che le aziende tecnologiche stanno affrontando nell'Unione Europea. Questo tipo di IA rappresenta un notevole passo avanti nel campo dell'intelligenza artificiale, con radici che risalgono agli anni '70.

L'idea di combinare diverse modalità di input (come testo, immagini, audio e video) in un unico sistema di IA ha avuto origine con i primi tentativi di creare sistemi di comprensione del linguaggio naturale. Tuttavia, è solo negli ultimi decenni che la tecnologia ha raggiunto un livello tale da rendere possibile l'implementazione pratica di questi sistemi complessi.

Una curiosità interessante riguarda il termine "multimodale" stesso. In psicologia, si riferisce all'uso di più di un senso per percepire l'ambiente circostante. L'IA multimodale emula questa capacità umana, cercando di integrare diverse fonti di informazione per una comprensione più completa e contestuale.

L'intelligenza artificiale multimodale è come un bambino che impara a comprendere il mondo usando tutti i suoi sensi contemporaneamente.

Storicamente, uno dei primi tentativi significativi di creare un'IA multimodale fu il progetto SHRDLU di Terry Winograd nel 1970. Questo sistema pionieristico combinava la comprensione del linguaggio naturale con una rappresentazione visiva di un mondo di blocchi, anticipando molte delle sfide che i moderni sistemi multimodali affrontano oggi.

Un aspetto affascinante dell'IA multimodale è la sua capacità di colmare il divario tra il mondo digitale e quello fisico. Ad esempio, potrebbe consentire a un robot di "vedere" un oggetto, "ascoltare" una descrizione verbale e "leggere" un'etichetta, combinando tutte queste informazioni per comprendere e interagire con l'ambiente in modo più naturale e efficace.

Le implicazioni etiche e normative dell'IA multimodale sono particolarmente complesse. La capacità di questi sistemi di processare e interpretare dati da più fonti solleva questioni sulla privacy e sulla sicurezza dei dati che vanno ben oltre quelle poste dai sistemi di IA tradizionali. Questo spiega in parte perché l'Unione Europea sta adottando un approccio cauto e rigoroso nella regolamentazione di queste tecnologie emergenti.

Nonostante le sfide normative attuali, l'IA multimodale promette di rivoluzionare numerosi settori, dalla sanità all'istruzione, dall'intrattenimento alla ricerca scientifica. La sua capacità di integrare e interpretare informazioni da diverse fonti potrebbe portare a progressi significativi nella diagnosi medica, nell'apprendimento personalizzato e nella comprensione dei fenomeni complessi.

Logo AiBay