Cresce l'interesse per l'IA, ma manca la trasparenza

Cresce l'interesse per l'IA, ma manca la trasparenza

> Ottenere che le aziende rivelino come addestrano i loro modelli di intelligenza artificiale di base si sta rivelando una sfida

La trasparenza nella formazione dei modelli di intelligenza artificiale (AI) rappresenta una questione aperta che sta generando tensione tra gli utenti, in un contesto in cui un numero sempre maggiore di organizzazioni guarda verso l’adozione dell’AI. Nel continente asiatico, esclusa la Cina, la spesa per l’AI è prevista crescere del 28,9%, passando da 25,5 miliardi di dollari nel 2022 a 90,7 miliardi entro il 2027, secondo i dati forniti da IDC. Di questo investimento, l’81% sarà destinato verso applicazioni di AI predittive e interpretative.

Nonostante l’ampio interesse attorno all’AI generativa, essa costituirà solo il 19% della spesa totale in AI nella regione, come sottolineato da Chris Marshall, vice presidente di data, analytics, AI, sostenibilità e ricerca industriale presso IDC Asia-Pacifico.

IDC rileva come l’84% delle organizzazioni nell’Asia-Pacifico ritenga che l’impiego di modelli generativi di AI possa fornire un netto vantaggio competitivo, puntando a miglioramenti in termini di efficienza operativa, produttività dei dipendenti, soddisfazione del cliente e sviluppo di nuovi modelli di business.

L’adozione dell’AI sta crescendo, ma la sfida per le imprese e i governi rimane quella di costruire fiducia e trasparenza, garantendo sistemi di AI che siano “giusti, esplicativi e sicuri”. Alexis Crowell, CTO di Intel per l’Asia-Pacifico e Giappone, durante il summit di Intel sull'AI a Singapore, ha riconosciuto che la trasparenza relativa all’addestramento dei modelli di AI rimane insufficiente, evidenziando la necessità di maggiori benchmark e monitoraggi da parte delle organizzazioni competenti.

Quest'assenza di trasparenza ha portato a tensioni, come dimostrano le cause legali intentate dal New York Times contro OpenAI e Microsoft. Il rispetto delle normative sulla gestione dei dati, come il GDPR europeo, diventa pertanto cruciale per garantire agli utenti la consapevolezza dell’uso dei propri dati.

Tuttavia, il problema della trasparenza non si ferma qui. Una ricerca condotta da Stanford University, MIT, e Princeton ha valutato la trasparenza di 10 importanti modelli di AI, riscontrando punteggi mediamente bassi e sottolineando una diffusa mancanza di trasparenza nel settore.

Concatenamente, la Salesforce ha evidenziato che il 54% degli utenti di AI non si fida dei dati impiegati per l’addestramento dei sistemi di AI. Nonostante ciò, la ricerca condotta dal Boston Consulting Group ribatte che la precisione non debba necessariamente scendere a compromessi con la trasparenza, aprendo quindi a modelli di AI esplicativi senza sacrificare l'accuratezza.

Infine, sono emerse preoccupazioni relative all’uso responsabile di AI e alla trasparenza nelle licenze open-source, come evidenziato da Matt Hicks, CEO di Red Hat. Questo porta a un’importanza crescente nel garantire che i modelli di AI siano protetti contro utilizzi malevoli, assicurando una gestione responsabile del ciclo di vita delle applicazioni e dei modelli di AI.

In conclusione, la trasparenza e la responsabilità nell'uso dell'AI sono temi caldi che richiedono attenzione e impegno da parte di tutti gli attori coinvolti, dalle aziende ai governi, per garantire sviluppi futuri etici e sicuri nell'ambito dell'intelligenza artificiale.

Logo AiBay