GPT-4o di OpenAI: rischio "medio" per l'IA

GPT-4o di OpenAI: rischio "medio" per l'IA

> GPT-4: nuova valutazione di OpenAI classifica il modello a rischio "medio" per la sicurezza. L'azienda continua a monitorare e migliorare le prestazioni dell'IA.

OpenAI ha pubblicato il System Card di GPT-4o, un documento di ricerca che illustra le misure di sicurezza e le valutazioni dei rischi condotte prima del rilascio del suo ultimo modello di intelligenza artificiale. Il rapporto, reso noto a maggio 2023, rivela i risultati di test effettuati da esperti esterni per identificare potenziali vulnerabilità del sistema.

Secondo il framework di valutazione di OpenAI, GPT-4o presenta un livello di rischio complessivo "medio". Questa classificazione deriva dall'analisi di quattro categorie principali: cybersecurity, minacce biologiche, capacità di persuasione e autonomia del modello. Tra queste, solo la capacità di persuasione è stata valutata a rischio medio, mentre le altre sono risultate a basso rischio.

I ricercatori hanno rilevato che in alcuni casi i testi prodotti da GPT-4o potrebbero essere più efficaci di quelli umani nell'influenzare le opinioni dei lettori, sebbene non siano risultati generalmente più persuasivi. Lindsay McCallum Rémy, portavoce di OpenAI, ha precisato che il System Card include valutazioni preparate sia da un team interno che da tester esterni come Model Evaluation and Threat Research (METR) e Apollo Research.

OpenAI sta rilasciando questo System Card in un momento cruciale.

Contesto e critiche

La pubblicazione di questo rapporto avviene in un periodo di intense critiche verso gli standard di sicurezza di OpenAI, provenienti sia dai suoi stessi dipendenti che da figure politiche. Poco prima del rilascio del System Card, The Verge ha riportato in esclusiva una lettera aperta della senatrice Elizabeth Warren e della rappresentante Lori Trahan, che chiedono chiarimenti su come l'azienda gestisce le segnalazioni interne e le revisioni di sicurezza.

La lettera evidenzia diverse questioni di sicurezza emerse pubblicamente, tra cui il breve allontanamento dell'amministratore delegato Sam Altman nel 2023 a seguito delle preoccupazioni del consiglio di amministrazione, e le dimissioni di un dirigente responsabile della sicurezza che ha denunciato come "la cultura e i processi di sicurezza siano stati messi in secondo piano rispetto a prodotti accattivanti".

Implicazioni future

Il rilascio di un modello multimodale così avanzato alla vigilia delle elezioni presidenziali statunitensi solleva preoccupazioni sul potenziale rischio di diffusione involontaria di disinformazione o di utilizzo improprio da parte di attori malintenzionati. OpenAI sottolinea di aver testato scenari reali per prevenire abusi, ma le richieste di maggiore trasparenza persistono.

In California, il senatore statale Scott Wiener sta lavorando a un disegno di legge per regolamentare i grandi modelli linguistici, che includerebbe restrizioni per responsabilizzare legalmente le aziende in caso di utilizzo dannoso dei loro sistemi di IA. Se approvata, questa legge imporrebbe a OpenAI di sottoporre i suoi modelli a valutazioni del rischio obbligatorie prima del rilascio pubblico.

Nonostante il coinvolgimento di tester esterni, la principale conclusione che emerge dal System Card di GPT-4o è che gran parte della valutazione dei rischi continua a dipendere dall'autovalutazione di OpenAI stessa, sollevando interrogativi sull'efficacia di questo approccio nel garantire la sicurezza dei sistemi di IA avanzati.

Logo AiBay