Fake AI inganna gli elettori del Sud del mondo

Fake AI inganna gli elettori del Sud del mondo

> L'IA generativa influenza la politica globale, ma il "divario di rilevamento" ostacola l'identificazione di contenuti falsi nel Sud del mondo, a causa di pregiudizi nei sistemi.

I giornalisti e i ricercatori di molti paesi al di fuori degli Stati Uniti e dell'Europa faticano a individuare i contenuti generati dall'intelligenza artificiale, a causa dei pregiudizi presenti nei sistemi di rilevamento. Questo problema sta emergendo mentre l'uso dell'IA generativa, anche per scopi politici, diventa sempre più diffuso a livello globale. La difficoltà nel rilevare i contenuti IA nei paesi in via di sviluppo rischia di amplificare la diffusione di disinformazione, con potenziali gravi conseguenze sulle elezioni e il dibattito pubblico. Gli strumenti di rilevamento esistenti sono stati sviluppati principalmente per i mercati occidentali, risultando poco efficaci con lingue, accenti e volti diversi da quelli più comuni in Occidente.

Secondo Sam Gregory, direttore del programma dell'organizzazione no-profit Witness, la maggior parte degli strumenti attualmente disponibili offre un tasso di affidabilità tra l'85% e il 90% nel determinare se qualcosa è stato creato con l'IA. Tuttavia, quando si tratta di contenuti provenienti da paesi come Bangladesh o Senegal, dove i soggetti non sono bianchi o non parlano inglese, questo livello di affidabilità crolla drasticamente.

"Mentre gli strumenti venivano sviluppati, sono stati prioritizzati per mercati particolari", spiega Gregory. Nei dati utilizzati per addestrare i modelli "hanno dato priorità alla lingua inglese - inglese con accento americano - o ai volti predominanti nel mondo occidentale".

Problemi di riconoscimento e falsi positivi

Ciò significa che i modelli di IA sono stati addestrati principalmente su dati provenienti da e per i mercati occidentali, e quindi non riescono a riconoscere adeguatamente elementi che non rientrano in quei parametri. In alcuni casi, questo è dovuto al fatto che le aziende hanno addestrato i modelli utilizzando i dati più facilmente disponibili su Internet, dove l'inglese è di gran lunga la lingua dominante.

Richard Ngamita, fondatore di Thraets, un'organizzazione no-profit di tecnologia civica focalizzata sulle minacce digitali in Africa e in altre parti del Sud del mondo, afferma: "La maggior parte dei nostri dati, in realtà, provenienti dall'Africa è in copia cartacea". Questo significa che, a meno che questi dati non vengano digitalizzati, i modelli di IA non possono essere addestrati su di essi.

Senza grandi quantità di dati, i modelli restituiranno spesso falsi positivi o falsi negativi.

Sabhanaz Rashid Diya, fondatrice del Tech Global Institute, un think tank focalizzato sulla politica tecnologica nel Sud del mondo, sottolinea: "Se si utilizza uno qualsiasi degli strumenti standard per il rilevamento di testi generati dall'IA, tendono a rilevare l'inglese scritto da parlanti non madrelingua e presumere che la scrittura di un parlante non madrelingua inglese sia in realtà IA. Ci sono molti falsi positivi perché non sono stati addestrati su determinati dati".

Qualità dei media e ulteriori sfide

Il problema non riguarda solo il mancato riconoscimento di accenti, lingue, sintassi o volti meno comuni nei paesi occidentali. Gregory evidenzia che "molti degli strumenti iniziali di rilevamento dei deepfake sono stati addestrati su media di alta qualità". Tuttavia, in gran parte del mondo, inclusa l'Africa, dominano il mercato smartphone cinesi economici che offrono funzionalità limitate. Le foto e i video che questi telefoni sono in grado di produrre sono di qualità molto inferiore, confondendo ulteriormente i modelli di rilevamento, spiega Ngamita.

Gregory aggiunge che alcuni modelli sono così sensibili che anche il rumore di fondo in un file audio o la compressione di un video per i social media possono portare a un falso positivo o negativo. "Ma queste sono esattamente le circostanze che si incontrano nel mondo reale, nel rilevamento ruvido e tumultuoso", afferma.

Implicazioni e soluzioni possibili

L'uso di strumenti che hanno maggiori probabilità di segnalare contenuti provenienti da fuori gli Stati Uniti e l'Europa come generati dall'IA potrebbe avere serie ripercussioni a livello politico, incoraggiando i legislatori a reprimere problemi immaginari. Diya esprime preoccupazione: "C'è un enorme rischio in termini di gonfiatura di questo tipo di numeri".

Sviluppare nuovi strumenti non è una questione semplice. Come per ogni altra forma di IA, costruire, testare e far funzionare un modello di rilevamento richiede l'accesso a energia e centri dati che semplicemente non sono disponibili in gran parte del mondo.

Per ora, i ricercatori come Ngamita hanno poche opzioni: pagare per l'accesso a uno strumento preconfezionato come quello offerto da Reality Defender, i cui costi possono essere proibitivi; utilizzare strumenti gratuiti imprecisi; o cercare di ottenere l'accesso attraverso un'istituzione accademica.

Nonostante queste sfide, alcuni progressi vengono fatti. Il team di Ngamita sta compilando un dataset di possibili istanze di deepfake provenienti da tutto il continente africano, che potrebbe essere prezioso per accademici e ricercatori che stanno cercando di diversificare i dataset dei loro modelli.

Tuttavia, l'invio di dati a terzi ha i suoi svantaggi. "Il tempo di latenza è piuttosto significativo", dice Diya. "Ci vogliono almeno alcune settimane prima che qualcuno possa dire con sicurezza che questo è generato dall'IA, e nel frattempo, quel contenuto, il danno è già stato fatto".

In conclusione, mentre la lotta contro la disinformazione generata dall'IA continua, è chiaro che sono necessari maggiori sforzi per sviluppare strumenti di rilevamento più accurati e inclusivi, che possano funzionare efficacemente in diversi contesti culturali e linguistici. Allo stesso tempo, come suggerisce Diya, potrebbe essere altrettanto importante investire nel rafforzamento delle istituzioni e delle organizzazioni che promuovono un ecosistema informativo più resiliente nel suo complesso.
Logo AiBay