OpenAI afferma che gruppi russi e israeliani hanno usato i suoi strumenti per diffondere disinformazione

OpenAI afferma che gruppi russi e israeliani hanno usato i suoi strumenti per diffondere disinformazione

> Reti in Cina e Iran hanno utilizzato modelli di IA per creare e diffondere disinformazione, ma le campagne non hanno raggiunto un vasto pubblico.

OpenAI ha rilasciato giovedì il suo primo rapporto sull'utilizzo dei suoi strumenti di intelligenza artificiale in operazioni di influenza occulta, mettendo in luce come la compagnia abbia interrotto campagne di disinformazione provenienti da Russia, Cina, Israele e Iran. Secondo quanto riportato, soggetti malintenzionati hanno utilizzato i modelli di AI generativa dell'azienda per creare e pubblicare contenuti propagandistici su piattaforme di social media e per tradurli in diverse lingue. Tuttavia, nessuna delle campagne ha avuto particolare successo o raggiunto vasti pubblici.

Il settore dell'AI generativa sta vivendo un vero e proprio boom, suscitando però preoccupazione tra ricercatori e legislatori riguardo al suo potenziale di incrementare la quantità e la qualità della disinformazione online. Aziende di intelligenza artificiale come OpenAI, creatori di ChatGPT, hanno tentato, con risultati alterni, di placare queste preoccupazioni e di implementare misure di sicurezza sulla loro tecnologia.

Il rapporto di 39 pagine di OpenAI è uno degli account più dettagliati di come il suo software sia stato utilizzato a fini propagandistici. La compagnia ha dichiarato di aver identificato e bannato account associati a cinque operazioni di influenza occulta negli ultimi tre mesi, attribuibili tanto a attori statali quanto privati.

In Russia, due operazioni hanno prodotto e diffuso contenuti che criticavano gli USA, l'Ucrania e diverse nazioni baltiche. Una di queste operazioni ha utilizzato un modello di OpenAI per correggere codici e creare un bot che postava su Telegram. L'operazione di influenza cinese ha generato testi in inglese, cinese, giapponese e coreano, poi pubblicati su Twitter e Medium.

Attori iraniani hanno prodotto articoli completi che attaccavano gli USA e Israele, traducendoli poi in inglese e francese. Una società politica israeliana chiamata Stoic ha gestito una rete di account falsi sui social media, creando contenuti che includevano post che accusavano le proteste studentesche statunitensi contro la guerra di Israele a Gaza di antisemitismo.

Diverse delle entità di disinformazione bandite da OpenAI erano già note ai ricercatori e alle autorità. Nello specifico, il Tesoro degli Stati Uniti ha sanzionato due uomini russi a marzo, ritenuti responsabili di una delle campagne individuate da OpenAI, mentre Meta ha bannato Stoic dalla sua piattaforma quest'anno per violazione delle sue politiche.

Il rapporto evidenzia anche come l'AI generativa sia stata incorporata nelle campagne di disinformazione per migliorare alcuni aspetti della generazione di contenuti, come la creazione di post in lingue straniere più convincenti, ma che non sia stata l'unica tecnologia utilizzata per la propaganda. "Tutte queste operazioni hanno utilizzato l'AI in una certa misura, ma nessuna l'ha impiegata esclusivamente", si legge nel rapporto. "Invece, il materiale generato dall'AI era solo uno dei molti tipi di contenuti che pubblicavano, accanto a formati più tradizionali, come testi scritti manualmente o meme copiati da internet."

Sebbene nessuna delle campagne abbia conseguìto un impatto notevole, il loro uso della tecnologia dimostra come gli attori malintenzionati scoprono che l'AI generativa permette di aumentare la produzione di propaganda. Scrivere, tradurre e postare contenuti può ora essere eseguito più efficientemente grazie agli strumenti AI, abbassando la soglia per la creazione di campagne di disinformazione.

Nell'ultimo anno, attori malintenzionati in tutto il mondo hanno utilizzato l'AI generativa per tentare di influenzare la politica e l'opinione pubblica. Audio deepfake, immagini create da AI e campagne basate su testi sono stati tutti impiegati per interrompere le campagne elettorali, aumentando la pressione su aziende come OpenAI affinché limitino l'uso dei loro strumenti.

OpenAI ha dichiarato che prevede di rilasciare periodicamente rapporti simili sulle operazioni di influenza occulta, oltre a rimuovere gli account che violano le sue politiche.

Logo AiBay