Balletto AI vietato: Queensland dice no ai TikTok

Balletto AI vietato: Queensland dice no ai TikTok

> Deepfake preoccupa il governo: Miles avverte sui rischi per la democrazia, ma respinge nuove leggi sulla pubblicità veritiera

Un video generato dall'intelligenza artificiale su TikTok, che ritrae il premier del Queensland Steven Miles, ha scatenato un acceso dibattito sull'uso politico dei deepfake online. Il video, pubblicato dall'opposizione del Partito Liberal Nazionale (LNP) sulla propria pagina TikTok, mostra Miles che balla accompagnato da un testo che recita: "Il mio affitto è aumentato di 60 dollari a settimana, la bolletta dell'elettricità del 20%, ma il premier ha fatto un sandwich su TikTok". Il contenuto è chiaramente contrassegnato come "generato dall'IA".

Miles ha dichiarato che questo video "rappresenta un punto di svolta per la nostra democrazia" e ha annunciato che il partito laburista statale non utilizzerà pubblicità generate dall'IA durante la prossima campagna elettorale.

"Fino ad ora sapevamo che le foto potevano essere manipolate o ritoccate con Photoshop. Ma siamo stati abituati a credere a ciò che vediamo nei video, e ora un partito politico è disposto a usare l'IA per creare video deepfake di attacco. È un punto di svolta molto pericoloso", ha affermato Miles.

La risposta del partito di opposizione

Un portavoce dell'LNP ha replicato che il premier "sa che l'IA è uno strumento comunemente utilizzato da molti creatori su questa piattaforma e sa che il suo stesso partito l'ha usata". Ha inoltre accusato Miles di essere "così disperato da abbassarsi a mentire spudoratamente per cercare di aggrapparsi al potere".

Il portavoce ha sottolineato che "il post era chiaramente etichettato come generato dall'IA" e che rappresenta "un esempio di come possiamo condividere il messaggio che i giovani del Queensland hanno subito aumenti degli affitti e delle bollette elettriche sotto il governo laburista".

L'uso dell'IA in politica non è una novità

Il precedente del partito laburista federale

Susan Grantham, docente di comunicazione presso la Griffith University, ha evidenziato che il video di Miles non è il primo caso di utilizzo dell'IA nella politica australiana. Questa tecnologia viene impiegata già dal 2022 in Australia e frequentemente in tutto il mondo, comprese le recenti elezioni del 2024 nel Regno Unito e in Pakistan.

La stessa Grantham ha ricordato che il partito laburista federale ha pubblicato un video generato dall'IA di Peter Dutton nell'aprile scorso, dimostrando che questa pratica non è limitata a un solo schieramento politico.

I rischi dell'IA nella comunicazione politica

Secondo l'esperta, le persone possono essere facilmente ingannate dai contenuti generati dall'IA, e i politici come Miles, noto per i suoi video umoristici in cui prepara il pranzo per mostrare un'immagine più alla mano, sono particolarmente a rischio.

"Poiché stanno già utilizzando quello spazio per dare un tocco divertente e interessante a temi in ultima analisi molto importanti, ciò aiuta le persone a credere quando viene sviluppato questo tipo di materiale basato sull'IA", ha spiegato Grantham.

Le sfide nella regolamentazione

Patrik Wikstrom, del centro di ricerca sui media digitali della QUT, ha sottolineato che l'IA può essere ancora più pericolosa se utilizzata in modo più sottile. Ad esempio, alcuni partiti in altre parti del mondo hanno utilizzato l'IA per creare falsi audio dei loro avversari e li hanno usati per effettuare telefonate automatiche ai loro sostenitori, mettendo parole negative in bocca agli oppositori.

Tuttavia, regolamentare questa tattica oltre i tipici requisiti di autorizzazione è difficile, data la natura globale di internet. "Non riesco proprio a vedere come si possa fare", ha ammesso Wikstrom.

L'esperto ha concluso che il problema non è l'uso dell'IA in sé, ma qualsiasi comunicazione politica progettata per ingannare. "Penso che tutti possano concordare sul fatto che questo rientri nella categoria 'terribile ma legale'", ha affermato Wikstrom, sottolineando la complessità etica e legale della questione.


L'uso dei deepfake in politica è un fenomeno relativamente recente ma in rapida crescita. Questa tecnologia affonda le sue radici negli anni '90, quando i ricercatori iniziarono a sperimentare con algoritmi per la manipolazione delle immagini. Tuttavia, è solo con l'avvento del machine learning e delle reti neurali che i deepfake hanno raggiunto un livello di realismo tale da rappresentare una vera sfida per la società.

Curiosamente, il termine "deepfake" deriva dalla combinazione di "deep learning" e "fake", ed è stato coniato nel 2017 da un utente di Reddit che utilizzava questa tecnologia per creare video pornografici falsi con i volti di celebrità. Da allora, l'uso dei deepfake si è rapidamente esteso ad altri ambiti, inclusa la politica.

Un aspetto interessante della storia dei deepfake è come abbiano rapidamente evoluto da una curiosità tecnologica a un potenziale strumento di disinformazione. Nel 2018, il regista Jordan Peele creò un deepfake virale del presidente Barack Obama per sensibilizzare l'opinione pubblica sui pericoli di questa tecnologia. Questo evento segnò un punto di svolta nella percezione pubblica dei deepfake.

La tecnologia che usiamo per creare contenuti falsi può anche essere utilizzata per individuarli, ha affermato Hany Farid, un esperto di analisi forense digitale. Questa osservazione sottolinea la natura paradossale della lotta contro i deepfake.

Un aspetto meno noto dei deepfake è il loro potenziale uso positivo. Ad esempio, nella conservazione culturale, i deepfake sono stati utilizzati per "riportare in vita" figure storiche in musei interattivi. Inoltre, nell'industria cinematografica, questa tecnologia ha permesso di completare film con attori deceduti durante le riprese.

Tuttavia, l'uso dei deepfake in politica solleva questioni etiche e legali complesse. Mentre alcuni paesi hanno iniziato a legiferare in merito, la natura globale di internet rende difficile un controllo efficace. In Cina, per esempio, dal 2019 è illegale pubblicare deepfake senza un'esplicita dichiarazione che si tratta di contenuti manipolati.

Un aspetto curioso è come i deepfake stiano influenzando la percezione della verità stessa. Il fenomeno del "liar's dividend" descrive come i politici possano ora negare la veridicità di video reali, sostenendo che si tratti di deepfake. Questo sta portando a una crescente sfiducia nelle prove video, un tempo considerate inconfutabili.

In conclusione, mentre i deepfake rappresentano una sfida significativa per la società moderna, stanno anche spingendo lo sviluppo di nuove tecnologie per il rilevamento di contenuti manipolati e stimolando un dibattito cruciale sulla natura della verità nell'era digitale.

Logo AiBay