Il Senato degli Stati Uniti ha approvato all'unanimità un disegno di legge che consente alle vittime di immagini intime non consensuali create dall'intelligenza artificiale, comunemente note come "deepfake", di citare in giudizio i loro creatori per danni.
Il Disrupt Explicit Forged Images and Non-Consensual Edits Act (DEFIANCE Act) permette alle vittime di deepfake sessualmente espliciti di perseguire rimedi civili contro coloro che hanno prodotto o elaborato l'immagine con l'intento di distribuirla.
Secondo il disegno di legge, le vittime identificabili in questi tipi di deepfake possono ricevere fino a 150.000 dollari di risarcimento. La cifra può salire fino a 250.000 dollari se l'incidente è collegato a "aggressione sessuale effettiva o tentata, stalking o molestie" o ne è "la causa diretta e prossima".
Ora spetta alla Camera dei Rappresentanti esaminare il disegno di legge prima che possa essere inviato alla scrivania del presidente per essere firmato e diventare legge.
Un problema diffuso
Molte persone hanno appreso dell'esistenza dei deepfake intimi non consensuali quando immagini sessualmente esplicite di Taylor Swift create dall'IA hanno inondato i social media all'inizio di quest'anno. Questo tipo di immagini è diventato anche un problema nelle scuole di tutto il paese, dove le ragazze delle scuole superiori hanno scoperto che immagini intime generate dall'IA venivano fatte circolare dai loro coetanei.
In un discorso al Senato, il leader della maggioranza Chuck Schumer (D-NY) ha dichiarato che i deepfake sessualmente espliciti non sono "solo una questione marginale che riguarda poche persone, ma un problema diffuso".
Schumer ha affermato che il DEFIANCE Act è solo "uno degli esempi delle misure di salvaguardia dell'IA di cui parlo spesso. L'IA è una tecnologia straordinaria che può stimolare un'innovazione incredibile, ma dobbiamo approvare misure di salvaguardia per prevenire i suoi peggiori abusi che possono causare gravi danni alle persone".
Ha esortato la Camera a prendere in considerazione il DEFIANCE Act. Esiste già un disegno di legge complementare nella camera, anche se manca solo una settimana e mezza prima che il Congresso si disperda per la pausa di agosto.
"Approvando questo disegno di legge, stiamo dicendo alle vittime di deepfake espliciti non consensuali che le ascoltiamo e stiamo agendo", ha concluso Schumer.
L'intelligenza artificiale e il suo utilizzo per creare immagini false e dannose è un tema di grande attualità e preoccupazione. Questo fenomeno, noto come "deepfake", ha radici più profonde di quanto si possa immaginare.
Le prime forme di manipolazione delle immagini risalgono agli albori della fotografia stessa. Nel XIX secolo, fotografi come Oscar Gustave Rejlander e Henry Peach Robinson creavano complesse immagini composite unendo più negativi. Tuttavia, queste tecniche richiedevano notevole abilità e tempo.
Con l'avvento dell'era digitale, la manipolazione delle immagini è diventata più accessibile. Software come Adobe Photoshop, lanciato nel 1990, hanno reso possibile modificare le foto con relativa facilità. Ma è stato solo con l'arrivo dell'intelligenza artificiale che la creazione di falsi convincenti è diventata alla portata di tutti.
Il termine "deepfake" è nato nel 2017, quando un utente di Reddit con lo pseudonimo "deepfakes" iniziò a pubblicare video pornografici in cui i volti delle celebrità erano stati sostituiti con quelli di altre persone. Da allora, la tecnologia è progredita rapidamente.
L'IA è come un coltello a doppio taglio: può essere uno strumento potente per il bene, ma anche un'arma pericolosa nelle mani sbagliate.
Una curiosità interessante è che la lotta contro i deepfake ha portato allo sviluppo di nuove tecnologie. Ad esempio, alcune aziende stanno lavorando su sistemi di autenticazione basati su blockchain per verificare l'autenticità delle immagini e dei video.
Nonostante i rischi, è importante ricordare che la tecnologia deepfake ha anche applicazioni positive. Nel cinema, ad esempio, è stata utilizzata per ringiovanire attori o ricreare performance di star scomparse. Nel campo medico, è stata impiegata per creare immagini di tumori a scopo di formazione.
La sfida per il futuro sarà trovare un equilibrio tra l'innovazione tecnologica e la protezione dei diritti individuali. Leggi come il DEFIANCE Act sono un passo importante in questa direzione, ma sarà necessario un approccio globale e coordinato per affrontare efficacemente questa problematica in rapida evoluzione.