Il dataset LAION, che contiene un vasto indice di immagini e didascalie online, è stato ampiamente utilizzato per addestrare strumenti di AI generativa come Stable Diffusion e Midjourney. La sua rimozione temporanea e successiva pulizia rappresenta un importante passo per contrastare la creazione di deepfake di minori tramite l'intelligenza artificiale.
La collaborazione tra LAION, l'Osservatorio di Stanford e organizzazioni anti-abuso in Canada e Regno Unito ha permesso di ripulire il dataset, che ora può essere nuovamente utilizzato per la ricerca sull'AI. Tuttavia, il ricercatore di Stanford David Thiel, autore del rapporto originale, sottolinea la necessità di ritirare anche i "modelli contaminati" ancora in grado di produrre immagini di abusi su minori.
Implicazioni legali e responsabilità dei fondatori
Il caso si inserisce in un contesto di crescente attenzione delle autorità verso l'uso illecito di strumenti tecnologici. Recentemente, il procuratore di San Francisco ha intentato una causa per chiudere siti web che generano nudi artificiali di donne e ragazze. Inoltre, le accuse contro Pavel Durov, fondatore di Telegram, per la presunta diffusione di immagini di abusi su minori sulla piattaforma, segnalano un cambiamento significativo.
David Evan Harris, ricercatore all'Università della California, Berkeley, commenta: "L'arresto di Durov segnala un grande cambiamento nell'intera industria tecnologica, dove i fondatori di queste piattaforme possono essere ritenuti personalmente responsabili".
La rimozione del dataset problematico e le azioni legali in corso evidenziano la crescente consapevolezza dei rischi legati all'uso improprio dell'AI e la necessità di implementare misure di sicurezza più efficaci nel settore tecnologico.