Rimosse foto pedopornografiche da dataset IA

Rimosse foto pedopornografiche da dataset IA

> IA: ricercatori rimuovono migliaia di link a immagini pedopornografiche da set di dati usati per addestrare generatori di immagini artificiali.

I ricercatori di intelligenza artificiale hanno rimosso oltre 2.000 link web contenenti presunte immagini di abusi sessuali su minori da un dataset utilizzato per addestrare popolari strumenti di generazione di immagini AI. L'annuncio è stato dato venerdì dagli stessi ricercatori, che hanno lavorato per ripulire il dataset LAION dopo un rapporto del Stanford Internet Observatory dello scorso dicembre.

Il dataset LAION, che contiene un vasto indice di immagini e didascalie online, è stato ampiamente utilizzato per addestrare strumenti di AI generativa come Stable Diffusion e Midjourney. La sua rimozione temporanea e successiva pulizia rappresenta un importante passo per contrastare la creazione di deepfake di minori tramite l'intelligenza artificiale.

La collaborazione tra LAION, l'Osservatorio di Stanford e organizzazioni anti-abuso in Canada e Regno Unito ha permesso di ripulire il dataset, che ora può essere nuovamente utilizzato per la ricerca sull'AI. Tuttavia, il ricercatore di Stanford David Thiel, autore del rapporto originale, sottolinea la necessità di ritirare anche i "modelli contaminati" ancora in grado di produrre immagini di abusi su minori.

La pulizia del dataset LAION arriva mentre i governi esaminano l'uso improprio di strumenti tecnologici.

Implicazioni legali e responsabilità dei fondatori

Il caso si inserisce in un contesto di crescente attenzione delle autorità verso l'uso illecito di strumenti tecnologici. Recentemente, il procuratore di San Francisco ha intentato una causa per chiudere siti web che generano nudi artificiali di donne e ragazze. Inoltre, le accuse contro Pavel Durov, fondatore di Telegram, per la presunta diffusione di immagini di abusi su minori sulla piattaforma, segnalano un cambiamento significativo.

David Evan Harris, ricercatore all'Università della California, Berkeley, commenta: "L'arresto di Durov segnala un grande cambiamento nell'intera industria tecnologica, dove i fondatori di queste piattaforme possono essere ritenuti personalmente responsabili".

La rimozione del dataset problematico e le azioni legali in corso evidenziano la crescente consapevolezza dei rischi legati all'uso improprio dell'AI e la necessità di implementare misure di sicurezza più efficaci nel settore tecnologico.

Logo AiBay