Meta sospende AI in Brasile: stop ai dati utente

Meta sospende AI in Brasile: stop ai dati utente

> Meta sospende l'IA in Brasile: l'Autorità per la protezione dei dati blocca l'uso di informazioni degli utenti per addestrare i modelli di intelligenza artificiale

L'Autorità nazionale per la protezione dei dati del Brasile ha ordinato a Meta Platforms di interrompere l'addestramento dei suoi modelli di intelligenza artificiale utilizzando i dati degli utenti. In risposta, l'azienda ha ritirato il suo assistente di IA generativa dal paese.

L'autorità brasiliana ha imposto questa misura preventiva a causa del "rischio imminente di danni gravi e irreparabili ai diritti fondamentali degli utenti". Meta dovrà sospendere immediatamente la nuova politica sulla privacy relativa all'uso dei dati personali per l'addestramento dei sistemi di IA generativa.

In caso di violazione del divieto, Meta rischia una multa giornaliera di 50.000 real (circa 8.900 dollari). Il Brasile rappresenta un mercato importante per l'azienda, con oltre 112 milioni di utenti Facebook e 134 milioni di utenti Instagram.

Meta ha dovuto ritardare il rilascio del suo modello di IA multimodale nell'UE per problemi normativi.

Difficoltà anche in Europa

Questa non è la prima volta che Meta affronta ostacoli normativi per i suoi progetti di IA. Recentemente, l'azienda ha dovuto posticipare il lancio del suo assistente Meta AI in Europa a causa di una richiesta dell'autorità irlandese per la privacy riguardante l'uso di contenuti da Facebook e Instagram come dati di addestramento.

Il caso di Meta non è isolato nel settore tech. Altre grandi aziende come Google, Adobe, Snap e X hanno recentemente modificato le loro politiche sulla privacy per consentire l'uso di dati personali nell'addestramento di modelli di IA.

Questi sviluppi evidenziano la crescente tensione tra l'innovazione tecnologica nel campo dell'intelligenza artificiale e la necessità di proteggere la privacy degli utenti, una sfida che le aziende tech e i regolatori dovranno affrontare nei prossimi anni.


La protezione dei dati personali è una questione di crescente importanza nell'era digitale. Le origini di questa preoccupazione risalgono agli anni '60, quando i primi database computerizzati iniziarono a raccogliere grandi quantità di informazioni personali.

Nel 1970, la Germania fu pioniera introducendo la prima legge sulla protezione dei dati al mondo. Seguirono altri paesi europei, con la Svezia nel 1973 e la Francia nel 1978. Gli Stati Uniti adottarono il Privacy Act nel 1974, focalizzandosi principalmente sui dati governativi.

L'avvento di Internet negli anni '90 ha amplificato enormemente la questione, portando alla creazione di normative più complete come il Data Protection Act del 1998 nel Regno Unito e la Direttiva sulla protezione dei dati dell'UE nel 1995.

Una curiosità interessante riguarda il "diritto all'oblio", un concetto emerso in Europa che permette agli individui di richiedere la rimozione di informazioni personali obsolete o irrilevanti dai motori di ricerca. Questo diritto è stato sancito da una sentenza della Corte di Giustizia dell'Unione Europea nel 2014.

Il Regolamento Generale sulla Protezione dei Dati (GDPR) dell'UE, entrato in vigore nel 2018, ha segnato un punto di svolta, influenzando le politiche sulla privacy a livello globale. Il GDPR ha introdotto concetti come il "privacy by design" e pesanti sanzioni per le violazioni.

La privacy non è qualcosa che posso davvero perdere. O ce l'ho o non ce l'ho.

Questa citazione dell'attivista per la privacy Max Schrems sottolinea l'importanza di proteggere i dati personali fin dall'inizio, piuttosto che cercare di recuperarli una volta persi.

Oggi, con l'avvento dell'intelligenza artificiale e del machine learning, la protezione dei dati affronta nuove sfide. L'uso di grandi quantità di dati personali per addestrare algoritmi di IA solleva questioni etiche e legali complesse, come dimostra il caso recente in Brasile.

Un aspetto poco noto è che alcune aziende stanno esplorando tecniche di "federated learning", che permettono di addestrare modelli di IA senza centralizzare i dati personali, potenzialmente offrendo un compromesso tra innovazione e privacy.

Logo AiBay