OpenAI sotto esame: senatori indagano su sicurezza

OpenAI sotto esame: senatori indagano su sicurezza

> Senatori USA chiedono chiarimenti a OpenAI su sicurezza e lavoro: 5 dem scrivono al CEO Altman per indagare sulle pratiche aziendali nell'IA

Cinque importanti senatori democratici hanno inviato una lettera al CEO di OpenAI Sam Altman, chiedendo chiarimenti sulle pratiche di sicurezza e occupazionali dell'azienda.

La lettera, firmata dai senatori Brian Schatz, Ben Ray Luján, Peter Welch, Mark R. Warner e Angus S. King Jr., arriva in risposta a recenti notizie che mettono in dubbio l'impegno di OpenAI verso i suoi obiettivi dichiarati di sviluppo di intelligenza artificiale sicura e responsabile.

I senatori sottolineano l'importanza della sicurezza dell'IA per la competitività economica nazionale e la posizione geopolitica. Citano le partnership di OpenAI con il governo USA e le agenzie di sicurezza nazionale per sviluppare strumenti di cybersicurezza, evidenziando la natura critica di sistemi di IA sicuri.

"La sicurezza nazionale ed economica sono tra le responsabilità più importanti del governo degli Stati Uniti, e sistemi di IA non sicuri o vulnerabili non sono accettabili", afferma la lettera.

Le richieste dei senatori

I legislatori hanno richiesto informazioni dettagliate su diverse aree chiave entro il 13 agosto 2024, tra cui:

  • L'impegno di OpenAI a dedicare il 20% delle sue risorse di calcolo alla ricerca sulla sicurezza dell'IA
  • La posizione dell'azienda sugli accordi di non denigrazione per dipendenti attuali ed ex dipendenti
  • Le procedure per consentire ai dipendenti di sollevare preoccupazioni su cybersicurezza e sicurezza
  • I protocolli di sicurezza per prevenire il furto di modelli IA, ricerche o proprietà intellettuale
  • L'adesione di OpenAI al proprio Codice di Condotta dei Fornitori riguardo politiche di non ritorsione e canali per segnalazioni
  • I piani per test e valutazioni indipendenti dei sistemi di OpenAI prima del rilascio
  • L'impegno a rendere i futuri modelli fondamentali disponibili alle agenzie governative USA per test pre-implementazione
  • Le pratiche di monitoraggio post-rilascio e gli insegnamenti tratti dai modelli implementati
  • I piani per il rilascio pubblico di valutazioni d'impatto retrospettive sui modelli implementati
  • La documentazione sul rispetto degli impegni volontari di sicurezza assunti con l'amministrazione Biden-Harris
L'indagine dei senatori tocca recenti controversie riguardanti OpenAI.

L'indagine dei senatori tocca recenti controversie riguardanti OpenAI, incluse notizie di dispute interne sulle pratiche di sicurezza e presunte violazioni della cybersicurezza. Chiedono specificamente se OpenAI si "impegnerà a rimuovere qualsiasi altra disposizione dagli accordi di lavoro che potrebbe essere usata per penalizzare i dipendenti che sollevano pubblicamente preoccupazioni sulle pratiche aziendali".

Il contesto più ampio

Questo scrutinio congressuale arriva in un momento di crescente dibattito sulla regolamentazione dell'IA e le misure di sicurezza. La lettera fa riferimento agli impegni volontari assunti dalle principali aziende di IA con la Casa Bianca lo scorso anno, inquadrandoli come "un passo importante verso la costruzione di questa fiducia" nella sicurezza dell'IA.

Kamala Harris potrebbe essere la prossima presidente degli Stati Uniti dopo le elezioni di quest'anno. Al Summit sulla Sicurezza dell'IA nel Regno Unito l'anno scorso, Harris ha dichiarato: "Siamo chiari, ci sono ulteriori minacce che richiedono anche la nostra azione. Minacce che attualmente stanno causando danni e che per molte persone sembrano anche esistenziali... quando le persone in tutto il mondo non possono discernere i fatti dalla finzione a causa di un'inondazione di miti e disinformazione abilitati dall'IA."

Chelsea Alves, consulente di UNMiss, ha commentato: "L'approccio di Kamala Harris alla regolamentazione dell'IA e delle big tech è sia tempestivo che critico mentre si candida alla presidenza. Le sue politiche potrebbero stabilire nuovi standard su come navigare le complessità della tecnologia moderna e della privacy individuale."

La risposta di OpenAI a queste richieste potrebbe avere implicazioni significative per il futuro della governance dell'IA e il rapporto tra aziende tecnologiche e organi di supervisione governativi.


L'intelligenza artificiale e la sua regolamentazione sono al centro di un acceso dibattito politico e sociale. Questo tema affonda le sue radici nella storia dell'informatica e della cibernetica, discipline che hanno posto le basi teoriche e tecnologiche per lo sviluppo dell'IA moderna.

Il concetto di intelligenza artificiale nacque ufficialmente nel 1956 durante la conferenza di Dartmouth, ma le sue origini filosofiche risalgono all'antichità. Già nell'antica Grecia, pensatori come Aristotele si interrogavano sulla natura dell'intelligenza e sulla possibilità di replicarla artificialmente.

Nel corso del XX secolo, pionieri come Alan Turing, John McCarthy e Marvin Minsky hanno gettato le fondamenta dell'IA moderna. Turing in particolare è ricordato per il famoso "test di Turing", ancora oggi un punto di riferimento per valutare l'intelligenza delle macchine.

Una curiosità interessante riguarda il termine "robot", coniato dallo scrittore ceco Karel Čapek nella sua opera teatrale "R.U.R." del 1920. La parola deriva dal ceco "robota", che significa "lavoro forzato".

L'evoluzione dell'IA ha attraversato diverse fasi, caratterizzate da periodi di grande entusiasmo (le cosiddette "estati dell'IA") alternati a momenti di disillusione (gli "inverni dell'IA"). Oggi siamo nel pieno di una nuova primavera dell'IA, guidata dai progressi nel machine learning e nelle reti neurali profonde.

Un aspetto curioso della storia dell'IA riguarda il computer Deep Blue di IBM, che nel 1997 sconfisse il campione del mondo di scacchi Garry Kasparov. Questo evento segnò un punto di svolta nella percezione pubblica delle capacità dell'IA.

L'intelligenza artificiale sarebbe lo strumento più importante che l'umanità abbia mai creato. Può moltiplicare la nostra capacità collettiva di comprendere il mondo e affrontare le sfide complesse che ci attendono.

Questa citazione di Demis Hassabis, co-fondatore di DeepMind, riflette l'ottimismo di molti ricercatori nel campo dell'IA. Tuttavia, non mancano voci critiche che mettono in guardia sui potenziali rischi di un'IA incontrollata.

Il dibattito sulla regolamentazione dell'IA si inserisce in questo contesto storico e culturale, riflettendo le speranze e le paure che l'umanità ha sempre nutrito nei confronti delle tecnologie trasformative. La sfida per i legislatori e le aziende tecnologiche sarà quella di trovare un equilibrio tra innovazione e sicurezza, tra progresso tecnologico e tutela dei valori umani fondamentali.

Logo AiBay