Nuova legge sull'AI per prevenire violazioni di sicurezza dei modelli

Nuova legge sull'AI per prevenire violazioni di sicurezza dei modelli

> La proposta di legge sull'intelligenza artificiale sicura presentata al Senato

Nel panorama legislativo statunitense emerge una nuova proposta volta a incrementare la sicurezza nell'ambito dell'Intelligenza Artificiale. I senatori Mark Warner (D-VA) e Thom Tillis (R-NC) hanno presentato il Secure Artificial Intelligence Act, un disegno di legge che prevede la creazione di un database per registrare ogni violazione dei sistemi AI. L'iniziativa mira a tracciare i problemi di sicurezza associati all'uso dell'intelligenza artificiale, includendo non solo gli incidenti accertati ma anche i cosiddetti "quasi incidenti".

Il cuore di questa proposta legislativa è l'istituzione di un Centro per la Sicurezza dell'Intelligenza Artificiale presso l'agenzia di sicurezza nazionale, NSA. Questo centro avrà il compito di guidare la ricerca in quello che il disegno di legge definisce "contro-AI", ovvero tecniche per imparare a manipolare i sistemi AI. Inoltre, svilupperà linee guida per prevenire misure di contro-intelligenza artificiale.

L'atto richiede altresì al NIST (National Institute of Standards and Technology) e alla CISA (Cybersecurity and Infrastructure Security Agency) di allestire un database contenente informazioni su violazioni degli AI, inclusi i "near-misses". Tale base di dati rappresenta uno strumento essenziale per comprendere meglio le vulnerabilità associate all'intelligenza artificiale e per sviluppare strategie di mitigazione più efficaci.

Focus su sicurezza e contro-AI

Le tecniche per contrastare l'AI, enfatizzate nel disegno di legge, comprendono l'attacco tramite inquinamento dei dati, gli attacchi di evasione, gli attacchi basati sulla privacy e gli attacchi di abuso. L'inquinamento dei dati, in particolare, è una tecnica che coinvolge l'inserimento di codice nei dati raccolti dai modelli AI, corrompendo così i risultati forniti. Ha guadagnato popolarità come metodo per impedire ai generatori di immagini AI di copiare opere d'arte su Internet. Gli attacchi di evasione, invece, modificano i dati analizzati dai modelli AI fino a confonderli.

La sicurezza nell'uso dell'AI è stata uno degli elementi chiave nell'ordine esecutivo sull'IA dell'amministrazione Biden, che ha incaricato il NIST di stabilire linee guida per il red-teaming e richiesto agli sviluppatori di AI di presentare rapporti sulla sicurezza. Il red teaming consiste nel cercare intenzionalmente di far sì che i modelli AI rispondano a comandi ai quali non dovrebbero.

È ideale che gli sviluppatori di modelli AI potenti testino le piattaforme per la sicurezza e le sottopongano a un ampio red teaming prima del rilascio al pubblico. Alcune aziende, come Microsoft, hanno creato strumenti per facilitare l'aggiunta di protezioni di sicurezza ai progetti AI.

Il Secure Artificial Intelligence Act dovrà ora superare l'esame di una commissione prima di poter essere discusso dal Senato. L'approvazione di questo disegno di legge potrebbe segnare un passo significativo verso un approccio più sicuro e responsabile all'uso dell'intelligenza artificiale.

Logo AiBay