L'intelligenza artificiale generativa: nuovo vettore di attacchi per le imprese, avverte il CTO di CrowdStrike

L'intelligenza artificiale generativa: nuovo vettore di attacchi per le imprese, avverte il CTO di CrowdStrike

> L'intelligenza artificiale generativa apre nuove opportunità per ottenere dati sensibili senza la necessità di creare malware.

I ricercatori di cybersecurity hanno da tempo messo in guardia sulle vulnerabilità dei programmi di intelligenza artificiale generativa (GenAI), che vanno dalle istruzioni appositamente ideate per infrangere i limiti di sicurezza, alle fughe di dati capaci di rivelare informazioni sensibili. Con l'approfondimento delle ricerche, gli esperti stanno scoprendo quanto il GenAI rappresenti un rischio aperto, in particolare per gli utenti aziendali che gestiscono dati estremamente sensibili e preziosi.

"Questa è una nuova vettore di attacco che apre una nuova superficie di attacco", ha affermato Elia Zaitsev, direttore tecnologico del fornitore di sicurezza informatica CrowdStrike, in un'intervista con ZDNET. "Vedo molte persone che si precipitano ad utilizzare questa tecnologia, ignorando i controlli e i metodi normali" di computing sicuro, ha aggiunto Zaitsev.

Le problematiche di sicurezza relative alla nuova tecnologia

Un esempio noto di circostanze in cui l'IA ha generato preoccupazione per la sicurezza è la funzione Recall di Microsoft, che originariamente doveva essere integrata in tutti i nuovi PC Copilot+. I ricercatori di sicurezza hanno dimostrato che gli attaccanti che ottengono accesso a un PC con la funzione Recall possono visualizzare l'intera cronologia delle interazioni di un individuo con il PC, un processo non dissimile da quanto accade quando un registratore di tasti o altro software spia viene deliberatamente installato sulla macchina. "Hanno rilasciato una funzione consumer che essenzialmente è spyware integrato, che copia tutto ciò che stai facendo in un file locale non criptato," ha spiegato Zaitsev. "Questo è una miniera d'oro per gli avversari per poi attaccare, compromettere e ottenere ogni tipo di informazione."

Dopo una reazione negativa, Microsoft ha dichiarato che avrebbe disattivato la funzione per impostazione predefinita sui PC, rendendola una funzione su base volontaria. Tuttavia, i ricercatori di sicurezza hanno affermato che la funzionalità presentava ancora dei rischi. Successivamente, l'azienda ha dichiarato che non avrebbe reso Recall disponibile come funzione di anteprima sui PC Copilot+, e ora afferma che Recall "sarà disponibile presto tramite un aggiornamento post-lancio di Windows".

Rischi più ampi legati alle grandi tecnologie di modelli linguistici

Il problema, tuttavia, è più ampio di una semplice applicazione mal progettata. Lo stesso problema di centralizzazione di un grande volume di informazioni sensibili esiste con tutte le tecnologie di grandi modelli di linguaggio (LLM), ha sottolineato Zaitsev. "Chiamo questi LLM 'nudi'", ha detto, riferendosi ai grandi modelli di linguaggio. "Se addestro un mucchio di informazioni sensibili, le inserisco in un grande modello di linguaggio e poi rendo quel grande modello di linguaggio direttamente accessibile a un utente finale, gli attacchi di iniezione di prompt possono essere utilizzati per far sì che il modello restituisca tutte le informazioni apprese, comprese quelle sensibili."

Le tecniche per mitigare i rischi includono la validazione di un prompt dell'utente prima che venga inviato a un LLM e poi la validazione della risposta prima che venga inviata indietro all'utente. "Non permettete agli utenti di passare prompt che non siano stati ispezionati, direttamente nell'LLM," ha detto Zaitsev.

Ad esempio, Charlotte AI di Crowdstrike, in molti casi, permette all'utente di porre una domanda generica, ma poi identifica quale parte della piattaforma, quale set di dati ha la fonte della verità, per poi attingere a essa per rispondere alla domanda" tramite una chiamata API anziché permettere all'LLM di interrogare direttamente il database.

Queste interazioni sono fondamentali per ridurre i rischi e proteggere non solo i dati aziendali, ma anche le informazioni personali degli utenti. "La privacy, le informazioni identificabili personalmente, sapere dove sono memorizzati i vostri dati e come sono protetti, sono tutte questioni di cui le persone dovrebbero preoccuparsi quando sviluppano tecnologia GenAI e utilizzano altri fornitori che utilizzano quella tecnologia," ha concluso Zaitsev.

Logo AiBay