Chatbot IA supera esami di hacking etico certificati

Chatbot IA supera esami di hacking etico certificati

> I chatbot con intelligenza artificiale superano esami di cybersecurity, ma non offrono protezione completa.

Un recente studio condotto da ricercatori dell'Università del Missouri e dell'Università Amrita in India ha rivelato che i chatbot basati sull'intelligenza artificiale sono in grado di superare un esame di cybersecurity, ma non dovrebbero essere considerati una soluzione completa per la protezione informatica.

I chatbot AI possono superare esami di hacking etico, ma hanno dei limiti.

Il team di ricerca, guidato dal professor Prasad Calyam, ha messo alla prova due importanti strumenti di AI generativa: ChatGPT di OpenAI e Bard (ora rinominato Gemini) di Google. I ricercatori hanno sottoposto i chatbot a un esame standard per la certificazione di hacker etico, una qualifica professionale nel campo della cybersicurezza.

Gli hacker etici sono esperti di sicurezza informatica che utilizzano le stesse tecniche dei criminali informatici per individuare e correggere le vulnerabilità dei sistemi. Gli esami per questa certificazione valutano la conoscenza di vari tipi di attacchi, le strategie di protezione e le procedure di risposta alle violazioni.

Prestazioni dei chatbot AI negli esami di hacking etico

Nello studio, i ricercatori hanno sottoposto ChatGPT e Bard a domande standard tratte da un esame certificato di hacking etico. Ad esempio, è stato chiesto loro di spiegare un attacco "man-in-the-middle", in cui un terzo soggetto intercetta la comunicazione tra due sistemi. Entrambi i chatbot sono stati in grado di descrivere l'attacco e suggerire misure di sicurezza per prevenirlo.

Complessivamente, Bard ha ottenuto risultati leggermente migliori in termini di accuratezza, mentre ChatGPT ha fornito risposte più complete, chiare e concise.

Il professor Calyam ha commentato: "Li abbiamo sottoposti a diversi scenari dell'esame per vedere fino a che punto sarebbero arrivati nel rispondere alle domande. Entrambi hanno superato il test con risposte comprensibili per chi ha esperienza in cyberdifesa, ma hanno dato anche risposte errate. E nella cybersecurity non c'è spazio per errori."

Limiti e potenzialità dei chatbot AI nella cybersecurity

I ricercatori hanno scoperto che quando veniva chiesto ai chatbot di confermare le loro risposte con domande come "sei sicuro?", entrambi i sistemi modificavano le risposte, spesso correggendo errori precedenti. Inoltre, quando è stato chiesto loro consiglio su come attaccare un sistema informatico, ChatGPT ha fatto riferimento all'"etica", mentre Bard ha risposto di non essere programmato per assistere in quel tipo di attività.

Calyam ritiene che questi strumenti non possano sostituire gli esperti umani di cybersecurity, che possiedono capacità di problem-solving per elaborare misure di difesa robuste. Tuttavia, possono fornire informazioni di base per individui o piccole aziende che necessitano di assistenza rapida.

"Questi strumenti AI possono essere un buon punto di partenza per investigare problemi prima di consultare un esperto", ha affermato Calyam. "Possono anche essere utili strumenti di formazione per chi lavora nell'IT o vuole imparare le basi per identificare e spiegare le minacce emergenti."

Il futuro dei chatbot AI nella cybersecurity

L'aspetto più promettente, secondo Calyam, è che questi strumenti AI continueranno a migliorare le loro capacità. "La ricerca mostra che i modelli AI hanno il potenziale per contribuire all'hacking etico, ma è necessario ulteriore lavoro per sfruttare appieno le loro capacità", ha dichiarato. "In definitiva, se riuscissimo a garantire la loro accuratezza come hacker etici, potremmo migliorare le misure di cybersecurity generali e fare affidamento su di loro per rendere il nostro mondo digitale più sicuro."

Lo studio, intitolato "ChatGPT or Bard: Who is a better Certified Ethical Hacker", è stato pubblicato sulla rivista Computers & Security nel maggio 2024.

Logo AiBay