Arriva il framework che rileva le allucinazioni AI

Arriva il framework che rileva le allucinazioni AI

> Modelli linguistici di grande dimensione: la nuova frontiera dell'intelligenza artificiale dopo l'avvento di ChatGPT

Gli LLM (Large Language Models), ovvero sistemi di dialogo basati sull'Intelligenza Artificiale, hanno guadagnato notorietà con l'avvento di ChatGPT di OpenAI, dimostrando una capacità sempre più raffinata nel rispondere alle query degli utenti e nel generare testi convincenti seguendo le istruzioni umane. Tuttavia, questi modelli avanzati possono talvolta produrre testi senza senso, imprecisi o irrilevanti, divergenti dagli input forniti dagli utenti, un fenomeno comunemente riferito come "allucinazioni" degli LLM.

Di fronte a queste sfide, i ricercatori dell'Università dell'Illinois a Urbana-Champaign hanno sviluppato KnowHalu, un framework innovativo per la rilevazione delle allucinazioni nei testi generati dagli LLM. Questo sistema, presentato in un articolo sulla piattaforma preprint arXiv, promette di aumentare l'affidabilità di questi modelli e facilitarne l'uso in varie applicazioni di generazione testuale.

Un nuovo orizzonte nella rilevazione delle allucinazioni nei modelli di linguaggio.

Una delle peculiarità di KnowHalu è la sua capacità di individuare le cosiddette "allucinazioni non-croccanti", cioè risposte che, sebbene possano essere corrette dal punto di vista fattuale, si rivelano irrilevanti o non specifiche rispetto alla query posta. Questa tipologia di allucinazione era finora poco esplorata ed è proprio qui che KnowHalu mette in campo la sua innovatività, offrendo anche un processo di verifica factuale basato sulla conoscenza multimodale, diviso in cinque fasi: ragionamento e interrogazione sequenziale, recupero delle conoscenze, ottimizzazione della conoscenza, valutazione basata sulla conoscenza multimodale e aggregazione del giudizio.

Testando il loro framework, i ricercatori hanno dimostrato che KnowHalu supera vari metodi di base e strumenti per la rilevazione delle allucinazioni degli LLM, sottolineando in particolare come differenti modelli e prompt possono influenzare significativamente i risultati. Inoltre, si è osservato che la formulazione delle query da parte degli utenti gioca un ruolo cruciale nella qualità delle risposte generate dagli LLM.

Il successo di KnowHalu apre la strada allo sviluppo di modelli di linguaggio ancora più affidabili, capaci di ridurre la frequenza delle allucinazioni e di migliorare la pertinenza delle risposte fornite. In futuro, il framework potrebbe ispirare ulteriori indagini sulle allucinazioni degli LLM e trovare applicazione in svariati domini, dalla guida autonoma all'assistenza sanitaria, offrendo un contributo significativo verso un'intelligenza artificiale più sicura e affidabile.

Logo AiBay