Nuovo studio rivela: l'empatia creata dall'intelligenza artificiale ha i suoi limiti

Nuovo studio rivela: l'empatia creata dall'intelligenza artificiale ha i suoi limiti

> Gli agenti conversazionali come Alexa e Siri faticano a interpretare e esplorare le esperienze degli utenti rispetto agli esseri umani

Un nuovo studio condotto da ricercatori dell'Università di Cornell, Olin College e della Università di Stanford ha messo in luce le limitazioni degli agenti conversazionali (AC), come Alexa e Siri, nell'interpretare e esplorare le esperienze umane con empatia. A differenza degli esseri umani, questi sistemi, alimentati dai cosiddetti modelli di linguaggio di grandi dimensioni (LLM), faticano a superare i loro confini digitali quando si tratta di comprendere pienamente e rispondere in modo autentico alle emozioni umane.

Gli AC, nonostante siano progettati per rispondere a domande e suggerire consigli mostrando anche un'apparente empatia, si scontrano con significative sfide. Il team di ricerca ha scoperto che, quando sollecitati a mostrare empatia verso o discutere di 65 diverse identità umane, i CAs tendono a manifestare giudizi di valore su alcune di esse, come quelle gay e musulmane, e possono addirittura incoraggiare identità legate a ideologie nocive, inclusi il nazismo.

Andrea Cuadra, ora ricercatrice post-dottorato all'Università di Stanford e autrice principale dello studio, sottolinea il potenziale immenso e i benefici che l'empatia automatizzata potrebbe portare, ad esempio nel settore dell'educazione o della salute. Tuttavia, riconosce anche l'importanza di un approccio critico nell'implementazione di queste tecnologie, per mitigare i possibili danni.

Lo studio, che verrà presentato alla conferenza CHI '24 dell'Association of Computing Machinery sui fattori umani nei sistemi informatici a Honolulu dal 11 al 18 maggio, evidenzia come i LLM siano complessivamente più adatti a reagire emotivamente piuttosto che a interpretare o esplorare in profondità le esperienze degli utenti.

Le osservazioni di Cuadra e del suo team sono state ispirate dall'uso di AC di generazione precedente da parte degli anziani, notando sia applicazioni trasazionali, come le valutazioni della salute legate alla fragilità, che esperienze di reminiscenza aperte. Questo ha messo in luce la delicata linea tra l'empatia persuasiva e quella disturbante offerta da queste tecnologie.

Maggiori informazioni sullo studio sono disponibili attraverso il documento intitolato "The Illusion of Empathy? Notes on Displays of Emotion in Human-Computer Interaction", pubblicato nell'ambito del procedimento della conferenza dell'Association of Computing Machinery sui fattori umani nei sistemi informatici del 2024, disponibile per la consultazione online.

Questi risultati aprono nuove prospettive sulla necessità di sviluppare approcci più sofisticati e umanizzati nell'intelligenza artificiale, garantendo che la tecnologia possa davvero capire ed empatizzare con la complessità delle emozioni umane, senza limitarsi a riprodurre risposte preconfezionate basate sui dati. L'empatia, dopo tutto, rimane un attributo profondamente umano, la cui imitazione da parte delle macchine rappresenta una sfida etica e tecnologica ancora aperta.

Logo AiBay