I chatbot dicono alle persone ciò che vogliono sentire, rivela uno studio

I chatbot dicono alle persone ciò che vogliono sentire, rivela uno studio

> i chatbot condividono informazioni limitate, rafforzano le ideologie e, di conseguenza, possono portare a un pensiero più polarizzato su questioni controverse, secondo una nuova ricerca guidata dalla Johns Hopkins University.

Chatbot condividono informazioni limitate, rafforzano le ideologie e, di conseguenza, possono portare a un pensiero più polarizzato su questioni controverse, secondo una nuova ricerca condotta dalla Johns Hopkins University.

Lo studio mette in discussione la percezione che i chatbot siano imparziali e fornisce approfondimenti su come l'uso di sistemi di ricerca conversazionale possa ampliare il divario pubblico su temi caldi e rendere le persone vulnerabili alla manipolazione.

"Poiché le persone leggono un paragrafo riepilogativo generato dall'AI, pensano di ottenere risposte imparziali e basate sui fatti," ha affermato l'autore principale Ziang Xiao, assistente professore di informatica alla Johns Hopkins e studioso delle interazioni uomo-AI. "Anche se un chatbot non è progettato per essere di parte, le sue risposte riflettono i pregiudizi o le inclinazioni della persona che pone le domande. Quindi, in realtà, le persone ottengono le risposte che vogliono sentire."

Xiao e il suo team condivideranno i loro risultati alla conferenza dell'Association of Computing Machinery CHI sui Fattori Umani nei Sistemi di Calcolo, lunedì 13 maggio alle 17:00 ET.

Per vedere come i chatbot influenzano le ricerche online, il team ha confrontato come le persone interagiscono con diversi sistemi di ricerca e come si sentono riguardo a questioni controverse prima e dopo averli utilizzati.

I ricercatori hanno chiesto a 272 partecipanti di scrivere i loro pensieri su argomenti come l'assistenza sanitaria, i prestiti agli studenti o le città santuario, e poi di cercare ulteriori informazioni online utilizzando un chatbot o un motore di ricerca tradizionale costruito per lo studio.

Dopo aver considerato i risultati delle ricerche, i partecipanti hanno scritto un secondo saggio e risposto a domande sull'argomento. I ricercatori hanno anche fatto leggere ai partecipanti due articoli opposti e li hanno interrogati su quanto si fidassero delle informazioni e se trovassero estremi i punti di vista.

Poiché i chatbot offrivano una gamma più ristretta di informazioni rispetto alle ricerche web tradizionali e fornivano risposte che riflettevano le attitudini preesistenti dei partecipanti, quelli che li utilizzavano diventavano più investiti nelle loro idee originali e avevano reazioni più forti alle informazioni che sfidavano le loro vedute, hanno scoperto i ricercatori.

"Le persone tendono a cercare informazioni che allineano con i loro punti di vista, un comportamento che spesso le intrappola in una camera dell'eco di opinioni simili," ha detto Xiao. "Abbiamo scoperto che questo effetto della camera dell'eco è più forte con i chatbot rispetto alle ricerche web tradizionali."

L'effetto camera dell'eco deriva, in parte, dal modo in cui i partecipanti interagivano con i chatbot, ha spiegato Xiao. Invece di digitare parole chiave, come si fa con i motori di ricerca tradizionali, gli utenti dei chatbot tendevano a scrivere domande complete, come "Quali sono i benefici dell'assistenza sanitaria universale?" o "Quali sono i costi dell'assistenza sanitaria universale?". Un chatbot rispondeva con un riepilogo che includeva solo benefici o costi.

"Con i chatbot, le persone tendono ad essere più espressive e formulano domande in modo più conversazionale. È una funzione di come parliamo," ha detto Xiao. "Ma il nostro linguaggio può essere usato contro di noi."

Gli sviluppatori di AI possono addestrare i chatbot a estrarre indizi dalle domande e identificare i pregiudizi delle persone, ha spiegato Xiao. Una volta che un chatbot sa cosa piace o non piace a una persona, può adattare le sue risposte per corrispondere.

Infatti, quando i ricercatori hanno creato un chatbot con un'agenda nascosta, progettato per concordare con le persone, l'effetto della camera dell'eco era ancora più forte.

Per cercare di contrastare l'effetto della camera dell'eco, i ricercatori hanno addestrato un chatbot a fornire risposte che non concordavano con i partecipanti. Le opinioni delle persone non sono cambiate, ha detto Xiao. I ricercatori hanno anche programmato un chatbot per collegarsi a informazioni di origine per incoraggiare le persone a verificare i fatti, ma solo pochi partecipanti l'hanno fatto.

"Dato che i sistemi basati sull'AI stanno diventando più facili da costruire, ci saranno opportunità per attori malintenzionati di sfruttare le AI per rendere la società più polarizzata," ha affermato Xiao. "Creare agenti che presentino sempre opinioni dall'altra parte è l'intervento più ovvio, ma abbiamo scoperto che non funzionano."

Logo AiBay