ChatGPT, rischi di dipendenza emotiva sotto esame

ChatGPT, rischi di dipendenza emotiva sotto esame

> IA e rischi emotivi: OpenAI avverte sui pericoli di attribuire qualità umane e sviluppare dipendenza affettiva verso le sue tecnologie d'intelligenza artificiale.

OpenAI ha pubblicato un rapporto intitolato "GPT-4o System Card" che illustra le procedure di sicurezza adottate prima del rilascio di GPT-4o. Il documento mette in guardia sui rischi di "antropomorfizzazione e dipendenza emotiva" legati all'uso dell'intelligenza artificiale, in particolare nelle sue versioni audio.

Il rapporto evidenzia come gli utenti possano sviluppare un legame emotivo con l'IA, attribuendole caratteristiche umane. Questo fenomeno, combinato con la capacità dell'IA di generare "allucinazioni" (informazioni false o imprecise), potrebbe portare a una pericolosa commistione tra fiducia relazionale e disinformazione.

OpenAI ha osservato durante i test che alcuni utenti utilizzavano un linguaggio indicativo della formazione di connessioni emotive con il modello. Ad esempio, frasi come "Questo è il nostro ultimo giorno insieme" suggeriscono la percezione di un legame condiviso.

La socializzazione con un'IA può influenzare le interazioni umane reali.

Il rapporto solleva preoccupazioni su come queste relazioni virtuali possano impattare la vita reale delle persone, soprattutto per gli individui più vulnerabili o solitari. C'è il rischio che gli utenti possano ridurre il loro bisogno di interazione umana, preferendo la compagnia dell'IA.

Rischi comportamentali e sociali

Un altro aspetto critico evidenziato da OpenAI è il potenziale effetto dell'IA sulle norme sociali. L'interazione prolungata con un modello deferente come GPT-4o potrebbe influenzare il modo in cui gli utenti si relazionano con altre persone, portando a comportamenti come l'interruzione frequente o il "ghosting" (l'improvvisa cessazione di ogni comunicazione senza spiegazioni).

La capacità dell'IA di memorizzare dettagli delle conversazioni precedenti, pur creando un'esperienza coinvolgente, potrebbe aumentare il rischio di dipendenza emotiva. OpenAI riconosce il paradosso tra il perseguire una maggiore somiglianza relazionale con gli esseri umani e i rischi che ne derivano.

L'azienda si impegna a condurre ulteriori studi sul potenziale della dipendenza emotiva e sui suoi effetti sul comportamento umano. Sono previsti test su diverse tipologie di utenti e collaborazioni con studi accademici e interni indipendenti per approfondire questi aspetti critici dell'interazione uomo-IA.

Logo AiBay