L'IA di OpenAI: troppo affascinante per gli utenti?

L'IA di OpenAI: troppo affascinante per gli utenti?

> IA con voce realistica: OpenAI teme rischi sociali. L'azienda vuole evitare che le persone si leghino troppo ai bot a scapito dei rapporti umani.

OpenAI, l'azienda di San Francisco specializzata in intelligenza artificiale, ha espresso preoccupazioni riguardo al potenziale impatto emotivo della funzione vocale realistica del suo chatbot GPT-4o sugli utenti. L'azienda teme che le persone possano sviluppare legami affettivi con l'AI a scapito delle interazioni umane reali.

Questa preoccupazione si basa su studi che indicano come le conversazioni con l'AI, se percepite come simili a quelle con persone reali, possano portare a una fiducia mal riposta. La qualità elevata della voce di GPT-4o potrebbe accentuare questo effetto, facilitando interazioni più umane con il modello.

OpenAI ha notato che durante i test, alcuni utenti parlavano all'AI in modi che suggerivano la formazione di legami emotivi, ad esempio lamentandosi che fosse il loro ultimo giorno insieme. Sebbene questi episodi possano sembrare innocui, l'azienda ritiene necessario studiarli per comprenderne l'evoluzione nel lungo periodo.

Socializzare con l'AI potrebbe rendere gli utenti meno abili nelle relazioni umane.

Un altro rischio evidenziato è che l'interazione prolungata con l'AI possa influenzare le norme sociali. Ad esempio, i modelli di OpenAI sono programmati per essere deferenti, permettendo agli utenti di interromperli in qualsiasi momento - un comportamento che sarebbe considerato scorretto nelle interazioni tra esseri umani.

Implicazioni etiche e sociali

La capacità dell'AI di ricordare dettagli durante le conversazioni e di svolgere compiti potrebbe anche portare le persone a diventare eccessivamente dipendenti dalla tecnologia. Alon Yamin, CEO di Copyleaks, ha commentato: "Le recenti preoccupazioni condivise da OpenAI indicano che è forse il momento di fermarsi e considerare come questa tecnologia influenzi l'interazione e le relazioni umane".

OpenAI ha dichiarato che condurrà ulteriori test per valutare come le capacità vocali dell'AI possano causare attaccamento emotivo negli utenti. Inoltre, durante i test sono emerse problematiche legate alla possibilità di indurre l'AI a ripetere informazioni false e teorie del complotto in modo convincente, sollevando ulteriori preoccupazioni etiche.

Il caso Scarlett Johansson

La questione dell'utilizzo di voci simili a quelle di persone reali è stata già al centro di polemiche. OpenAI si è dovuta scusare con l'attrice Scarlett Johansson per aver usato una voce molto simile alla sua nel suo ultimo chatbot. Nonostante l'azienda abbia negato che la voce fosse effettivamente quella di Johansson, il CEO Sam Altman aveva promosso il nuovo modello con un messaggio sui social media che faceva riferimento al film "Her".

Il film "Her" del 2013, che vede protagonisti Joaquin Phoenix e Scarlett Johansson come voce di un'assistente AI, esplora proprio il tema dell'innamoramento tra un uomo e un'intelligenza artificiale, anticipando molte delle questioni etiche oggi al centro del dibattito.

OpenAI si trova quindi a dover bilanciare l'innovazione tecnologica con la responsabilità etica, cercando di prevenire possibili effetti negativi sulla società e sulle relazioni interpersonali derivanti da un uso intensivo dell'intelligenza artificiale conversazionale.

Logo AiBay