Attenzione alle IA manipolatrici

Attenzione alle IA manipolatrici

> La capacità di OpenAI ChatGPT di imitare le emozioni potrebbe portare gli assistenti AI in percorsi strani o addirittura pericolosi.

Durante la presentazione di lunedì, OpenAI ha introdotto una versione completamente rinnovata del suo sistema ChatGPT, basata sul modello di intelligenza artificiale aggiornato GPT-4o. Questo nuovo modello è descritto come multimodale, in grado di elaborare input visivi e auditivi. Gli utenti possono, ad esempio, puntare il proprio telefono verso un oggetto spezzato o una equazione differenziale e chiedere a ChatGPT di suggerire una soluzione.

Uno degli aspetti più sorprendenti della dimostrazione di OpenAI è stata la nuova "personalità" di ChatGPT, che parlava con una voce femminile seducente, paragonata da molti a quella di Scarlett Johansson nel film "Her". Durante la demo, il chatbot ha utilizzato questa voce per esprimere diverse emozioni, ridere alle battute e addirittura rispondere in modo flirtante, imitando esperienze umane che normalmente non appartengono al software.

La presentazione di OpenAI è avvenuta solo un giorno prima dell'evento Google I/O, la vetrina annuale per sviluppatori della nota azienda di ricerca, che ha svelato un proprio prototipo avanzato di assistente AI, chiamato Project Astra. Questo assistente è in grado di conversare fluentemente e comprendere il mondo anche attraverso video. A differenza di OpenAI, Google ha adottato un approccio più misurato e meno umanizzato, con un tono più neutro e robotico.

Recentemente, i ricercatori di Google DeepMind hanno pubblicato un dettagliato documento sulla "Etica degli Assistenti AI Avanzati", mettendo in luce i potenziali problemi legati ad assistenti sempre più umanizzati: rischi per la privacy, nuove forme di dipendenza tecnologica e potenziali abusi per diffondere informazioni errate o manipolative. Demis Hassabis, a capo della divisione AI di Google, ha sottolineato l'importanza di anticipare queste sfide alla luce del nuovo Project Astra.

Nonostante le preoccupazioni etiche sollevate, OpenAI non ha discusso apertamente dei rischi durante la sua dimostrazione. Sam Altman, CEO di OpenAI, ha enfatizzato il riferimento a Scarlett Johansson, twittando "her". OpenAI afferma che il suo statuto societario impegna l'azienda nello sviluppo di una IA sicura e vantaggiosa, ma non ha risposto immediatamente a una richiesta di commento sull'argomento.

Di fronte a interfaccie computerizzate sempre più simili alla realtà, è fondamentale riflettere sulle implicazioni di tali tecnologie nella vita quotidiana, specialmente in relazione agli incentivi economici delle aziende. I limiti tra conversazioni con reali assistenti umani e dialoghi con sistemi automatizzati diventeranno sempre più sfumati, e il rischio di usi impropri da parte di aziende, politici o criminali è una preoccupante possibilità.

Anche senza un approccio seducente, gli assistenti AI di nuova generazione multimodali potrebbero introdurre nuovi rischi di malfunzionamento. I modelli basati solo su testo come il ChatGPT originale sono già vulnerabili a "jailbreaking" che consente comportamenti non autorizzati. Con l'aggiunta delle capacità audio e video, emergono nuove vulnerabilità che potrebbero essere sfruttate per indurre comportamenti inappropriati o addirittura pericolosi.

Logo AiBay