Ricercatori mirano a proteggere utenti multicultura

Ricercatori mirano a proteggere utenti multicultura

> Gli utenti di assistenti vocali come Siri, Alexa o Google Assistant conoscono la frustrazione di essere fraintesi da una macchina.

Gli assistenti vocali come Siri, Alexa o Google Assistant sono diventati ormai parte integrante della vita di molti utenti. Tuttavia, la frustrazione di non essere compresi da una macchina è un'esperienza comune, soprattutto per le persone che non hanno un accento americano standard.

Secondo uno studio condotto dai ricercatori dell'Human-Computer Interaction Institute (HCII) della Carnegie Mellon University, questa incomprensione può andare oltre il semplice fastidio e diventare potenzialmente pericolosa per alcuni gruppi di utenti.

La ricerca, pubblicata negli atti della CHI Conference on Human Factors in Computing Systems, ha identificato sei tipologie di danni causati dagli errori degli assistenti vocali e ha proposto strategie per ridurli. Lo studio, condotto dalla dottoranda Kimi Wenzel e dal professor Geoff Kaufman, ha vinto il premio Best Paper alla conferenza CHI 2024.

Il problema della rappresentazione nei dataset

Una delle principali cause di questi problemi è la sovrarappresentazione degli americani bianchi nei dataset utilizzati per addestrare gli assistenti vocali. Diversi studi hanno dimostrato che questi sistemi hanno maggiori probabilità di interpretare erroneamente o non comprendere gli utenti di colore e le persone con accenti o dialetti diversi dall'americano standard.

Secondo il professor Kaufman, le ricerche precedenti tendevano a considerare questo problema come una questione tecnica da superare, invece di un fallimento con ripercussioni sull'utente. In realtà, essere fraintesi da una macchina può essere vissuto come una microaggressione, con effetti negativi sull'autostima e sul senso di appartenenza.

Essere fraintesi da una macchina può essere vissuto come una microaggressione.

L'impatto sugli utenti di colore

Un esperimento controllato condotto lo scorso anno ha studiato l'impatto che i tassi di errore degli assistenti vocali hanno su volontari bianchi e neri. I risultati hanno mostrato che le persone di colore che sperimentavano alti tassi di errore avevano livelli più elevati di autocoscienza, una minore autostima e una visione meno favorevole della tecnologia rispetto a quelle che sperimentavano bassi tassi di errore. Le persone bianche, invece, non mostravano questa reazione, indipendentemente dal tasso di errore.

"Ipotizziamo che, poiché le persone di colore sperimentano più frequentemente incomprensioni o hanno maggiore esperienza quotidiana con il razzismo, queste esperienze si accumulino e causino effetti negativi più gravi", ha spiegato Wenzel.

Le sei tipologie di danni identificate

Nello studio più recente, Wenzel e Kaufman hanno intervistato 16 volontari che hanno riscontrato problemi con gli assistenti vocali, identificando sei potenziali danni derivanti da errori apparentemente innocui:

  1. Danni emotivi
  2. Danni culturali o identitari causati da microaggressioni
  3. Danni relazionali, quando un errore porta a conflitti interpersonali
  4. Danni economici, pagando lo stesso prezzo per una tecnologia che funziona peggio
  5. Sforzo extra necessario per far funzionare la tecnologia
  6. Pericolo fisico in contesti più seri come la trascrizione medica o la navigazione auto

Strategie per mitigare i danni

I ricercatori hanno proposto alcune strategie per ridurre questi danni:

  • Reindirizzamento della colpa: non una semplice scusa, ma una spiegazione dell'errore che non incolpi l'utente
  • Maggiore sensibilità culturale, ad esempio ampliando il database di nomi propri non anglosassoni
  • Autoaffermazioni nelle conversazioni con gli utenti, per proteggere la loro identità quando viene minacciata

La sfida principale resta quella di eliminare i pregiudizi nelle tecnologie vocali, ma creare dataset rappresentativi dell'intera gamma di variazioni umane è un compito complesso. Nel frattempo, queste strategie comunicative potrebbero aiutare a mitigare i danni causati dagli errori degli assistenti vocali.

"Al momento la tecnologia dice semplicemente 'scusa', ma pensiamo che dovrebbe fare di più", ha concluso Wenzel. La ricerca prosegue per trovare il giusto equilibrio tra efficacia della comunicazione e brevità, fondamentale per mantenere l'efficienza che gli utenti cercano negli assistenti vocali.


Gli assistenti vocali, dispositivi capaci di interpretare il linguaggio umano e di rispondere attraverso comandi vocali, rappresentano una delle più affascinanti applicazioni dell'intelligenza artificiale. La storia di questi dispositivi nel mondo della tecnologia è relativamente recente, ma ha radici che si possono far risalire ai primi esperimenti di riconoscimento vocale e di sintesi vocale.

Negli anni '50 e '60, vi furono i primi tentativi di sviluppare macchine che potessero comprendere il linguaggio parlato. Uno dei pionieri in questo campo fu l'Audrey system di Bell Laboratories, che poteva riconoscere le cifre vocalizzate da una voce umana. Con il passare dei decenni, la tecnologia ha fatto enormi progressi, culminati nella creazione di assistenti vocali sofisticati che non solo capiscono e rispondono a comandi vocali complessi ma possono anche imparare e adattarsi alle preferenze degli utenti.

Una macchina che ascolta e risponde: un sogno tecnologico che si è trasformato in realtà.

Curiosità: uno degli aspetti interessanti degli assistenti vocali è la loro capacità di supportare diversi linguaggi e dialetti, un traguardo non privo di sfide. Ad esempio, il modo in cui le varie lingue gestiscono l'intonazione e il ritmo può drasticamente cambiare il significato delle parole, rendendo il processo di apprendimento della macchina decisamente complicato. Inoltre, la personalizzazione dell'assistente in base all'accento e alle espressioni locali è fondamentale per fornire un'esperienza utente più inclusiva e personalizzata.

Gli assistenti vocali sono anche inseriti in una varietà di dispositivi oltre agli smartphone, come automobili, altoparlanti intelligenti e anche appliances domestici. Questa estensione dell'uso degli assistenti vocali dimostra come la tecnologia sia diventata parte integrante della nostra vita quotidiana.

Infine, è interessante notare come l'integrazione di queste tecnologie abbia sollevato questioni di privacy e di sicurezza dati, sfidando i produttori a bilanciare innovazione e protezione degli utenti. Gli assistenti vocali, in effetti, funzionano raccogliendo grandi quantità di dati vocali che, se non gestiti correttamente, possono diventare vulnerabili a rischi di sicurezza. La trasparenza nell'uso dei dati e la chiara comunicazione delle impostazioni di privacy sono essenziali per costruire e mantenere la fiducia degli utenti.

In conclusione, gli assistenti vocali, pur essendo un'invenzione relativamente moderna, portano con sé una ricca storia di innovazione e miglioramento tecnologico, dimostrando come la tecnologia possa evolvere per meglio integrarsi nelle nostre vite e rispondere alle nostre necessità quotidiane.

Logo AiBay