L'IA che non piace nell'editoria ma è accettata nello sport e nell'intrattenimento

L'IA che non piace nell'editoria ma è accettata nello sport e nell'intrattenimento

> I progressi nell'intelligenza artificiale sconvolgono molti aspetti della vita moderna, incluso il settore dell'informazione. In un anno con un numero record di elezioni in tutto il mondo, ci si interroga sull'impatto dei "deepfake" e altri contenuti sintetici sulle democrazie. Inoltre, i modelli di business e la fiducia a sostegno del giornalismo indipendente sono stati ulteriormente messi in discussione.

Le innovazioni nell'Intelligenza Artificiale (AI) stanno rivoluzionando molti settori della vita moderna, incluso il settore dell'informazione. Durante un anno segnato da un numero record di elezioni in tutto il mondo, si è discusso ampiamente degli effetti dei cosiddetti "deepfake" e altri contenuti sintetici sulle democrazie. Queste tecnologie hanno inoltre messo ulteriore pressione sui modelli di business e sulla fiducia che sostiene il giornalismo indipendente.

Anche se la maggior parte del pubblico sta appena iniziando a formarsi un'opinione sull'AI applicata alle notizie, nel nostro ultimo rapporto annuale, il Digital News Report dell'Università di Oxford Institute of Journalism, abbiamo esplorato l'argomento in 28 mercati diversi, integrando un'indagine approfondita con interviste nel Regno Unito, USA e Messico. Le nostre scoperte indicano un alto livello di ambivalenza riguardo l'uso di queste tecnologie, oltre a fornire indicazioni utili agli editori che cercano di implementarle senza ulteriormente erodere la fiducia nelle notizie, già diminuita in molti paesi negli ultimi anni.

È importante ricordare che la consapevolezza dell'AI è ancora relativamente bassa, con circa metà del nostro campione (49% a livello globale e 56% nel Regno Unito) che ha letto poco o nulla sull'argomento. Tuttavia, la preoccupazione per l'accuratezza dell'informazione e il potenziale per la disinformazione sono in cima alla lista tra coloro che sono meglio informati.

Le immagini e i video manipolati, come quelli relativi al conflitto a Gaza, sono sempre più diffusi sui social media e stanno già creando confusione. "Ho visto molti esempi in passato e a volte possono essere molto convincenti. Fortunatamente, sono ancora abbastanza facili da rilevare, ma entro cinque anni saranno indistinguibili", ha commentato un uomo intervistato.

Alcuni partecipanti ritengono che l'uso diffuso delle tecnologie AI generative, capaci di produrre contenuti in testi, immagini e video, renderebbe più difficile identificare la disinformazione, una preoccupazione particolarmente grave quando si tratta di argomenti importanti come la politica e le elezioni.

In 47 paesi, il 59% degli intervistati ha espresso preoccupazione riguardo alla capacità di distinguere tra ciò che è reale e falso su internet, un aumento di tre punti percentuali rispetto all'anno scorato. Altri hanno però una visione più ottimista, notando come queste tecnologie potrebbero essere utilizzate per fornire contenuti più pertinenti e utili.

Uso dell'AI nell'industria delle notizie

L'industria delle notizie si sta rivolgendo all'AI per due motivi principali. Il primo è la speranza di ridurre i costi automatizzando processi di backend come la trascrizione, la correzione di bozze e l'impaginazione. Il secondo è che le tecnologie AI potrebbero aiutare a personalizzare il contenuto stesso, rendendolo più interessante per il pubblico.

Nell'ultimo anno, abbiamo visto le aziende mediatiche impiegare una vasta gamma di soluzioni AI, con vari gradi di supervisione umana, che vanno dai riassunti generati dall'AI e illustrazioni a storie scritte da robot AI e persino telegiornalisti generati dall'AI.

I risultati della nostra indagine indicano un certo disagio nei confronti dell'uso dell'AI quando i contenuti sono creati principalmente da AI con una certa supervisione umana, mentre c'è meno scomodità quando l'AI è utilizzata per assistere giornalisti umani, ad esempio nella trascrizione di interviste o nella sintesi di materiali per la ricerca. Tuttavia, ci sono differenze a livello nazionale, possibilmente influenzate dalle narrazioni dei media.

La comfort zone con l'AI è anche strettamente legata all'importanza e serietà dell'argomento trattato. Le persone si sentono meno a proprio agio con notizie generate dall'AI su temi come la politica e il crimine, mentre sono più a loro agio con le notizie di sport o intrattenimento, argomenti in cui gli errori tendono ad avere conseguenze meno gravi.

Complessivamente, ci troviamo ancora nelle prime fasi dell'uso dell'AI da parte dei giornalisti, ma ciò rappresenta un momento di massimo rischio per le organizzazioni di notizie. I nostri dati mostrano che il pubblico è ancora profondamente ambivalente sull'uso di queste tecnologie, il che significa che gli editori devono essere estremamente cauti su dove e come le impiegano.

Preoccupazioni più ampie riguardo ai contenuti sintetici che inondano le piattaforme online suggeriscono che i marchi di fiducia che utilizzano le tecnologie in modo responsabile potrebbero essere ricompensati. Ma se le cose vanno male, quella fiducia potrebbe essere facilmente perduta.

Logo AiBay