Google corre ai ripari: rimosse manualmente risposte strane generate dall'AI

Google corre ai ripari: rimosse manualmente risposte strane generate dall'AI

> Il lancio di Google AI Overview dimostra che la corsa alla supremazia nell'intelligenza artificiale è rischiosa.

Il recente lancio della funzione AI Overview di Google ha suscitato numerose reazioni sui social media, dove gli utenti hanno condiviso risposte bizzarre del prodotto, da consigli su mettere la colla sulla pizza fino a suggerire di mangiare rocce. Google sta ora lavorando per disabilitare manualmente gli AI Overview per determinate ricerche, a seguito della diffusione di numerosi meme, motivo per cui molti post vengono rimossi poco dopo la loro pubblicazione.

Nonostante Google abbia testato la funzionalità AI Overview per un anno, lanciata in beta a maggio 2023 come parte dell'esperienza di ricerca generativa, il CEO Sundar Pichai ha rivelato che l'azienda ha gestito oltre un miliardo di query in questo periodo. Pichai ha anche indicato una riduzione degli costi del 80% nel fornire risposte AI, grazie a breakthrough in campo ingegneristico, tecnico e hardware.

Un fondatore di AI, che ha preferito rimanere anonimo, ha commentato a The Verge che "un'azienda un tempo nota per essere all'avanguardia e per la qualità dei suoi prodotti è ora conosciuta per output di bassa qualità che diventano oggetto di meme". Tuttavia, Google sostiene che il suo prodotto AI Overview fornisca prevalentemente "informazioni di alta qualità". Meghann Farnsworth, portavoce di Google, ha confermato in una email a The Verge che l'azienda sta adottando "azioni rapide" per rimuovere gli AI Overview per alcune ricerche "ove appropriato secondo le nostre politiche di contenuto" e sta utilizzando queste occorrenze per sviluppare miglioramenti più ampi ai sistemi.

Gary Marcus, esperto di intelligenza artificiale e professore emerito di scienze neurali alla New York University, ha spiegato che raggiungere l'80% di correttezza nella tecnologia AI implica l'approssimazione di una vasta quantità di dati umani, il che è relativamente semplice, ma il 20% finale rappresenta una sfida ben più significativa. "Per decidere se qualcosa è plausibile o se una fonte è legittima, è necessario un ragionamento simile a quello che potrebbe fare un fact checker umano, il che potrebbe richiedere intelligenza artificiale generale," ha detto Marcus. Egli, insieme al capo dell'IA di Meta, Yann LeCun, concorda sul fatto che i grandi modelli linguistici attuali non saranno quelli che porteranno alla creazione di un'intelligenza artificiale generale.

La pressione è alta per Google, soprattutto con la crescente competizione da parte di TikTok, startup emergenti di ricerca AI valutate miliardi e le grandi ambizioni annunciate settimana scorsa, che includono il ragionamento su più passaggi per query complesse, la generazione di pagine di risultati organizzate dall'AI e la ricerca video in Google Lens. Attualmente, la reputazione di Google dipende dall'affidabilità delle funzionalità base, che sembrano non essere ancora all'altezza delle aspettative. "Questi modelli sono costituzionalmente incapaci di fare controlli di plausibilità sul proprio lavoro, ed è questo che sta mettendo in difficoltà l'industria," ha concluse Marcus.

Logo AiBay