🏗️ Il sito è in costruzione.

Vertice di Seoul mette in luce le sfide della regolamentazione AI

Vertice di Seoul mette in luce le sfide della regolamentazione AI

> Il Regno Unito promuove il 'Bletchley effect' degli istituti di sicurezza, ma restano divisioni su come limitare le capacità dell'IA.

Il vertice sull'intelligenza artificiale a Bletchley Park del 2023 è stato un evento significativo nel campo della regolamentazione dell'IA, testimoniato dalla reazione pubblica che è passata da una generale perplessità alla convergenza su un interesse verso la normativa sull'IA.

Nel recente seguito del summit, tenutosi in un parco di ricerca nella periferia di Seoul, la sfida è diventata più complessa: il Regno Unito e la Corea del Sud devono dimostrare che i governi stanno passando dalla discussione alla concreta implementazione della regolamentazione dell'IA. Al termine del vertice di Seoul, il Regno Unito ha celebrato la creazione di una rete globale di istituti per la sicurezza dell'IA, che si sviluppa sull'esempio dei pionieri britannici e mira a un sistema collaborativo tra regolatori di USA, Canada, Regno Unito, Francia, Giappone, Corea, Australia, Singapore e Unione Europea per condividere informazioni su modelli di IA, danni e incidenti legati alla sicurezza.

Secondo Michelle Donelan, Ministro della Tecnologia del Regno Unito, il successo di questa iniziativa è risultato dei progressi conseguiti durante il summit di Bletchley Park dell'anno scorso. Jack Clark, co-fondatore e responsabile delle politiche del laboratorio di IA Anthropic, ha commentato come, durante il summit di Seoul, sia stato possibile ascoltare i risultati dei test effettuati dall'istituto britannico su diversi modelli, inclusi quelli di Anthropic, evidenziando l'utilità di tali istituti nonostante la loro capacità limitata principalmente all'osservazione e alla segnalazione.

Clark ha sottolineato il potere degli istituti di sicurezza nell'imbarazzare le aziende pubblicando risultati di test scomodi, influenzando così significativamente le loro azioni. Anche la sola osservazione può indurre cambiamenti: per esempio, nella definizione di soglie di "compute" da parte degli istituti di sicurezza dell'UE e degli USA, che determinano quali aziende rientrino sotto la loro supervisione.

Nel dibattito emergono diversi punti di vista sulla regolamentazione dell'IA. Andrew Ng, ex responsabile di Google Brain, ha proposto di concentrarsi sulla regolamentazione delle applicazioni delle tecnologie IA, piuttosto che sui sistemi IA stessi. Questo approccio è supportato anche da altre figure, come Janil Puthucheary, ministro senior di Singapore per le comunicazioni, che ha ribadito come, in ambiti specifici come quello sanitario, esistano già adeguati strumenti regolatori.

Al contempo, la questione della sicurezza nell'IA viene vista da alcuni come un rischio di estrema gravità, equivalente alla creazione della prima bomba atomica, come indicato dal professor Max Tegmark del MIT. Nonostante le preoccupazioni, Donelan ha difeso la necessità di un approccio inclusivo che contempli tutti i rischi potenziali.

Queste discussioni mettono in luce la complessità e l'urgenza di sviluppare strategie regolative efficaci in un campo in rapida evoluzione come quello dell'intelligenza artificiale, sottolineando l'importanza di un impegno globale per affrontare le sfide presenti e future.

Logo AiBay