OpenAI verso maggiore trasparenza nei contenuti generati da AI

OpenAI verso maggiore trasparenza nei contenuti generati da AI

> OpenAI entra nel comitato direttivo della Coalition for Content Provenance and Authenticity (C2PA) e integrerà i metadati dello standard aperto nei suoi modelli AI generativi per aumentare la trasparenza del contenuto generato

Ryan Daws, senior editor presso TechForge Media, vanta oltre un decennio di esperienza nel giornalismo tecnologico. Riconosciuto per la sua capacità di individuare le ultime tendenze tecnologiche, analizzare argomenti complessi e creare narrazioni coinvolgenti sulle innovazioni più all'avanguardia, Daws ha ottenuto ampio riconoscimento nel settore. Le sue interviste e articoli hanno catturato l'attenzione di figure chiave dell'industria, guadagnandogli una posizione di influencer secondo organizzazioni come Onalytica. Le pubblicazioni dirette da lui hanno ricevuto apprezzamenti da analisti di spicco come Forrester grazie alle loro prestazioni. Daws è attivo sui social media, disponibile su X (@gadget_ry) o Mastodon (@gadgetry@techhub.social).

OpenAI si unisce al Comitato di Guida della Coalition for Content Provenance and Authenticity (C2PA), integrando gli standard aperti di metadati nei suoi modelli di intelligenza artificiale generativa per incrementare la trasparenza del contenuto generato. Questo standard rende possibile certificare il contenuto digitale con metadati che ne attestano l'origine, che sia creato interamente da IA, modificato con strumenti IA o catturato tradizionalmente. OpenAI ha già iniziato ad aggiungere metadati C2PA alle immagini prodotte dal suo ultimo modello DALL-E 3 nell'API di OpenAI e ChatGPT, e integrerà tali metadati anche nel suo futuro modello di generazione video Sora.

OpenAI sottolinea: "Le persone possono ancora creare contenuti ingannevoli senza queste informazioni (o rimuoverle), ma non possono facilmente falsificarle o alterarle, facendo di queste un'importante risorsa per costruire fiducia". L'iniziativa arriva in un momento di crescente preoccupazione per il potenziale dei contenuti generati tramite IA di indurre in errore, specialmente in vista delle importanti elezioni in paesi come USA e Regno Unito. L'autenticazione dei media creati da IA potrebbe aiutare a combattere deepfake e altri contenuti manipolati finalizzati a campagne di disinformazione.

Oltre all'integrazione C2PA, OpenAI sta sviluppando nuovi metodi di provenienza come la marcatura antimanomissione e classificatori per la rilevazione di immagini generati da IA, ampliando l'accesso al suo classificatore di immagini DALL-E 3 attraverso il Programma di Accesso per Ricercatori, con l'obiettivo di consentire ricerche indipendenti sull'efficacia del classificatore e sull'identificazione dei contenuti generati da IA.

OpenAI ha inoltre integrato la tecnologia di watermarking nel suo modello di voce personalizzato, Voice Engine, attualmente in anteprima limitata, puntando a promuovere l'adozione di standard di provenienza per garantire l'autenticità del contenuto digitale lungo tutto il suo ciclo di vita.

Inoltre, OpenAI collabora con Microsoft per lanciare un fondo di resilienza sociale da 2 milioni di dollari per sostenere l'educazione e la comprensione dell'IA, evidenziando l'importanza dell'azione collettiva nel promuovere l'autenticità dei contenuti in pratica. OpenAI enfatizza il ruolo collaborativo dell'industria nella ricerca in quest'area, essenziale per potenziare la trasparenza online e combattere la disinformazione.

Logo AiBay