Storie Web domenica, Aprile 21
Notiziario

Ora non ci possiamo più fidare di ciò che vediamo sui social o che gira sulle chat: davvero Joe Biden ha partecipato a un meeting con lo stato maggiore dell’esercito per la guerra di Gaza? Davvero i trattori, in protesta contro l’Europa, hanno sommerso il centro di Parigi con balle di fieno? Sono due esempi reali di immagini create con l’intelligenza artificiale, circolate negli ultimi giorni. Un problema serio, con gravi implicazioni politiche; ma anche con impatti sulle persone: l’IA è usata anche per creare immagini di nudo non consensuale. Ai danni di celebrità (da ultima Taylor Swift) o di studentesse (come capitato in varie scuole medie e superiori italiane negli ultimi mesi).
Ecco perché le big tech stanno adottando in massa uno standard per l’etichettatura dei media. Una soluzione in grado di descrivere chi ha creato un’immagine o un video, quando e come è stato creato e la credibilità della sua fonte.
Adesso lo standard che sta prendendo piede è C2pa, vi hanno appena aderito Google, dopo Microsoft, Adobe, OpenAi, Meta.

Cosa è C2pa

C2pa sta per Coalition for Content Provenance and Authenticity. Parole che si spiegano da sole. Si tratta di un gruppo creato da Adobe e Microsoft per trovare il modo di certificare la provenienza dei media online: da dove provengono e come sono stati creati. Lo standard è un’”etichetta” contenente le informazioni chiave che permettano di distinguere il vero dal falso, come l’eventuale utilizzo di una piattaforma di intelligenza artificiale per la creazione di un media.

Obiettivi di C2pa e di questo tipo di etichette

Obiettivo è contrastare i deepfake (ai danni di donne o politici, ad esempio) e la disinformazione (come nel caso dei trattori). L’etichetta consente agli utenti e alle piattaforme di riconoscere le immagini create con IA e di dubitare della loro veridicità. Le piattaforme social leggendo l’etichetta possono in automatico, ad esempio, avvisare gli utenti che una certa immagine è stata fatta dall’IA e indicarne la provenienza. Immaginiamo un futuro prossimo in cui su X, Facebook eccetera ci sarà una selva di bollini per aiutarci a distinguere il vero dal falso. Anche il Governo Usa e il regolamento europeo AI Act spingono per la presenza di etichette (anche dette watermark o bollini) di questo tipo, appunto contro il rischio di disinformazione.

In pratica come funziona?

Tecnicamente, lo standard è un “metadato”, ossia informazioni di base che si aggiunge alle altre proprietà delle immagini e che può essere letto in automatico da piattaforme. Già adesso le immagini hanno “metadati” come la provenienza e la data.Da ultima, Google si è impegnata quindi di etichettare con questo standard le immagini create con i suoi strumenti di intelligenza artificiale, come Gemini, per altro sempre più integrati in smartphone (come il Samsung S24, appena lanciato). Ma l’idea è che Google permetterà anche di rendere più adottate e riconosciute queste credenziali standard, su tutti i suoi servizi (come Youtube, il browser Chrome, gli smartphone Android). Google ha dichiarato, del resto, che lo standard è complementare ad altre sue iniziative: SynthID di Google DeepMind, lo strumento di ricerca “About this Image” e le etichette di YouTube per i contenuti alterati o sintetici. Pochi giorni prima, Meta ha annunciato l’arrivo di nuovi strumenti per identificare i metadati C2pa nelle immagini caricate su Facebook, Instagram e Threads, in modo da applicare automaticamente le etichette alle immagini generate dall’intelligenza artificiale sulle piattaforme. OpenAI ha annunciato questa settimana che aggiungerà i metadati C2pa alle immagini create con ChatGpt e il modello DALL-E 3. Leica ha aggiunto la possibilità di aggiungere metadati di autenticazione C2pa sui propri prodotti.

I limiti di C2pa e altre etichette.

Per ora C2pa è disponibile solo per le immagini, ma la coalizione sta lavorando sui file video e audio. Già circolano finti audio con voci contraffatte di persone famose che ci spingono a comprare bitcoin o a varie truffe (hanno usato da poco anche la voce della presentatrice Mara Venier).

Condividere.
© 2024 Mahalsa Italia. Tutti i diritti riservati.