Storie Web venerdì, Marzo 1
Notiziario

Molti analisti temono che la disinformazione generata attraverso deepfake – immagini e video falsi – potrà influenzare il voto americano in maniera determinante. Non a caso, pochi giorni fa, il Global Risks Report 2024 del World Economic Forum individuava nella disinformazione e misinformazione (la divulgazione di contenuti non veritieri), spinte anche dal sempre più facile accesso a tool di intelligenza artificiale, il “più grande pericolo globale a breve termine che le Democrazie sono chiamate ad affrontare”.
In ballo non ci sono solo le presidenziali americane di novembre: in primavera sarà la volta dell’India e a giugno le Europee. Le elezioni in Bangladesh e Taiwan tenutesi nei giorni scorsi hanno dato il via a un anno cruciale per le democrazie mondiali. Già per le elezioni appena passate si è assistito a una proliferazione della disinformazione, generata e diffusa anche dall’intelligenza artificiale (un caso su tutti, il falso video circolato sul social cinese Douyin del deputato statunitense Rob Wittman che si impegna a sostenere militarmente Taiwan in caso di vittoria del partito vincitore, il Dpp). I timori che simili scenari possano ripetersi anche nelle future contese elettorali sono fondati, come anche le evidenze che la disinformazione venga alimentata da stati terzi, come la Cina ha fatto per Taiwan e la Russia farà per gli Stati Uniti.

Opinione pubblica e governi sono sempre più convinti che sarà indispensabile per le Ai company mettere in atto misure di prevenzione al più presto. Sam Altman, CEO di OpenAI, si è già espresso tempo fa in maniera favorevole: intervenendo sul tema inerente all’impatto dell’Ai sul processo democratico, ha condiviso i propri timori, invocando l’introduzione di regole utili a mitigare il potenziale impatto negativo degli algoritmi. Da ieri si è passato dalle parole ai fatti, con OpenAI che ha annunciato una serie di misure per contrastare la disinformazione.

L’approccio di OpenAI per contrastare la disinformazione

Con la pubblicazione di un post sul blog ufficiale si è messa nero su bianco l’intenzione di lavorare affinché strumenti come ChatGPT e il modello di generazione di immagini DALL·E non siano impiegati con l’obiettivo di ingannare e/o influenzare l’opinione pubblica attraverso la creazione di notizie false o deepfake.«Mentre ci prepariamo per le elezioni del 2024 nelle più grandi democrazie del mondo, il nostro approccio è quello di continuare il lavoro di sicurezza della nostra piattaforma migliorando informazioni di voto accurate, applicando politiche misurate e migliorando la trasparenza», spiega OpenAI.Tra le misure annunciate da OpenAI per prevenire abusi sono state implementate le barriere su DALL·E con il rifiuto di richieste che richiedono la generazione di immagini di persone reali, compresi i candidati. Inoltre, «fino a quando non ne sapremo di più, non consentiremo alle persone di creare applicazioni per campagne politiche e lobbying» e non sarà permesso agli sviluppatori di creare chatbot che fingano di essere candidati o istituzioni. Infine, per quanto riguarda il voto negli Stati Uniti, quando saranno poste domande al chatbot sulle procedure elettorali il sistema rimanderà al sito della no-profit bipartisan National Association of Secretaries of State. Ancora, OpenAI ribadisce di aver già avviato i lavori che, entro i prossimi mesi, porteranno all’implementazione del protocollo C2PA (Coalition for Content Provenance and Authenticity), la crittografia utile a identificare la natura fittizia delle immagini generate dall’intelligenza artificiale DALL·E 3. È poi in fase di test, presso un gruppo selezionato di giornalisti, piattaforme e ricercatori, uno strumento di analisi utile per riconoscere i contenuti grafici creati dall’Ai, anche in seguito a modifiche. Sul fronte ChatGPT si sta integrando sempre più l’inclusione di risultati aggiornati in tempo reale, inclusi link verso fonti di informazioni: «Gli utenti inizieranno ad avere accesso alle notizie in tempo reale a livello globale, inclusi attribuzione e collegamenti. La trasparenza sull’origine delle informazioni e l’equilibrio nelle fonti di notizie possono aiutare gli elettori a valutare meglio le informazioni e a decidere da soli di cosa possono fidarsi». Tutto questo dovrebbe contribuire a migliorare il servizio in termini di trasparenza. Ma il condizionale rimane d’obbligo. Resta infatti da capire quanto queste misure saranno efficaci e se i “manipolatori dell’informazione” riusciranno a creare “escamotage” che permetteranno loro di usare queste piattaforme per scopi malevoli. La prova di maturità di OpenAI è iniziata.

Condividere.
© 2024 Mahalsa Italia. Tutti i diritti riservati.