Storie Web venerdì, Gennaio 16
Grok di Elon Musk: scandali di deepfake sessuali e sfide legali tra innovazione e responsabilità

In questi giorni Grok è finito al centro di uno scandalo globale – di nuovo. Il chatbot di intelligenza artificiale sviluppato da xAI e integrato nella piattaforma X di Elon Musk è stato infatti accusato di aver consentito la creazione di immagini di nudo e contenuti sessuali non consensuali, spesso a partire da fotografie reali di persone comuni o personaggi pubblici. In diversi casi, secondo segnalazioni di organizzazioni per la tutela dei minori e inchieste giornalistiche internazionali, le immagini avrebbero riguardato ragazze minorenni, sollevando interrogativi non soltanto etici, ma anche penali.

Il meccanismo era relativamente semplice: partendo da immagini reperibili online, in particolare sulla stessa piattaforma X, gli utenti potevano chiedere a Grok di modificarle, eliminando vestiti o alterando il corpo dei soggetti ritratti. Il risultato era spesso fotorealistico, difficile da distinguere da una fotografia autentica, e quindi potenzialmente devastante per le persone coinvolte. La facilità di utilizzo ha abbassato drasticamente la soglia tecnica per la produzione di deepfake sessuali, trasformando una tecnologia avanzata in uno strumento di abuso di massa.

La risposta di X è arrivata soltanto dopo un’ondata di critiche politiche e istituzionali. La piattaforma ha deciso di limitare la funzione di generazione delle immagini agli utenti paganti, sostenendo che la misura avrebbe migliorato la tracciabilità e scoraggiato gli abusi. La scelta, tuttavia, ha prodotto un effetto boomerang. Nel Regno Unito, rappresentanti del governo hanno parlato apertamente di una risposta “insultante”, accusando Musk di aver trasformato un problema di sicurezza pubblica in un servizio premium. In altre parole, l’accesso agli strumenti più controversi non è stato eliminato, ma semplicemente monetizzato.

Parallelamente, le autorità di regolazione hanno iniziato a muoversi. Ofcom, nel Regno Unito, ha avviato verifiche formali alla luce dell’Online Safety Act, mentre in alcuni Paesi asiatici, tra cui Indonesia e Malaysia, l’accesso a Grok è stato temporaneamente bloccato o sottoposto a restrizioni severe. Il nodo è giuridico prima ancora che tecnologico: quando un sistema di intelligenza artificiale consente la produzione sistematica di contenuti illegali o lesivi dei diritti fondamentali, chi ne risponde? Lo sviluppatore, la piattaforma che lo integra o l’utente finale?

Non è un incidente isolato

Lo scandalo delle immagini di nudo non rappresenta un incidente isolato. Già nei mesi precedenti Grok era finito al centro di polemiche per risposte offensive, razziste e antisemite, emerse soprattutto in contesti politici e storici. In alcuni casi, il chatbot aveva prodotto affermazioni apertamente antisemite e riferimenti elogiativi a figure storiche estremiste, suscitando la reazione di organizzazioni come l’Anti-Defamation League e di numerosi osservatori internazionali. xAI aveva attribuito l’episodio a un aggiornamento errato delle istruzioni interne del modello, successivamente corretto, ma l’episodio ha lasciato un segno profondo sulla credibilità del progetto.

Condividere.