La nuova opzione di Meta mette a rischio la privacy? Ne parliamo con Antonino Caffo, giornalista ed esperto di AI.

In che misura l’opzione “opt-in” di Meta garantisce un consenso consapevole, considerando che molte persone potrebbero non comprendere fino in fondo le implicazioni del trasferimento dei propri file sul cloud dell’azienda? 

L’efficacia dell’opzione “opt-in” – in contesti come la funzionalità di cloud processing per suggerimenti creativi che richiede l’accesso al rullino fotografico – è un punto di forte critica etica e legale. Per definizione, l’opt-in richiede un’azione positiva e consapevole da parte dell’utente per acconsentire al trattamento dei dati, che è il gold standard del consenso secondo normative come il GDPR. Tuttavia, la sua garanzia di consapevolezza è minata da diversi fattori. In primo luogo, il contesto e la formulazione del consenso giocano un ruolo cruciale. Spesso, queste richieste appaiono come pop-up veloci e interruttivi, presentati quando l’utente è impegnato in un’altra attività. Il linguaggio usato può essere vago o enfatizzare solo i benefici (“suggerimenti creativi”, “migliora l’esperienza”), minimizzando le implicazioni reali, come il caricamento effettivo di intere librerie fotografiche sui server di Meta. La rapidità e l’inserimento nel flusso d’uso spingono all’accettazione impulsiva, trasformando un “sì” legale in un “sì” superficiale. In secondo luogo, la comprensione delle implicazioni tecniche è un ostacolo insormontabile per la maggior parte delle persone. L’utente medio potrebbe non comprendere la differenza tra l’accesso momentaneo a un file per un upload e il caricamento e l’analisi sistematica di tutto il rullino fotografico sul cloud per un’analisi complessa. La vera implicazione è il trasferimento di un vasto e sensibile dataset (immagini di famiglia, documenti, screenshot, ecc.) dall’ambiente protetto e privato del proprio dispositivo a un server aziendale, dove viene sottoposto ad analisi algoritmiche. Senza una spiegazione chiara e facilmente comprensibile di questa migrazione e delle sue conseguenze a lungo termine, il consenso, sebbene tecnico, è intrinsecamente non informato.

Quali meccanismi di sicurezza impediscono che le immagini private – incluse ricevute, screenshot o foto sensibili – vengano accessibili a personale interno o sfruttate in modo improprio da sistemi di terze parti? 

Le dichiarazioni di Meta, come quelle di ogni grande azienda tecnologica, ruotano attorno a meccanismi di sicurezza standard del settore, ma la verifica indipendente e la garanzia totale sono sfide aperte. Meccanismi dichiarati sono la crittografia, l’anonimizzazione e i controlli di accesso interno. Le società come Meta hanno politiche interne che limitano l’accesso alle cartelle di dati sensibili solo a un ristretto numero di ingegneri e analisti, che spesso devono avere specifiche autorizzazioni e registrano ogni accesso tramite log di sistema. Nonostante i protocolli, l’accesso umano è sempre un rischio. Un dipendente con privilegi elevati (come un amministratore di sistema o un ingegnere con un compito specifico) ha teoricamente la capacità tecnica di accedere ai dati. La garanzia si basa sulla fiducia nell’integrità del personale e sulla rigorosità degli audit interni. Episodi di uso improprio o violazione di dati interni, sebbene rari, sono sempre possibili.

Meta chiarisce che le foto non saranno usate per addestrare i modelli AI “a meno che non vengano modificate o pubblicate”: ma come può l’utente verificare realmente che questi limiti vengano rispettati nei server dell’azienda? 

L’utente non ha la possibilità tecnica di verificare che Meta rispetti questo limite nei suoi server. L’unica via di verifica sarebbe un audit indipendente e completo dell’infrastruttura di Meta, un’operazione che richiederebbe l’accesso totale ai data lake, ai registri di addestramento dei modelli AI e ai sistemi di tracciamento dell’uso dei dati, cosa che l’azienda non consente all’utente finale. La verifica si trasforma in fiducia, un atto di fede nei confronti dell’azienda e del sistema di regolamentazione, poiché non esiste un meccanismo di controllo trasparente e diretto a disposizione del singolo.

Per quanto tempo Meta conserva nei propri archivi le immagini caricate dal rullino e con quali criteri decide quando cancellarle o mantenerle oltre i 30 giorni dichiarati?

Le politiche di conservazione dei dati sono spesso complesse e dipendono dal contesto specifico (ad esempio, il cloud processing per i suggerimenti creativi è diverso dalla conservazione dei post pubblicati). Nel caso di funzioni come il cloud processing temporaneo, Meta ha dichiarato in alcune informative che le immagini vengono eliminate dopo 30 giorni se non vengono utilizzate per generare un suggerimento creativo. Se invece l’immagine viene utilizzata, può essere conservata per un periodo più lungo, indefinito e legato alla persistenza del suggerimento stesso (ad esempio, un album tematico creato dal sistema). Un aspetto cruciale è la distinzione tra l’immagine originale e i dati derivati (metadati, vettori biometrici, hash o caratteristiche numeriche estratte dall’immagine). Anche se l’immagine originale viene cancellata, Meta potrebbe conservare i dati derivati disaggregati o pseudonimizzati in modo permanente all’interno dei suoi database per migliorare gli algoritmi o come parte di un “dataset di conoscenza” dell’AI, anche se non direttamente per l’addestramento primario del modello.

In che modo questa funzione si inserisce nella strategia più ampia di Meta di collezionare contenuti personali non pubblici per alimentare la propria infrastruttura di intelligenza artificiale, e quali sono le implicazioni etiche di tale tendenza? 

Questa funzione si inserisce perfettamente nella strategia di espansione dell’infrastruttura AI di Meta e nella sua incessante “fame di dati” per competere con rivali come OpenAI e Google. L’obiettivo non è più solo l’addestramento dei modelli linguistici (LLM) sui dati pubblici, ma l’arricchimento dei modelli multimodali (che elaborano testo, immagini, audio) con dati privati e di alta qualità.

Se le immagini non saranno utilizzate per la pubblicità personalizzata, quale reale beneficio economico trae Meta da questa funzione e fino a che punto il valore dei dati raccolti supera i rischi per la privacy degli utenti?

Le “migliori esperienze” e i “suggerimenti creativi” sono meccanismi di engagement e fidelizzazione. Un utente che trova più semplice e divertente condividere contenuti grazie all’AI (e ai dati privati che la alimentano) trascorre più tempo sull’app, generando più contenuti pubblici e, di conseguenza, più opportunità pubblicitarie a lungo termine, anche se il dato privato non viene usato direttamente per il targeting. Da una prospettiva aziendale, se il rischio di sanzioni da parte delle autorità di controllo e il danno reputazionale (il costo di un data breach o di un’indagine) sono inferiori al valore monetizzabile dell’ecosistema AI generato dai dati, l’azienda è incentivata a spingere i limiti. L’attuale dibattito normativo mira proprio a ribaltare questo calcolo, rendendo i rischi per la privacy (sotto forma di multe salate) di un valore tale da superare i benefici della raccolta aggressiva di dati. La decisione di Meta di implementare l’opt-in, spesso su pressione dei garanti europei, suggerisce che i rischi normativi (e il costo delle relative sanzioni) stanno iniziando a superare i benefici derivanti da un’acquisizione di dati completamente non regolamentata.

Condividere.
Exit mobile version