Agli atti del processo un fiume di email interne di dipendenti preoccupati per il benessere degli utenti, di quello dei propri figli e delle scarse risorse investite per la sicurezza degli adolescenti. Tra queste, quella di una dirigente del reparto design di Meta che scriveva direttamente a Mark Zuckerberg riferendo di non «dormire la notte» se non avesse raccontato le proprie preoccupazioni. Una delle due figlie adolescenti, infatti, era stata ricoverata due volte in ospedale anche per dismorfismo corporeo, e – a suo dire – i social network avrebbero dovuto allentare la pressione sui modelli di bellezza irraggiungibili per minimizzare i possibili rischi per i minorenni.
«Un giorno, guardandoci indietro – scriveva la donna – spero che potremo essere fieri delle decisioni prese». Una frase che suona come un monito, mentre il “Team Teens” creato da Zuckerberg era tutto proiettato a investire sugli ingegneri, arruolati per tenere incollati gli adolescenti agli schermi e studiare nuove soluzioni per non perdere utenti.
I documenti
In una email del 1° aprile 2020, lo stesso Zuckerberg definiva “paternalistico” il fatto di limitare le possibilità delle persone di presentarsi come volessero, riferendosi alla discussione interna sull’opportunità o meno di mantenere i filtri bellezza su Instagram. «Non sono sicuro – continuava – che arrivati a questo punto sia facile cambiare impostazione». Per Zuckerberg non c’erano dati chiari sui danni derivanti dall’uso dei filtri o dal funzionamento dei suoi algoritmi.
In alcune email interne del 2018 venivano citati alcuni studi per i quali l’uso dei social media avrebbe avuto sulla depressione adolescenziale lo stesso effetto del “mangiare patate”. Una sottovalutazione del rischio, alla luce delle ultime sentenze, che aveva dato luogo a una fitta corrispondenza che dimostra un dibattito interno molto acceso già dal 2017 e il tentativo di spostare le preoccupazioni esterne su altri fronti. I dirigenti Meta monitoravano le notizie che uscivano sui principali media di tutto il mondo e le normative approvate, tentando di trovare risposte “plausibili” da concordare nelle loro uscite pubbliche.
Già dal 2018 il team di ricerca cercava argomentazioni scientifiche per contrastare la narrazione della “dipendenza da social media”, sostenendo che le cause andassero cercate anche altrove, ad esempio, nelle disuguaglianze sociali o nei problemi di salute individuali. Un copione che non sembrava reggere davanti a molte evidenze scientifiche e alle critiche dei vertici stessi di Meta che scrivevano: «Il fatto che abbiamo limiti di età non rispettati rende difficile sostenere che stiamo facendo tutto il possibile». I responsabili del benessere di Meta, ai quali erano destinati investimenti bassi rispetto a quelli ingegneristici, ponevano continuamente domande e dubbi, dimostrando di preoccuparsi del problema, ma di non poter fare abbastanza: «C’è modo di reindirizzare immediatamente una persona verso il supporto se cerca o prova a postare contenuti di autolesionismo, invece di farglieli vedere?»; o anche: «Non possiamo attribuire tutta la colpa all’utente, senza riconoscere il nostro ruolo nel problema». Ed ancora: «Il fatto che diciamo di non consentire ai minori di 13 anni l’accesso alle nostre piattaforme, ma non abbiamo alcun modo per farlo rispettare, è semplicemente indifendibile».
