Liberi (quasi) tutti
Mentre i 69 giorni del primo lockdown finiscono e una pioggia di annunci occupa i media, scopriamo l’esistenza (e la sofferenza) di una categoria di lavoratori totalmente invisibili
Un anno fa ce l’avevamo fatta per davvero, almeno per un po’. Il 18 maggio 2020, infatti, passa alla storia come il giorno della fine del primo durissimo lockdown che aveva bloccato l’Italia per 69 faticosissimi e terribili giorni, facendo più di 30mila morti e marchiando per sempre l’immaginario e la psiche di tutti noi. Quel giorno, in Italia si registrarono 99 morti legati alla COVID-19, circa lo stesso numero di quei primi giorni di marzo che videro il lockdown cominciare e circa lo stesso numero che vediamo oggi, a un anno di distanza.
Quella settimana, lontana nel tempo quanto paradossalmente vicina per quanto riguarda il rapporto con l’epidemia di coronavirus, fu soprattutto la settimana del decreto rilancio, approvato da parte del Consiglio dei Ministri, annunciato dal governo il 14 maggio e contenente misure per 55 miliardi di euro per sostenere la ripresa economica dopo la crisi dovuta al coronavirus.
Ma fu anche la settimana di altri annunci, sia governativi che non, e quasi nessuno fu confortante.
Per quanto riguarda quelli del governo, ci fu quello che indicava le linee guida per le riaperture delle spiagge, quello che spiegava come e quando si sarebbe svolto l’esame di maturità, ma anche quello che annunciava l’ennesimo salvataggio di Alitalia. Il peggiore, però, fu quello della ministra dell’Istruzione Azzolina che durante un intervento alla Camera il 12 maggio annunciò che “le situazioni attuali non consentono di terminare l’anno scolastico in presenza, a scuola”. Fu un duro colpo per tutte le famiglie con figli in età scolare, ma soprattutto per tutte le studentesse e gli studenti italiani, che speravano di poter finire l’anno dal vivo dopo mesi di didattica a distanza.
Intanto, nel mondo, ci sono paesi che chiudono, come il Libano, per esempio, che annuncia il ritorno alla Fase 1 dopo un nuovo aumento dei contagi e altri che riaprono, come il Giappone revoca lo stato di emergenza nella maggior parte del paese con due settimana di anticipo su quanto era stato deciso dal premier Abe all’inizio di aprile. Nel frattempo, ci sono aziende che per affrontare il post COVID evolvono e altre che invece soffrono : Twitter, per esempio, annuncia la conversione totale e per sempre allo smart working, mentre BuzzFeed è costretta a chiudere le sue edizioni local nel Regno Unito e in Australia.
Tra tutti gli annunci, infine, ce n’è uno che riguarda una categoria quasi totalmente invisibile ai media ma che è praticamente onnipresente nelle nostre vite digitali: i moderatori di contenuti digitali. Se in quei giorni, seppur per poco, ne sentimmo parlare, fu per un annuncio che riguardava Facebook. Il gigante dei social, infatti, annunciò di aver stanziato quasi 50 milioni di euro per risarcire le persone a cui aveva lasciato l’onere di valutare i contenuti di post e video considerati «traumatici».
È a questa categoria di lavoratori digitali così presente nelle nostre vite ma nello stesso tempo così invisibile che abbiamo deciso di concentrare l’approfondimento di questa settimana.
Il fronte invisibile delle nefandezze umane
di Lidia Baratta
«È come essere immersi in una fogna: tutto lo schifo del mondo viene verso di te e tu devi fare in modo di pulire tutto». Tarleton Gillespie, professore alla Cornell University, descrive così il lavoro dei moderatori dei contenuti online nel suo libro “Custodians of the Internet”. Uno dei primi a parlare di questo esercito di lavoratori invisibili, sconosciuti ai più, che operano come “custodi” della Rete in carne e ossa, impegnati 24 ore su 24 a ripulire con un clic il feed di social e piattaforme dai contenuti segnalati come potenzialmente pericolosi.
Sono i moderni spazzini del web costretti, per contratto, a rimanere davanti a uno schermo per ore a veder scorrere tutto il peggio che l’umanità possa produrre e postare online: esecuzioni a morte, pedopornografia, pedofilia, stupri, suicidi, immagini manipolate. Nessuno sa chi siano davvero. Né loro possono rivelare all’esterno il lavoro che fanno. Perché il contratto – come ha raccontato una anonima moderatrice di Facebook a lavialibera – contiene clausole ferree. E anche a rapporto di lavoro concluso, si è obbligati al silenzio per altri dieci anni.
In pochi, in maniera anonima, hanno raccontato in questi anni la quotidianità del loro lavoro. Fatto di giornate immerse in un un abisso senza fine di articoli, post, foto, dirette streaming, profili che gli utenti segnalano come sospetti e che loro, i moderatori, devono revisionare e analizzare per decidere se procedere o no alla rimozione. Un inseguimento continuo, mentre l’algoritmo moltiplica e amplifica senza sosta la diffusione di tutta la spazzatura del Web.
Una lotta infinita contro l’inarrestabile velocità degli algoritmi. In cui anche la “pausa toilette” deve essere segnalata. Ed eventualmente, al ritorno, spiegare anche perché si è trascorso in bagno più tempo del solito, come ha raccontato David Gilbert su Vice.
Nessuno dei grandi nomi del tech ha mai detto quanti siano. Le stime, riportate in “Gli obsoleti” di Jacopo Franchi (Agenzia X), primo libro italiano su questi lavoratori del digitale, parlano di oltre 150mila moderatori sparsi in tutto il mondo. La rivista americana The Verge ha scritto che quelli che lavorano per Facebook sarebbero circa 15mila distribuiti in venti sedi, dall’India a Menlo Park.
Secondo quanto raccontava nel 2016 a Linkiesta Laura Bononcini, oggi Public Policy Director Southern Europe di Facebook, le squadre di moderatori per il social di Zuckerberg sarebbero quattro, ognuna con un’area di specializzazione: sicurezza, hate speech, pornografia e spam, hacker e account fasulli. In Italia non ci sarebbe nessuno che si occupa delle segnalazioni, ma chi gestisce quelle in italiano sarebbe sempre un madrelingua che conosce il contesto culturale.
Ma l’unica cosa certa, di questa categoria di lavoratori digitali avvolti nel mistero, è che le principali piattaforme, da Facebook a Instagram, non possono di fatto più fare a meno di loro per continuare a erogare i propri servizi digitali. Secondo gli ultimi report di Facebook, solo nell’ultimo trimestre del 2020 sono stati rimossi 22,1 milioni di post violenti con attacchi alle persone basati su etnia, religione, sesso, malattia, status sociale o disabilità. Un enorme calderone da ripulire minuto per minuto.
I turni dei moderatori possono variare dalle sette alle nove ore, giorno e notte. E per ogni turno si revisionano circa 350-400 contenuti segnalati. L’algoritmo riconosce alcune parolacce o espressioni razziste, ma la maggior parte delle volte le segnalazioni vengono girate ai moderatori per essere vagliate. E loro devono analizzarli uno a uno. Chiuso uno, ne compare un altro. E così via, tra porno, violenze sui bambini, sugli animali, sangue, insulti xenofobi e razzisti. Ma con un ordine di priorità. Come aveva spiegato Bononcini, “se segnalano che qualcuno sta per suicidarsi, il contenuto viene gestito prima di uno che denuncia la violazione del copyright”.
E poiché il tempo a disposizione è poco, i video possono essere suddivisi in fotogrammi o si possono guardare solo i primi e gli ultimi dieci secondi. Come racconta Jacopo Franchi, i moderatori vengono valutati infatti non tanto per le abilità investigative, quanto per la velocità con cui premono il pulsante “elimina” o “salva” solo pochi secondi dopo aver visto una foto o un video. Bisogna correre: tanto più si dedicherà tempo all’analisi di un video, tanto più aumenterà il numero di coloro che lo vedranno e decideranno di condividerlo o segnalarlo a propria volta.
Ma gli effetti psicologici di vivere ogni giorno immersi in un abisso di odio e violenza, a ritmi martellanti, sono pesanti. The Verge ha raccolto tante storie di chi ha sviluppato attacchi di panico frequenti, incubi notturni e stati d’ansia. “I coltelli hanno iniziato a farmi paura”, confessa Randy, ex moderatore di Facebook che ha deciso di dormire con una pistola sul comodino pochi mesi dopo essere stato assunto. “Mi piace cucinare, ma ogni volta che vado in cucina e ci sono dei coltelli, è davvero difficile per me”.
I moderatori hanno a disposizione uno psicologo nella struttura in cui lavorano. “Andiamo praticamente tutti, perché essere esposti così tanto tempo a contenuti sgrammaticati, violenti, gratuiti, ti entra dentro e ti cambia l’umore. Capita che torni a casa e non riesci a liberarti da quel che hai visto”, raccontano. Ma non basta.
Tant’è che negli Stati Uniti, a maggio 2020, Facebook è stata condannata a risarcire dalla Corte superiore di San Mateo in California 11.250 moderatori che avevano denunciato la società dopo aver sviluppato sindrome da stress post-traumatico e stati depressivi.
La prima denuncia era arrivata nel 2018 da una ex moderatrice che aveva sviluppato forti disturbi psicologici dopo nove mesi di lavoro. Poi a catena sono arrivate quelle di altri moderatori, che accusavano il social guidato da Mark Zuckerberg non solo dell’esposizione continua a contenuti traumatizzanti, ma anche di orari massacranti e paghe basse. Zuckerberg ha accettato di pagare 52 milioni di dollari per curare i suoi moderatori: almeno mille dollari a testa per coprire le cure mediche, ma nel caso in cui venga diagnosticata più di una patologia legata al lavoro, la copertura potrà arrivare fino a 50mila dollari.
Una cifra enorme, se si pensa che, soprattutto per i moderatori assunti nei Paesi in via di sviluppo, le paghe sono molto basse. “Ero pagato dieci centesimi a contenuto”, racconta a Gillespie uno di loro, dopo aver revisionato un video di un ragazzo a cui era stato dato fuoco pubblicato dall’Isis. E infatti il turnover è continuo. Molti resistono pochi mesi e vanno via. Anche perché i margini di errore possibili sono molto bassi. “Sotto la soglia del 95 per cento di accuratezza si rischia il posto di lavoro”, raccontano. “Sei esposto a contenuti violenti o raccapriccianti e in più vieni valutato sulla qualità di una decisione che devi prendere in pochissimo tempo. A un certo punto ti senti una scimmietta, il cui unico compito è catalogare per ore informazioni sulle nefandezze umane”.
Questa è la nuova puntata di Fixing News, un progetto di Blogo in collaborazione con Slow News. Esce una volta a settimana e se vuoi saperne di più puoi cliccare qui per leggere il “manifesto”. Se invece vuoi ascoltare questo articolo in formato Podcast, lo trovi subito qui sotto, (ed anche su Spreaker, Spotify e sulle altre piattaforme). Se hai suggerimenti, idee, richieste per le prossime puntate, scrivici a fixingnews@blogo.it.