Sono responsabili del controllo e della rimozione di post violenti ma, spesso, si ammalano proprio a causa di quello che è sempre sotto i loro occhi.
A volte, navigando sul web, alcuni post e fotografie ci appaiono sfocati, e sopra spunta un avviso per informarci che il contenuto potrebbe essere inappropriato o violento, e se ne raccomanda l’eventuale visione soltanto ai maggiorenni. È un servizio utile, è importante che ci sia un filtro in un web che, troppo spesso, si trasforma in un veicolo per diffondere messaggi di odio e di violenza. Quello a cui, forse, non abbiamo mai pensato è che dietro a quell’avvertimento ci sono delle persone. Significa che qualcuno, dopo averlo visto, ha valutato che quel video o immagine poteva essere disturbante per il pubblico. E si tratta di visioni tutt’altro che piacevoli.
» I MODERATORI DI CONTENUTI
Anno 2016, nel pieno delle elezioni statunitensi. Mark Zuckerberg, numero uno di Facebook, riceve pressioni per far sì che i contenuti che appaiono sulle sue piattaforme siano moderati. Non bastano, infatti, gli algoritmi che riconoscono immagini e parole non appropriate. C’è bisogno dell’intervento umano, c’è bisogno di qualcuno che, al di là dello schermo, valuti immagine dopo immagine, video dopo video, e decida se optare per il semaforo verde o rosso.
Così il numero uno di Facebook inizia a stipulare contratti con aziende terze, per far sì che queste moderino, in tempo quasi reale, ogni post. Il lavoro dei moderatori, sulla carta, è apparentemente semplice: arrivano in ufficio, lasciano il proprio cellulare nell’armadietto (per ragioni di privacy), raggiungono la loro postazione, accendono il computer ed iniziano a guardare i post che sono a rischio. Spetta a loro, al loro giudizio, il compito di decidere se approvarli o censurarli. È un processo relativamente veloce. Si richiede, in media, di spendere 30 secondi a contenuto. Per un totale di 400 contenuti al giorno, per dipendente.
» OLTRE I NUMERI
Nel mondo ci sono migliaia di persone pagate per guardare contenuti postati sui social o su YouTube in 50 lingue. Uomini e donne, dai 25 ai 40 anni, che lavorano su turni di setto, otto o nove ore, giorno e notte. Di solito hanno cinque minuti di pausa ogni ora, venti per mangiare. Ma spesso non hanno alcuna voglia di cibo, perché il lavoro che fanno toglie loro l’appetito. E non solo. I contenuti che sono chiamati ad analizzare sono cruenti e crudi: traffico di esseri umani, di organi, di animali, violenze di ogni genere, spose bambine, soldati bambini, incitamento all’odio (hate speech), bullismo. Ed i numeri parlano chiaro: se prendiamo in considerazione l’estate 2020, i moderatori di Facebook sono intervenuti su 36 milioni di post contenenti immagini porno, 19 milioni contenenti violenze, 22 milioni contro l’hate speech, 1,3 milioni contenenti atti di autolesionismo. I post peggiori sono facilmente intuibili: riguardano gli stupri, le violenze, i suicidi.
«Un giorno ho visto il video di un ragazzo della mia età che è stato accoltellato a morte. Ne ho un ricordo vivido, di come implorava sua madre mentre moriva. Da allora non riesco più ad usare coltelli da cucina», ha dichiarato un moderatore negli Stati Uniti.
Un mondo sommerso, oscuro, blindato da contratti con clausole ferree, che impediscono a questi dipendenti di rivelare ogni cosa: non possono dire a nessuno che tipo di lavoro fanno, tantomeno che sono a servizio dei grandi colossi mondiali. In caso di licenziamento, sono costretti al silenzio per altri dieci anni.
» UN LAVORO OSCURO
È difficile portare a galla simili storie. C’è riuscito un giornalista americano di The Verge, che ha trovato il modo di avere accesso e parlare con decine di ex dipendenti. E ha rivelato le conseguenze a cui porta un tipo di lavoro del genere. Molti moderatori, dopo tanto tempo passato a guardare immagini e video violenti, sviluppano la Sindrome da stress post traumatico. È un disturbo che è stato osservato per la prima volta negli anni Settanta, nei veterani americani di ritorno dal Vietnam che accusavano disturbi psicologici e fisici anche molto tempo dopo la guerra. Un disturbo che deriva dalla visione di un trauma sofferto in prima persona da altri.
I moderatori sono soldati del nuovo millennio, che combattono una guerra privi di armi. E, pur se non sono al fronte, vivono l’esperienza traumatizzante delle immagini viste attraverso flashback improvvisi di giorno e incubi di notte. Una dipendente, ad esempio, ha iniziato ad avere attacchi di panico dopo aver visto un uomo venire ucciso in un video che avrebbe dovuto moderare per Facebook. È un disturbo che colpisce anche il corpo: possono presentarsi dolori al torace, capogiri, emicranie. Ma, soprattutto, prende di mira la mente: queste persone possono essere preda di rabbia improvvisa, depressione, ansia, irritabilità. Tra loro c’è chi non dorme più, chi lo fa solo con una pistola sotto il cuscino, chi salta ad ogni rumore improvviso, chi appena chiude gli occhi rivede le immagini di stupri e violenze, ed è facile preda di attacchi di panico.
» LA LOTTA DI SELENA
Nel 2018 Selena Scola, ex moderatrice, ha fatto causa a Facebook, accusando il colosso di non averla tutelata dal trauma derivante dal dover vedere certe tipologie di immagini, come violenze e abusi sui minori. Selena parlava di una “esposizione costante e non mitigata a immagini altamente tossiche ed estremamente inquietanti sul luogo di lavoro”. La sua denuncia non è rimasta isolata, si è trasformata in una class action e, nel maggio 2020, ha portato ad una clamorosa svolta: Facebook ha accettato di pagare 52 milioni di dollari ai moderatori che hanno sviluppato disturbi mentali a causa della loro attività.
» SVOLTA STORICA
Si stima che, ogni dipendente, riceverà 5mila dollari per le cure a cui deve sottoporsi. E non solo. Zuckerberg si è impegnato anche ad introdurre misure per alleviare lo stress dei moderatori. Eccone alcune: tutti i video possono essere guardati in bianco e nero, e con il muto, al fine di ridurre il coinvolgimento emotivo. I moderatori hanno accesso settimanale a un mental coach, che ne monitori il comportamento e, in caso di allarme rosso, è garantito loro un consulto psicologico nel giro di 24 ore.
© Riproduzione riservata