Chi sono i moderatori dei contenuti e come funziona la censura nell’era dei social media.
Sappiamo che esistono, ma nessuno può comunicare direttamente con loro. Lavorano per i social, ma senza esserne considerati dipendenti a tutti gli effetti. Sono stati oggetto di molteplici inchieste e ricerche accademiche (l’ultima, illuminante, della docente Sarah T. Roberts, che ha raccolto per anni le loro testimonianze) ma senza che il loro nome potesse essere reso noto, in virtù di rigidi accordi di riservatezza che impediscono loro di rivelare dettagli sensibili sul proprio lavoro con i giornalisti o i ricercatori. Lo scorso mese, tuttavia, hanno ottenuto la loro prima importante vittoria: una promessa di risarcimento di 52 milioni di dollari per danni psicologici permanenti dovuti all’esposizione a un numero pressoché incalcolabile di contenuti traumatici.
Perfino la loro qualifica varia da azienda ad azienda, da piattaforma a piattaforma, per scoraggiare coloro che vorrebbero identificarli (per un’intervista? Per una richiesta di chiarimenti?). Per Facebook sono dei “Community Manager”, per Google sono “Contractors”, per le aziende che si incaricano di assumerli in outsourcing sono dei “Legal Removals Associate”. Per tutti noi, che siamo soggetti al loro giudizio anche quando non abbiamo fatto nulla di male, che sappiamo della loro esistenza ma non possiamo distinguerli dall’algoritmo per cui operano, sono i “moderatori di contenuti”.
Oltre centomila persone in tutto il mondo, secondo una stima conservativa, dotate di un potere inaudito di sorveglianza e censura su ciò che viene pubblicato in rete.
© Agnès Dherbeys / MYOP / LUZ
Quando i moderatori non ci sono: l’esempio del Covid19
I moderatori sono persone comuni, prive di particolari competenze editoriali o specialistiche, assunte con contratti temporanei e per lo più in outsourcing da Facebook, Twitter, YouTube o TikTok per revisionare le segnalazioni di contenuti sospetti inviate quotidianamente dai loro utenti, o gli avvertimenti dei software di riconoscimento automatico di immagini e video “vietati” dalle policy.
Il loro compito è quello di ricevere le segnalazioni, revisionare video, immagini, post, audio, articoli, pubblicità, messaggi, e decidere nell’arco di pochi secondi o pochi minuti se rimuovere, limitare la visibilità o mantenere online i contenuti segnalati. Spesso in maniera affrettata, spesso avendo a che fare con quanto di peggio l’umanità può condividere in rete.
Per chi come il sottoscritto studia da anni l’argomento, attraverso le sempre più numerose fonti disponibili sui moderatori di contenuti (dai “Facebook Files” del Guardian alle inchieste a puntate di Casey Newton su The Verge), la pandemia di Coronavirus ha fornito una dimostrazione definitiva della loro importanza nel contesto dell’informazione online globale. Tra il 16 e il 18 marzo 2020 migliaia di articoli sul Covid19 sono stati rimossi da Facebook senza ragione: come ricostruito a posteriori, l’assenza dei moderatori dagli uffici per ragioni di sicurezza sanitaria ha costretto l’azienda di Menlo Park ad affidarsi a strumenti di moderazione automatici, rivelatisi fin da subito inadeguati allo scopo. Come riportato dalla BBC Facebook ha quindi imposto ai moderatori di riprendere a lavorare da casa, nell’impossibilità di fare affidamento sulla sola tecnologia.
© Christian Beutler / KEYSTONE / LUZ
I moderatori sono i guardiani degli algoritmi
Se esiste un limite alle attuali conoscenze sui moderatori di contenuti questo si trova nella scarsa capacità di giornalisti e ricercatori di indagare sullo stretto legame esistente tra moderatori e algoritmi di selezione dei contenuti stessi. I moderatori non sarebbero diventati così numerosi e importanti, infatti, se gli algoritmi non fossero diventati così potenti e pervasivi: sono gli algoritmi che distribuiscono e rendono virale ciò che i moderatori devono revisionare, in una corsa senza fine tra un algoritmo che seleziona i contenuti senza essere in grado di comprenderli e un essere umano che deve avere il tempo di comprenderli prima di poterli selezionare (per rimuovere il contenuto segnalato, o per decidere di mantenerlo online). Il tutto, infine, organizzato da ulteriori algoritmi che compongono la coda di revisione e sorvegliano le performance dei singoli moderatori.
Gli esempi di questa continua rincorsa tra ”uomini” e “macchine” sono innumerevoli: l’ultimo, in ordine di tempo, è stato il video cospirazionista “Plandemic”, secondo il quale il Coronavirus sarebbe stato creato per arricchire i produttori di vaccini, e che ha raggiunto oltre otto milioni di visualizzazioni prima di essere rimosso da YouTube. Mancanza di moderatori? Più probabilmente mancanza di tempo: il processo di moderazione attuale impone ai lavoratori incaricati di revisionare migliaia di contenuti in maniera superficiale, analizzando solo pochi “frame” dei video segnalati, in ragione dell’estrema rapidità con cui questi ultimi possono diventare virali. Il video “Plandemic”, con i suoi 26 minuti di intervista apparentemente “professionale”, ha probabilmente tratto in inganno più di un moderatore prima di essere rimosso quando ormai era troppo tardi.
Che mondo sarebbe, senza i moderatori?
Parlare di moderatori di contenuti significa oggi smentire la narrativa predominante delle nuove tecnologie. Per anni, infatti, abbiamo associato Google e Facebook all’immagine di aziende in grado di ottenere profitti record grazie a un’evoluta tecnologia di automazione della selezione editoriale, realizzata attraverso una ridottissima forza lavoro specializzata di poche migliaia di dipendenti. Il numero dei moderatori di contenuti, tuttavia, smentisce clamorosamente questa narrazione: tanto più le piattaforme diventano popolari, tanto più esse hanno bisogno di un numero crescente di manodopera di riserva, non specializzata, per ripulire i propri “feed” algoritmici da quei contenuti che potrebbero allontanare un numero incalcolabile di utenti (e, soprattutto, inserzionisti).
Non esiste un limite, oggi, ai poteri dei moderatori.
Così come abbiamo il diritto di poter segnalare qualsiasi contenuto pubblicato da qualsiasi persona al mondo, al tempo stesso siamo tutti esposti alla possibile revisione di un essere umano: i nostri messaggi, le nostre “stories”, i nostri post possono essere controllati e rimossi in seguito a una segnalazione anonima proprio da parte di coloro che ritenevamo essere “follower” insospettabili. La recente decisione di Twitter di “censurare” (parzialmente) alcuni tweet di Trump per “incitamento alla violenza” è la dimostrazione più evidente di come i poteri di intervento dei moderatori possano essere tanto pervasivi quanto arbitrari: nemmeno il presidente degli USA può essere sicuro di non essere, prima o poi, soggetto a un intervento di moderazione dopo essere stato segnalato per anni senza alcun esito.
© Isabella De Maddalena / LUZ
Dalla moderazione centralizzata alla moderazione decentralizzata
Indipendentemente da come finirà lo scontro fra Trump e Twitter, oggi è innegabile che le piattaforme digitali agiscano e si comportino da editori veri e propri. Per riprendere una felice espressione di Tarleton Gillespie, autore di uno dei primi libri sui moderatori, le piattaforme si sono arrogate “il diritto ma non il dovere” di selezionare i contenuti che vengono pubblicati al loro interno: sia tramite gli algoritmi, sia attraverso un esercito di moderatori che hanno il potere di cancellare video, account, post sponsorizzati e perfino di aggiungere un messaggio di avviso sui tweet di Trump o della stessa Casa Bianca senza alcuna coerenza d’insieme. Per Twitter è facile oggi impersonare il ruolo di Davide contro Golia, ignorando la propria responsabilità nell’aver diffuso per anni i tweet di Trump a causa del proprio, fallace algoritmo (e aver sistematicamente ignorato le segnalazioni degli utenti sugli stessi tweet, oggi censurati).
Il vero pericolo, oggi, è che le piattaforme digitali possano accrescere ulteriormente i propri poteri di censura, ancor più se sottoposte alle pressioni dei singoli governi.
Se i social hanno dato ai propri utenti il diritto di potersi esprimere liberamente, nondimeno hanno progressivamente concentrato il potere di decidere ciò che è giusto o sbagliato nelle mani di poche migliaia di persone: un potere a cui oggi ambiscono politici, governi e dittatori di tutto il mondo.
Redistribuire questo potere, rendere le persone e le community in grado di moderarsi vicendevolmente, potrebbe essere una soluzione tanto folle quanto l’unica sensata in questo momento: dare a tutti gli utenti possibilità di censurare qualunque altra persona, sia esso un “amico” o un presidente, potrebbe portare sia alla mutua distruzione assicurata, sia allo sviluppo di nuove forme di convivenza online di opinioni e culture tra loro inevitabilmente diverse. Pensiamoci, prima che sia troppo tardi.
Foto di copertina © Benno Grieshaber / VISUM / LUZ