It En
It En

© LUZ S.r.l. Società Benefit
all rights reserved
Cookie and Privacy Policy
VAT n. 13122310157

I guardiani degli algoritmi

Chi sono i moderatori dei contenuti e come funziona la censura nell’era dei social media.

di Jacopo Franchi

Sappiamo che esistono, ma nessuno può comunicare direttamente con loro. Lavorano per i social, ma senza esserne considerati dipendenti a tutti gli effetti. Sono stati oggetto di molteplici inchieste e ricerche accademiche (l’ultima, illuminante, della docente Sarah T. Roberts, che ha raccolto per anni le loro testimonianze) ma senza che il loro nome potesse essere reso noto, in virtù di rigidi accordi di riservatezza che impediscono loro di rivelare dettagli sensibili sul proprio lavoro con i giornalisti o i ricercatori. Lo scorso mese, tuttavia, hanno ottenuto la loro prima importante vittoria: una promessa di risarcimento di 52 milioni di dollari per danni psicologici permanenti dovuti all’esposizione a un numero pressoché incalcolabile di contenuti traumatici. 

Perfino la loro qualifica varia da azienda ad azienda, da piattaforma a piattaforma, per scoraggiare coloro che vorrebbero identificarli (per un’intervista? Per una richiesta di chiarimenti?). Per Facebook sono dei “Community Manager”, per Google sono “Contractors”, per le aziende che si incaricano di assumerli in outsourcing sono dei “Legal Removals Associate”. Per tutti noi, che siamo soggetti al loro giudizio anche quando non abbiamo fatto nulla di male, che sappiamo della loro esistenza ma non possiamo distinguerli dall’algoritmo per cui operano, sono i “moderatori di contenuti”.

 

Oltre centomila persone in tutto il mondo, secondo una stima conservativa, dotate di un potere inaudito di sorveglianza e censura su ciò che viene pubblicato in rete.

 

© Agnès Dherbeys / MYOP / LUZ

 

Quando i moderatori non ci sono: l’esempio del Covid19

I moderatori sono persone comuni, prive di particolari competenze editoriali o specialistiche, assunte con contratti temporanei e per lo più in outsourcing da Facebook, Twitter, YouTube o TikTok per revisionare le segnalazioni di contenuti sospetti inviate quotidianamente dai loro utenti, o gli avvertimenti dei software di riconoscimento automatico di immagini e video “vietati” dalle policy.

 

Il loro compito è quello di ricevere le segnalazioni, revisionare  video, immagini, post, audio, articoli, pubblicità, messaggi, e decidere nell’arco di pochi secondi o pochi minuti se rimuovere, limitare la visibilità o mantenere online i contenuti segnalati. Spesso in maniera affrettata, spesso avendo a che fare con quanto di peggio l’umanità può condividere in rete.

 

Per chi come il sottoscritto studia da anni l’argomento, attraverso le sempre più numerose fonti disponibili sui moderatori di contenuti (dai “Facebook Files” del Guardian alle inchieste a puntate di Casey Newton su The Verge), la pandemia di Coronavirus ha fornito una dimostrazione definitiva della loro importanza nel contesto dell’informazione online globale. Tra il 16 e il 18 marzo 2020 migliaia di articoli sul Covid19 sono stati rimossi da Facebook senza ragione: come ricostruito a posteriori, l’assenza dei moderatori dagli uffici per ragioni di sicurezza sanitaria ha costretto l’azienda di Menlo Park ad affidarsi a strumenti di moderazione automatici, rivelatisi fin da subito inadeguati allo scopo. Come riportato dalla BBC Facebook ha quindi imposto ai moderatori di riprendere a lavorare da casa, nell’impossibilità di fare affidamento sulla sola tecnologia.

 

© Christian Beutler / KEYSTONE / LUZ

 

I moderatori sono i guardiani degli algoritmi

Se esiste un limite alle attuali conoscenze sui moderatori di contenuti questo si trova nella scarsa capacità di giornalisti e ricercatori di indagare sullo stretto legame esistente tra moderatori e algoritmi di selezione dei contenuti stessi. I moderatori non sarebbero diventati così numerosi e importanti, infatti, se gli algoritmi non fossero diventati così potenti e pervasivi: sono gli algoritmi che distribuiscono e rendono virale ciò che i moderatori devono revisionare, in una corsa senza fine tra un algoritmo che seleziona i contenuti senza essere in grado di comprenderli e un essere umano che deve avere il tempo di comprenderli prima di poterli selezionare (per rimuovere il contenuto segnalato, o per decidere di mantenerlo online). Il tutto, infine, organizzato da ulteriori algoritmi che compongono la coda di revisione e sorvegliano le performance dei singoli moderatori.

Gli esempi di questa continua rincorsa tra ”uomini” e “macchine” sono innumerevoli: l’ultimo, in ordine di tempo, è stato il video cospirazionista “Plandemic”, secondo il quale il Coronavirus sarebbe stato creato per arricchire i produttori di vaccini, e che ha raggiunto oltre otto milioni di visualizzazioni prima di essere rimosso da YouTube. Mancanza di moderatori? Più probabilmente mancanza di tempo: il processo di moderazione attuale impone ai lavoratori incaricati di revisionare migliaia di contenuti in maniera superficiale, analizzando solo pochi “frame” dei video segnalati, in ragione dell’estrema rapidità con cui questi ultimi possono diventare virali. Il video “Plandemic”, con i suoi 26 minuti di intervista apparentemente “professionale”, ha probabilmente tratto in inganno più di un moderatore prima di essere rimosso quando ormai era troppo tardi.

Che mondo sarebbe, senza i moderatori?

Parlare di moderatori di contenuti significa oggi smentire la narrativa predominante delle nuove tecnologie. Per anni, infatti, abbiamo associato Google e Facebook all’immagine di aziende in grado di ottenere profitti record grazie a un’evoluta tecnologia di automazione della selezione editoriale, realizzata attraverso una ridottissima forza lavoro specializzata di poche migliaia di dipendenti. Il numero dei moderatori di contenuti, tuttavia, smentisce clamorosamente questa narrazione: tanto più le piattaforme diventano popolari, tanto più esse hanno bisogno di un numero crescente di manodopera di riserva, non specializzata, per ripulire i propri “feed” algoritmici da quei contenuti che potrebbero allontanare un numero incalcolabile di utenti (e, soprattutto, inserzionisti).

 

Non esiste un limite, oggi, ai poteri dei moderatori.

 

Così come abbiamo il diritto di poter segnalare qualsiasi contenuto pubblicato da qualsiasi persona al mondo, al tempo stesso siamo tutti esposti alla possibile revisione di un essere umano: i nostri messaggi, le nostre “stories”, i nostri post possono essere controllati e rimossi in seguito a una segnalazione anonima proprio da parte di coloro che ritenevamo essere “follower” insospettabili. La recente decisione di Twitter di “censurare” (parzialmente) alcuni tweet di Trump per “incitamento alla violenza” è la dimostrazione più evidente di come i poteri di intervento dei moderatori possano essere tanto pervasivi quanto arbitrari: nemmeno il presidente degli USA può essere sicuro di non essere, prima o poi, soggetto a un intervento di moderazione dopo essere stato segnalato per anni senza alcun esito.

 

© Isabella De Maddalena / LUZ

 

Dalla moderazione centralizzata alla moderazione decentralizzata

Indipendentemente da come finirà lo scontro fra Trump e Twitter, oggi è innegabile che le piattaforme digitali agiscano e si comportino da editori veri e propri. Per riprendere una felice espressione di Tarleton Gillespie, autore di uno dei primi libri sui moderatori, le piattaforme si sono arrogate “il diritto ma non il dovere” di selezionare i contenuti che vengono pubblicati al loro interno: sia tramite gli algoritmi, sia attraverso un esercito di moderatori che hanno il potere di cancellare video, account, post sponsorizzati e perfino di aggiungere un messaggio di avviso sui tweet di Trump o della stessa Casa Bianca senza alcuna coerenza d’insieme. Per Twitter è facile oggi impersonare il ruolo di Davide contro Golia, ignorando la propria responsabilità nell’aver diffuso per anni i tweet di Trump a causa del proprio, fallace algoritmo (e aver sistematicamente ignorato le segnalazioni degli utenti sugli stessi tweet, oggi censurati).

Il vero pericolo, oggi, è che le piattaforme digitali possano accrescere ulteriormente i propri poteri di censura, ancor più se sottoposte alle pressioni dei singoli governi.

 

Se i social hanno dato ai propri utenti il diritto di potersi esprimere liberamente, nondimeno hanno progressivamente concentrato il potere di decidere ciò che è giusto o sbagliato nelle mani di poche migliaia di persone: un potere a cui oggi ambiscono politici, governi e dittatori di tutto il mondo.

 

Redistribuire questo potere, rendere le persone e le community in grado di moderarsi vicendevolmente, potrebbe essere una soluzione tanto folle quanto l’unica sensata in questo momento: dare a tutti gli utenti  possibilità di censurare qualunque altra persona, sia esso un “amico” o un presidente, potrebbe portare sia alla mutua distruzione assicurata, sia allo sviluppo di nuove forme di convivenza online di opinioni e culture tra loro inevitabilmente diverse. Pensiamoci, prima che sia troppo tardi. 

 

 

Foto di copertina © Benno Grieshaber / VISUM / LUZ

Nella stessa categoria: Internet

Iscriviti alla nostra newsletter

* campi obbligatori

Scegli le modalità con cui vorresti restare in contatto con Luz:

Puoi disiscriverti in qualunque momento cliccando il link nel footer delle nostre email. Per informazioni sulle nostre politiche di privacy, prego visitate il nostro sito.

Questo sito utilizza Mailchimp come piattaforma di marketing. Cliccando di seguito per iscriversi si accetta il trasferimento delle informazioni a Mailchimp. Scopri di più sulla privacy di Mailchimp qui.

Analytics

Questo sito usa Google Analytics per raccogliere dati sull'utilizzo, in modo da offrire un'esperienza utente sempre migliore. Cliccando su "accetto", permetti di abilitare il tracciamento delle tue interazioni su questo sito web. Potrai revocare il consenso in qualsiasi momento. Troverai l'impostazione dedicata nel pié di pagina di questo sito. Per saperne di più, leggi la nostra privacy e cookie policy

Cookie tecnici

Tutti gli altri cookie presenti sul sito sono di natura tecnica, e sono necessari al corretto funzionamento del sito web.

Altri cookie di terze parti

I cookie di terze parti possono essere bloccati dal browser dell'utente seguendo la procedura descritta nelle privacy e cookie policy.