Colpirne uno - Singola | Storie di scenari e orizzonti
Facebook testify Zuckerberg
Facebook testify Zuckerberg | Copyright: Stock Catalog / Flickr

Colpirne uno

Dentro la "prigione" dei social media: come i moderatori educano gli utenti.

Facebook testify Zuckerberg | Copyright: Stock Catalog / Flickr
Jacopo Franchi

è autore di Solitudini Connesse. Sprofondare nei social media (2019, Agenzia X) e Gli Obsoleti. Il lavoro impossibile dei moderatori di contenuti (2021, Agenzia X). Cura il blog "Umanesimo Digitale".

Profili sospesi, commenti disabilitati, dirette streaming inibite: ancor prima della censura vera e propria, esiste una zona grigia in cui gli utenti dei social media vengono temporaneamente “imprigionati” dai moderatori di contenuti secondo procedure tutt’altro che trasparenti e scelte arbitrarie contro cui è difficile far ricorso.

C'è l'artista che vorrebbe pubblicare le foto dei tattoo realizzati per le donne che hanno fatto un intervento di mastectomia; c'è quello che ha condiviso un post in cui dichiarava di essersi sentito più sicuro in Marocco rispetto agli Stati Uniti, dove ci sono un sacco di "pazzi uomini bianchi che uccidono le persone"; c'è l'insegnante di storia che ha condiviso una foto d'archivio di ufficiali nazisti di fronte alla torre Eiffel per motivi didattici; c’è lo studente che si è lamentato pubblicamente dei debiti universitari: accumunati, tutti, da provvedimenti di rimozione e limitazioni temporanee da parte di Facebook sui loro account social personali. Queste e altre sono le storie raccolte dal Wall Street Journal in un lungo articolo pubblicato poche settimane fa, ultimo di una lunga serie di inchieste realizzate negli ultimi anni con l’obiettivo di dimostrare l'esistenza della cosiddetta "Facebook Jail": la "prigione" del social media dove finiscono coloro che sono stati temporaneamente limitati e penalizzati dai moderatori di contenuti.

La presunta funzione "educativa" della prigione di Facebook (e di altri social media) verso gli utenti ribelli

L'unica certezza, nella giustizia digitale, è che non esistono certezze: come ho dimostrato nel mio libro "Gli obsoleti. Il lavoro impossibile dei moderatori di contenuti" (Agenzia X Edizioni, 2021) non è possibile oggi distinguere tra un intervento di moderazione automatica e l'intervento di uno qualsiasi dei 15 mila moderatori "umani" al lavoro su Facebook, incaricati di revisionare oltre due milioni di contenuti al giorno segnalati dagli utenti e dalle intelligenze artificiali della piattaforma. Così come non è possibile distinguere tra un intervento manuale e uno automatico, non è possibile rivolgersi direttamente ai moderatori che hanno preso la decisione di limitare o censurare i nostri account o contenuti per evitare di finire nella “prigione” del social media: al più, dopo aver perso la possibilità di accedere al proprio account o a una serie di funzionalità di base essenziali per un periodo di tempo che può variare da pochi giorni a diverse settimane, è possibile inoltrare un appello di revisione alla piattaforma stessa, senza alcuna certezza che il proprio caso venga trattato in tempi sufficientemente brevi e da un moderatore diverso rispetto a quello “colpevole” di errore.

In questo contesto, traspare in controluce la presunta funzione educativa che la prigione dei social media dovrebbe avere verso gli utenti colpevoli di aver violato una qualsiasi regola di policy delle piattaforme: regole che, secondo il Wall Street Journal, hanno superato nel caso di Facebook oltre 30 fra categorie e sottocategorie, senza che gli utenti fossero puntualmente aggiornati in merito alle modifiche e senza che fosse prevista alcuna reale attività di informazione ed educazione in proposito. Come si legge anche in un’inchiesta di The Verge, la moderazione di contenuti segue sempre la logica del “boost first, moderate later”, secondo cui ogni contenuto viene reso visibile dall’algoritmo ed eventualmente rimosso solo a posteriori dai moderatori di contenuti: in questo senso, l’ingresso temporaneo nella “prigione” di Facebook può essere visto come un malcelato tentativo di educare gli utenti ad apprendere per tentativi ed errori le regole di policy della piattaforma, dopo aver ricevuto punizioni commisurate agli errori commessi. Anche quando non è stato compiuto nessun errore, anche quando dal proprio account digitale dipendono relazioni professionali, interessi sociali, attività di informazione e comunicazione di rilevanza privata e pubblica.

Zuckerberg in una conferenza stampa di Facebook

Zuckerberg in una conferenza stampa di Facebook | Robert Scoble / Flickr

Il tasso di errore dei moderatori di contenuti è sconosciuto, ma potrebbe essere più elevato del previsto

Se sulla carta la “prigione” dei social media sembra essere un accettabile compromesso tra la censura definitiva e la mancanza di tutele di fronte a coloro che potrebbero essere danneggiati dalla pubblicazione di contenuti vietati o inappropriati, le testimonianze raccontano una realtà ben diversa. Ad oggi, non vi è alcuna certezza di non poter finire in prigione: vuoi per un errore di interpretazione di moderatori costretti a valutare contenuti complessi in pochi secondi di tempo e in lingue diverse dalla propria, vuoi per la mancata consapevolezza degli ultimi aggiornamenti di policy da parte degli utenti, nessuna persona può ritenersi immune di fronte alla prospettiva di perdere per alcuni giorni o per alcune settimane l’accesso alla propria utenza digitale, al proprio archivio di contenuti, alla possibilità di interagire e condividere informazioni importanti, senza aver commesso alcunché di illegale. Se le testimonianze del Wall Street Journal sembrano essere poco numerose per fare notizia, nondimeno è significativo il fatto che Facebook non riveli il numero degli account sottoposti quotidianamente a limitazioni: la popolazione carceraria dei social media potrebbe oggi equivalere a migliaia di individui “imprigionati” inutilmente e senza alcun giusto processo.

Se ancora oggi le piattaforme rifiutano di condividere con l’esterno dati accurati e trasparenti sugli errori commessi dal proprio apparato di moderazione, sia esso composto da uomini o macchine, nondimeno qualche numero è possibile ricavarlo leggendo in controluce i “transparency report” pubblicati dalle piattaforme stesse come Facebook. Secondo questo documento, pubblicato con cadenza semestrale, dove non appare un solo esempio concreto di contenuti rimossi ma solo liste infinite di grafici e numeri, sarebbero 70 mila i contenuti rimossi e in seguito ripristinati da Facebook nel secondo semestre 2020 per quanto riguarda i soli contenuti “d’odio”: 384 errori di moderazione commessi ogni giorno, quindi, che hanno portato alla limitazione, sospensione o penalizzazione di account, pagine o gruppi senza alcuna ragione apparente. Errori per i quali non è prevista alcuna forma di compensazione né di risarcimento, e che tuttavia potrebbero aver danneggiato o compromesso seriamente l’attività digitale di persone politicamente esposte, giornalisti, attivisti, o semplici utenti che utilizzano i social media anche per motivi di lavoro.

Non è possibile, ad oggi, conoscere dall’esterno quante e quali persone siano finite nella prigione social

Se non vi è alcuna trasparenza circa le modalità con cui i moderatori intervengono per limitare e penalizzare gli account degli utenti accusati di errore, se non è prevista alcuna forma di compensazione per coloro che sono stati colpiti da provvedimenti ingiusti, se non sono note né le tempistiche né le persone incaricate di revisionare gli appelli degli utenti e di decidere per la loro successiva “liberazione”, l’intero sistema carcerario costruito dai social media perde qualsiasi ragion d’essere man mano che nuove testimonianze di “prigionieri” incolpevoli vengono alla luce: storie spesso troppo poco rilevanti per poter conquistarsi il diritto di apparire sui giornali, e impossibilitate a manifestarsi su quelle stesse piattaforme che potrebbero censurarle per sempre, le testimonianze degli attuali “ex-carcerati” delle piattaforme digitali servono oggi a ricostruire i contorni di un sistema tuttora ambiguo e pericoloso per la libertà di espressione. Pericoloso perché non solo non prevede alcuna tutela e garanzia per gli accusati, ma anche perché impedisce ai giudici e agli inquirenti di indagare approfonditamente su ogni singolo caso di censura arbitraria e ingiustificata.

Non ha ricevuto la dovuta attenzione, in questo senso, la dichiarazione di Mark Zuckerberg nella sua deposizione al senato nel novembre 2020 secondo cui non esisterebbe, ad oggi, alcun archivio interno al social media dove vengono memorizzati i provvedimenti di censura e penalizzazione assunti dai moderatori di contenuti nei confronti di determinati utenti sospettati di aver infranto le regole. Non è possibile, quindi, neppure a posteriori e attraverso il ricorso alla giustizia civile ricostruire la lunga catena di errori, mancanze e superficialità che potrebbe portare persone insospettabili a vedersi limitare la propria presenza digitale: dettaglio nondimeno assai curioso, se si pensa che uno dei punti di forza dei social media si basa sulla capacità di questi ultimi di tenere traccia di qualsiasi grande o piccolo evento che prenda forma sulle loro piattaforme, al fine di ricavarne dati utili da sfruttare per attività di advertising online. Se si dovesse credere alle parole di Zuckerberg, Facebook sarebbe da sempre tanto attento a sorvegliare e tracciare il comportamento virtuoso dei propri utenti quanto indifferente circa il tracciamento dei comportamenti erronei di questi ultimi.

I tribunali risarciscono gli utenti ingiustamente “incarcerati” o “eliminati” dai moderatori

È proprio su questo punto, tuttavia, che gli apparentemente inestricabili nodi vengono al pettine: una sentenza del 10 marzo 2021 del Tribunale di Bologna ha imposto a Facebook Ireland Limited di risarcire i danni subiti da un utente le cui pagine social sono state rimosse da un intervento di moderazione. La Seconda sezione civile del tribunale bolognese, in particolare, ha contestato a Facebook non solo l’atto di censura in quanto tale, quanto la distruzione della documentazione interna relativa all’intervento dei moderatori di contenuti. Distruzione che, secondo la linea di difesa del social media, avrebbe reso impossibile ricostruire le motivazioni del processo che ha portato alla censura finale: secondo la sentenza, la rimozione arbitraria di una rete di relazioni e “fan” costruita in dieci anni è “suscettibile di cagionare un danno grave, anche irreparabile”, da risarcire con una somma di 10.000 euro per il profilo e di 2.000 euro per ciascuna delle due pagine rimosse dal social media. Se da un lato questa sentenza ha valutato il danno prodotto da un intervento di censura definitivo, nondimeno le motivazioni dell’accusa e il risarcimento stabilito dalla corte sollevano una questione finora rimasta in secondo piano: a quanto ammontano i danni per coloro che sono stati imprigionati per uno, dieci o cento giorni dal social? Difficile stabilirlo, finché i “carcerati” si faranno condizionare dall’idea di non poter fare nulla contro un sistema così spietato e impersonale.

Da notare, infine, come in occasione della sentenza di Bologna il tribunale abbia riconosciuto nella “vittima” un “consumatore” a tutti gli effetti, applicando in questo caso le norme previste per il codice dei consumatori. Non esistono, infatti, leggi specifiche riguardanti la regolamentazione della moderazione di contenuti nel nostro Paese (a differenza della Germania, dove la legge nota come “NetzDg” impone alle piattaforme di moderare contenuti d’odio e razzismo entro un limite di tempo definito), e l’incertezza attuale potrebbe perdurare per molti anni ancora in mancanza di qualsiasi trasparenza sui processi di moderazione, e in mancanza di una quantificazione esatta del valore attribuito ai dati che gli utenti hanno condiviso con le piattaforme stesse. La sentenza di Bologna, tuttavia, sembra affermare un principio fondamentale in tal senso, riconoscendo che “l’esclusione dal social network […] è suscettibile di cagionare un danno grave, anche irreparabile, alla vita di relazione, alla possibilità di continuare a manifestare il proprio pensiero utilizzando la rete di contatti sociali costruita sulla piattaforma e, in ultima analisi, persino alla stessa identità personale dell’utente”. In questa prospettiva, 14 mila euro di risarcimento potrebbero essere fin troppo pochi per coloro che sui social hanno costruito intere carriere e reti di relazioni globali, come i giornalisti o i politici, salvo vederle svanire di colpo per il “clic” di un anonimo, invisibile, inafferrabile moderatore di contenuti.

Hai letto:  Colpirne uno
USA - 2021
Societá
Jacopo Franchi

è autore di Solitudini Connesse. Sprofondare nei social media (2019, Agenzia X) e Gli Obsoleti. Il lavoro impossibile dei moderatori di contenuti (2021, Agenzia X). Cura il blog "Umanesimo Digitale".

Pubblicato:
01-07-2021
Ultima modifica:
01-07-2021
;