Cosa sappiamo davvero della moderazione dei contenuti di Facebook?

    0
    86
    cosa-sappiamo-davvero-della-moderazione-dei-contenuti-di-facebook?

    La rimozione di contenuti su Gaza e Israele ci riporta al nocciolo della questione: la moderazione online è un’attività sotto gli occhi di tutti, eppure è ancora una delle meno conosciute del web

    Mentre le bombe cadono su Gaza, molti contenuti che mostrano o commentano la pesante ricaduta della crisi israelo-palestinese spariscono dai social network. “Facebook e Twitter stanno sistematicamente silenziando gli utenti che protestano e documentano gli sgomberi di famiglie palestinesi dalle loro case a Gerusalemme”, denunciano in una lettera aperta circa trenta organizzazioni. È vero? Se sì, chi è stato? E soprattutto perché? Domande che non hanno una risposta secca. Alle quali, anzi, è difficile rispondere. A darla non è certo il nuovo rapporto sulla trasparenza di Facebook uscito questa settimana, in cui l’azienda fa come ogni trimestre il punto su quanti materiali non conformi alle sue policy ha rimosso. I numeri, spesso roboanti, da soli non bastano a spiegare la complessità e l’impatto di processi su cui abbiamo una sola certezza: che non ne sappiamo praticamente nulla. La moderazione dei contenuti online è un’attività sotto gli occhi di chiunque, eppure una delle meno conosciute del web.

    Mai visto niente del genere. Stanno attivamente sopprimendo la narrativa dei palestinesi o di coloro che stanno raccontando questi crimini di guerra”, ha detto l’attivista per i diritti umani Marwa Fatafta ad Al-jazeera. Che se ne condividano i toni o meno, qualcosa sta succedendo. Da Instagram, per esempio, si sono scusati per aver rimosso “erroneamente” centinaia di post filo-palestinesi. Gli esempi specifici potrebbero essere molti ma, di nuovo, da soli non bastano a chiarire la situazione. “Anche di fronte a casi apparentemente così eclatanti non bisogna correre a conclusioni affrettate”. Jacopo Franchi ha scritto Gli obsoleti (Agenzia X), il primo libro in italiano sui moderatori di contenuti online. «Non sappiamo quanti post sono stati o saranno ripristinati, né conosciamo ancora con esattezza i motivi per cui sono stati censurati dai moderatori». In alcuni casi potrebbero essere state decisioni corrette. Del resto, senza nulla togliere alla gravità della situazione in Palestina, anche la denuncia della censura è uno strumento di sensibilizzazione o di propaganda, e per affrontare il tema della moderazione dei contenuti dobbiamo andare oltre.

    Più interessante è che, proprio durante la presentazione del suo Community Standards Enforcement Report, Facebook abbia dichiarato di aver messo in piedi una task force dedicata alla crisi israelo-palestinese 24 ore su 24, 7 giorni su 7. Non solo: come ha svelato il portale di giornalismo investigativo The Intercept, la piattaforma si è recentemente data delle nuove regole interne relative al termine “sionismo” con l’obiettivo di arginarne l’utilizzo discriminatorio come sinonimo di “ebraismo”. L’obiettivo, come sempre, è tutelare la community, ma di fatto un’azienda si sta prendendo la responsabilità di definire criteri interpretativi nell’ambito di un dibattito secolare. Il vero tema, allora, non è quanti e quali contenuti sono stati cancellati, ma come scaturisce la decisione di farlo.

    Ripercorriamo il processo che porta alla rimozione. Tutto comincia con un contenuto problematico che circola sulla piattaforma. Un utente o un software lo visualizzano e si accorgono che qualcosa non va. A questo punto inviano una segnalazione con lo scopo di avvisare la piattaforma stessa della problematicità di quel contenuto (per l’utente è facoltativo e gratuito). La segnalazione viene messa in coda e smistata da un algoritmo in base a una scala di priorità. Arrivato il suo turno, un moderatore la prende in carico e decide che cosa fare in base alle linee guida della piattaforma. “Questo è quello che sappiamo: niente di più, niente di meno”, ci dice Jacopo Franchi. “Le lamentele che ora stanno circolando in riferimento all’escalation israelo-palestinese sono l’ennesimo sintomo di debolezze storiche del sistema di moderazione”.

    La prima debolezza” – prosegue Franchi – “è l’impossibilità di sapere se la rimozione di un contenuto sia stata decisa da una persona o da un software, e c’è una bella differenza. La seconda sta nell’origine della decisione: un utente potrebbe segnalare un contenuto per denunciarlo in quanto effettivamente lesivo, ma anche per danneggiare chi ha pubblicato quel contenuto, a prescindere dal messaggio che porta con sé. La terza debolezza è l’assenza di garanzie: se mandi una segnalazione o, perché no, fai ricorso dopo la rimozione di un tuo post, non sai mai davvero se succederà qualcosa”. La moderazione insomma, per quanto capillare, si sviluppa a macchia di leopardo, ha esiti incerti ed è completamente spersonalizzata. Queste però solo soltanto le criticità più superficiali.

    La questione a monte è proprio che qualcuno decide. “In base a che cosa” – domanda Franchi – “una piattaforma stabilisce di cancellare contenuti che, soprattutto in uno scenario di guerra, potrebbero essere notiziabili o comunque rilevanti a prescindere?”. Vale per i software e vale ancora di più per i moderatori in carne e ossa, che possiamo considerare più intelligenti o comunque più edotti. “Non si sa quali competenze abbiano per stabilire cosa è giusto e cosa no rispetto a una situazione intricata come quella mediorientale. Sono forse storici? Teologi? Esperti di geopolitica e relazioni internazionali? Ci piacerebbe saperlo”.

    Per quanto se ne sa, i moderatori sono il più delle volte gig worker non specializzati, che a causa dello stress psicologico finiscono per essere soggetti a un rapido turnover: in genere resistono pochi mesi e poi cambiano lavoro, come nuove testimonianze ascoltate dal parlamento irlandese hanno confermato di recente. Se così fosse, a maggior ragione sarebbe interessante sapere quali strumenti utilizzano per svolgere il loro lavoro. “Quale metodo seguono per verificare la veridicità di una fonte e decidere se una notizia è falsa o meno? E siamo sicuri che dispongano di tempo a sufficienza e siano abbastanza lucidi per farlo?”, si chiede Jacopo Franchi. “Come dimostrano gli stessi report di Facebook sono numerosi i contenuti rimossi per errore e ripubblicati in seguito a un appello degli utenti. In una situazione come quella attuale il conflitto di interessi è una possibilità da non escludere: che cosa impedisce a un moderatore di censurare alcuni contenuti di opinione opposta alla propria? Da questo punto di vista il sistema di supervisione è opaco quanto quello di moderazione”. Un moderatore filoisraeliano con una scarsa etica del lavoro, per ipotizzare un caso limite, potrebbe decidere di censurare alcuni contenuti solo perché schierati per la parte opposta e non essere controllato.

    Dalle domande, ahinoi, non possono che nascere ulteriori domande, anch’esse senza risposta. La moderazione dei contenuti ha le stesse caratteristiche di quella che in fisica è conosciuta come materia oscura: è intorno a noi, condiziona la nostra esistenza, ma non la vediamo e facciamo addirittura fatica a concepirne le caratteristiche. Il motivo, come si legge ne Gli obsoleti, è che per anni “le grandi aziende tecnologiche hanno negato la stessa esistenza dei moderatori. Solo le inchieste pionieristiche di alcuni giornalisti e ricercatori hanno permesso di scoprire l’altro lato di questa presunta automazione digitale di massa: migliaia di lavoratori assunti con contratti temporanei e in alcuni casi pagati a cottimo, troppo numerosi e troppo importanti per poter essere svelati fin da subito agli utenti e ai mercati”. I cosiddetti report sulla trasparenza partono dal presupposto che i moderatori esistono, ma contribuiscono solo in parte a chiarire come stanno le cose, tanto che i risultati forniti ogni trimestre non fanno nemmeno più notizia come un tempo.

    Ogni trimestre sappiamo che i contenuti cancellati sono milioni, ma niente di più. Stavolta, solo su Facebook, quasi 9 milioni rimossi per harrassment e oltre 25 milioni per hate speech. Non si sa però se sono stati segnalati da umani o da un’intelligenza artificiale. ”Il presupposto di quei report è che dobbiamo fidarci ciecamente di loro”, aggiunge Franchi. “Nessuno può verificare i numeri che espongono, ma soprattutto non c’è un solo esempio concreto. Al pubblico non è dato sapere che cosa effettivamente le varie piattaforme – vale per Facebook come per qualunque altra – intendano per misinformazione, contenuto d’odio, contenuto pornografico. È come se si facessero un’autocertificazione”.

    Proprio durante la conferenza stampa di presentazione del suo ultimo report, Facebook ha dichiarato che coinvolgerà la società di consulenza Ernst & Young per un audit indipendente sull’accuratezza delle metriche pubblicate. Per quanto sia un una notizia, non è ancora sufficiente: si guarda ai criteri di misurazione ma non all’oggetto delle misure, ovvero al funzionamento della moderazione. “Al di là dei numeri, nei report che circolano e nella narrazione generale sulla moderazione di contenuti, mancano del tutto le persone. Gli utenti che segnalano i contenuti, quelli che li hanno pubblicati e ovviamente i moderatori non hanno un volto”, aggiunge Franchi. “È come se i contenuti rimossi fossero considerati dei virus che continuano ad essere uccisi e a riprodursi, senza fare distinzioni e senza approfondire realmente come avviene questo processo”. 

    Il dibattito sulla rimozione massiva dei post filo-palestinesi e, paradossalmente, l’uscita del nuovo Community Standards Enforcement Report di Facebook non fanno anche confermare quanta poca trasparenza ci sia in questa storia. Ce lo siamo detti fin dal principio: molte domande, poche risposte. Il punto è che sarebbe ora di cercarle, che le istituzioni impongano una trasparenza vera riguardo alla moderazione di contenuti, che si stabilisca chi è effettivamente nelle condizioni di decidere della vita di un contenuto che può avere un’impatto sulla collettività. Potrebbe far gioco anche alle piattaforme come Facebook, che a fronte di una cessione di potere decisionale non si troverebbero nelle condizioni di essere continuamente attaccate per ciò che deve e non deve essere visibile al loro interno. Non è detto però che faccia gioco alla politica.

    Forse, oltre alla scarsa consapevolezza e all’attendismo” – conclude Franchi – “c’è un problema di lasseiz-faire, che probabilmente ha anche a che fare con l’enorme quantità e complessità dei contenuti da gestire”. È comodo lasciare che siano aziende private (che sono certamente più efficienti da un punto di vista tecnologico e operativo) a buttare lo sporco sotto il tappeto e, nei fatti, delegare tutto a loro, salvo poi attaccarle per il mancato rispetto di regole ancora inesistenti, che pochi si sono preoccupati di dare. La strada è lunga e, se non ci muoviamo, rischia di essere sempre più in salita.

    Potrebbe interessarti anche