Il prezzo da pagare per “pulire” internet

In molti contesti pubblici, politici e sociali si sente spesso un ritornello che diventa periodicamente preponderante: bisognerebbe ripulire internet da tutta la spazzatura che, a vari livelli, tende ad occuparla. Se il livello di qualità della rete è decisamente variabile, realtà come Google ci restituiscono i “migliori” risultati periodicamente, confinandoci in una “bolla” in cui vediamo soltanto quello che ci piace (e non le cose come realmente stanno). I social network, del resto, non fanno nulla di diverso, facendoci decidere chi seguire, cosa guarda, chi filtrare e quali hashtag evitare di vedere. Una realtà “su misura” che potrebbe restituire un’immagine fuorviante e irrealistica del mondo che ci circonda, dato che il pericolo più grande della rete risiede forse nel fatto che illude chiunque di poter sapere e calcolare qualsiasi cosa.

Ripulire internet” da contenuti violenti, illegali e via dicendo è un’ambizione nobile e ragionevole: ma è davvero possibile pensarlo? Come stabilire un criterio unico che possa mettere d’accordo tutti? E soprattutto, come fare ad essere certi che venga ripulito solo quello che si deve, ammesso che sia possibile stabilire in modo certo cosa sia sbagliato, e non si vada nella pericolosa direzione della censura?

I due documentaristi Hans Block e Moritz Riesewieck hanno girato l’anno scorso il documentario The Cleaners, arrivato in Italia con il titolo “Quello che i social non dicono“, che si incentra proprio sulla figura dei moderatori generali dei contenuti sui social. Si tratta di misteriosi dipendenti delle più grandi società che, di fatto, non sono autorizzati a rilasciare interviste su quello che fanno (dietro firma di restrittive NDA), e non sappiamo nemmeno la loro identità. Sono i moderatori di contenuti, il vero prezzo da pagare per avere un’internet pulita – o meglio, una porzione di quello che vediamo che possa sembrare tale.

Se chiunque può scrivere ciò che vuole su una pagina web e darla in pasto a Google, e se chiunque può iscriversi ad un social network, esistono queste figure chiave nella gestione di ciò che effettivamente vediamo sulle piattaforme. Block e Riesewieck puntano il focus sul fatto che nessuno sa chi siano queste persone, e le loro domande irrisolte sono state anche oggetto anche di un talk al TEDx.

Se milioni di video ed immagini vengono caricate su internet ogni giorno, è raro che contenuti inappropriati o spaventosi finiscano effettivamente alla portata di chiunque su Facebook o Google. Se questo capita, in genere, il video o il contenuto viene segnalato e prontamente rimosso, sulla base di un criterio per cui, alla fine dei conti, gli interessi dei grandi hanno comunque la meglio e, se non diversamente specificato, la maggioranza ha sempre ragione; un criterio, quindi, democratico solo a convenienza e che mostra dei limiti evidenti, dato che la maggioranza non sempre ha ragione (la storia lo dimostra con numerosi esempi: ad esempio con interi popoli che hanno appoggiato o appoggiano tuttora dittature feroci) e sarebbe anche opportuno conoscere l’identità dei “censori” di internet, dato che hanno una responsabilità enorme e nessuno garantisce che non escludano dai feed e dai motori di ricerca anche contenuti che sarebbe stato lecito poter guardare.

Queste figure di “digital cleaner“, di fatto, ricordano per certi versi i quality rater di Google, sono decisamente ambigue e poco analizzate sui media: e per richiamare le parole del talk che ho linkato, forse dovremmo poter disporre di più possibilità al di là del classico DELETE (cancella il contenuto discutibile) o IGNORE (ignora il contenuto sconveniente). Questo perché, di fatto, sembra essere in gioco la credibilità del mezzo stesso, senza il quale ormai non riusciamo quasi neanche più a pensare. E forse qualche passo oltre, in questo ambito, andrebbe fatto.

0 voti