L’anno che verrà
31 Dicembre 2020La censura su Facebook diventa aggressiva.
In questi giorni migliaia di utenti Facebook stanno subendo pesanti limitazioni sui contenuti che possono pubblicare. In diversi casi i post vengono rimossi e l'account viene disabilitato per 24 o più ore.
Facebook è innegabilmente un veicolo che consente la rapida diffusione di informazioni ed idee capaci di influenzare l'opinione pubblica. Questo canale di comunicazione permette alle informazioni di circolare molto velocemente e di essere "rilanciate" in rete da talmente tante persone da influenzare seriamente il pensiero, ed a volte le azioni di milioni di persone.
Questo potere, una volta esclusivamente utilizzato dalla stampa ufficiale, adesso è in mano di chiunque, e sempre più spesso viene sfruttato da organizzazioni poco scrupolose per condizionare le popolazioni.
Esistono gli stupidi che scrivono cose stupide, ma nel mirino del nuovo algoritmo censorio di Facebook c'è anche chi stupido non è, ed è capace di confezionare delle vere e proprie campagne mediatiche per ottenere consenso politico, o di incitazione all'odio.
Le ragioni della censura
Questo fenomeno, giunto in Italia da poco, è già conosciuto negli Stati Uniti. Il primo illustre "bannato" è stato l'ex presidente Donald Trump, a seguito di suoi post che incitavano alla violenza e che sarebbero responsabili dell'assalto alla sede del Congresso americano causando 4 morti e numerosi feriti, oltre alla violazione fisica del cuore dell'attività politica USA.
Analizzare le ragioni che spingono qualcuno a pubblicare contenuti di questo genere non è lo scopo di questo articolo. Le ragioni possono andare dal click baiting (tecnica di adescamento per portare utenti su un sito Web al fine di aumentarne le rendite pubblicitarie) fino a vere e proprie campagne mediatiche con lo scopo di spostare il consenso politico.
Il Congresso Americano convoca spesso i portavoce di Google e Facebook per indagare sul loro operato, e questo è sicuramente un fastidio per chi vive quotidianamente sulla sottile linea che separa l'etica ed il guadagno.
Negli ultimi periodi l'attenzione è passata dall'argomento "privacy degli utenti" a quello molto più sofisticato della influenza che i contenuti social hanno sulle scelte delle persone.
L'algoritmo di Facebook, per massimizzare il coinvolgimento degli utenti, "suggerisce" la maggior parte dei contenuti, controllando di fatto le informazioni che riceviamo, riuscendo quindi ad influenzare l'opinione degli utenti.
Questo sistema di "raccomandazioni" e "suggerimenti" è stato ampiamente criticato per il fatto di esasperare la disinformazione ed alimentare la "polarizzazione politica", il razzismo e l'estremismo violento.
La soluzione dolce
Già da tempo è possibile segnalare al social network la presenza di contenuti non graditi. Il fatto di "non gradire" un contenuto fa in modo che la nostra personale visione delle informazioni che scorrono sulla bacheca principale sia moderata in base alle nostre preferenze.
Segnalare un contenuto non implica che quel contenuto non sia un buon contenuto, ma semplicemente che non lo sia per noi, a nostro insindacabile giudizio. Questa tecnica consente anche di rimuovere un contenuto dal social, se ottiene un numero sufficiente di segnalazioni. In quel caso è possibile anche segnalare un utente, ed in alcuni casi l'utente riceve un blocco e non può più usare Facebook per un periodo di tempo. Nel "caso Trump" questo periodo è di due anni.
Finché la "moderazione" è stata affidata agli utenti sono sorti gruppi armati di mouse capaci di penalizzare contenuti ed utenti, anche in maniera ingiusta. Questa "influenza" che era possibile ottenere con le segnalazioni è stato usata in ambito politico e commerciale senza scrupoli.
La Corte Suprema americana però ha sempre fatto presente a Mark Zuckerberg che questo sistema non avrebbe scagionato Facebook dalle responsabilità legate ai contenuti, per questo motivo è nato un "consiglio di sorveglianza" interno all'azienda per analizzare i contenuti e prendere le decisioni più delicate.
La soluzione drastica
L'algoritmo di Facebook ha lo scopo di aggregare utenti sugli interessi in comune, di filtrare i contenuti in modo da far leggere sempre pensieri in linea con i propri, e questo per il semplice fatto che così si crea dipendenza alla piattaforma.
Circa 2.74 miliardi di persone pubblicano la media di 1,55 post al giorno, il che rende praticamente impossibile moderare manualmente ogni contenuto.
Le azioni del "consiglio di sorveglianza" e dell'algoritmo che analizza le segnalazioni degli utenti sono state recentemente potenziate da una "intelligenza artificiale" capace di prendere decisioni immediate e di bloccare contenuti non graditi, o che in realtà potrebbero creare altri problemi a Facebook.
Quali sono i contenuti al centro del mirino dell'Intelligenza Artificiale di Facebook?
Ci sono argomenti che vengono subito attenzionati da Facebook, come sa chiunque abbia pubblicato qualcosa sull'argomento "vaccino" ed ha notato che Facebook aggiunge sempre un link in calce che suggerisce di attingere da fonti ufficiali.
Ci sono poi degli allarmi che scattano quando vengono inviati molti messaggi a persone con cui non si è stretta "amicizia" su Facebook. Il numero dei messaggi e la velocità con cui vengono inviati sono dei parametri che Facebook non rivela, ma dichiara di tenere in considerazione.
Gli argomenti principali che sono attenzionati sono:
- contenuti relativi ai vaccini ed al Covid in generale
- bodyshaming, che comprende tutti gli argomenti che riguardano il colore della pelle (anche se il post riguarda la cosmetica)
- sesso in generale, immagini di nudo, osservazioni sull'orientamento sessuale e termini sessisti
- estremismo
Su quest'ultimo punto l'algoritmo valuta non solo il contenuti singolo, ma l'insieme dei contenuti pubblicati dall'utente, e le reazioni che questi hanno generato. Viene limitato l'estremismo in ogni settore (politica, sport, musica, informatica, cucina, ecc.) e per estremismo si intende l'uso di modi violenti nel difendere un concetto, a prescindere dalla bontà del concetto.
Nelle funzioni di Facebook è presente la possibilità di segnalare un utente che "sta diventando estremista" in modo che Facebook lo attenzioni e valuti molto più intensamente i contenuti che immette nella piattaforma.
Conclusioni
Il perché di tutto questo è immediatamente individuabile nel fatto che Facebook non vuole problemi di alcun genere.
La moderazione automatica ha questo scopo, non serve a censurare selettivamente alcuni contenuti, non entra nel merito, semplicemente vuole evitare che l'azienda dietro Facebook sia accusata di fomentare la violenza, il razzismo, le disinformazione e la discriminazione.
Allo stesso tempo deve garantire che gli utenti restino sulla piattaforma a generare traffico in modo da poter vendere i propri servizi pubblicitari alle aziende.
Riassunto per chi non vuole leggere tutto il precedente.
Ogni utente viene pesato in base alle opportunità economiche che ha il social network a tenerlo o meno sulla piattaforma.
Un utente con un basso profilo di spesa, che non clicca mai sulle pubblicità, che pubblica sempre contenuti esterni che hanno già ricevuto segnalazioni, viene classificato come "sacrificabile" e quindi bannato.
Questo a favore di altri utenti che hanno un valore maggiore ed usano il social network per lo scopo per cui è stato realizzato: cliccare sulle pubblicità.
Qualsiasi utente intralci questo percorso, o esponga Facebook ad essere accusato di favorire la violenza o l'estremismo, può essere tranquillamente bloccato.