"Ban!" su Il Tascabile

Tra opacità e incoerenze, una ricognizione delle strategie che Facebook sta mettendo in campo per la moderazione dei contenuti.

"Ban!" su Il Tascabile

Negli ultimi anni, Facebook ha preso posizione e implementato azioni concrete per limitare la diffusione dei contenuti d'odio sulla sua piattaforma. Dopo una serie di sospensioni e ban che hanno colpito numerose pagine italiane di meme e informazione, Il Tascabile mi ha chiesto di provare a fare il punto sulla strategia che il social network di Marc Zuckerberg ha messo in campo per rendersi un posto migliore. Mi sono così inoltrato tra sistemi di intelligenza artificiale per il riconoscimento dei contenuti, team di moderazione sparsi in tutto il mondo e organismi di governace indipendenti per provare a ricostruire la struttura e le storture di un sistema a cui spetta la responsabilità della libera espressione di 2,45 miliardi di utenti attivi mensili.

Tutta questa storia oscilla di continuo tra l’ufficialità e l’ipotesi, tra la certezza del comunicato stampa e una serie di frasi formulate al condizionale. Alla base c’è l’opacità delle piattaforme. Capire come funziona Facebook è un gioco a informazione mancante. La piattaforma ci fornisce delle linee guida incomplete, un libretto di istruzioni a cui mancano delle parti fondamentali, perché sono protette dalla sua proprietà intellettuale. Non possiamo saperle, altrimenti saremmo in possesso di ciò che rende redditizio l’intero dispositivo, avremmo crackato la scatola nera. Perciò, per colmare quei buchi, per dare un senso alle anomalie, possiamo solo procedere per prove ed errori, facendo ipotesi cartografiche da verificare mentre attraversiamo il territorio, mentre siamo immersi nel paesaggio. Quali immagini abbiamo tracciato durante la nostra esplorazione?
Ban!
Cosa sappiamo sulle decisioni di Facebook di oscurare contenuti politicamente sensibili.
Continua a leggere "Ban!" su Il Tascabile