Note sulla moderazione dei contenuti sui social network

Lo spettro della violenza infesta i sogni del capitale. Lo minaccia ogni giorno, virando verso l'incubo la fragile pax garantita dal suo apparato ideologico. Decapitazioni, omicidi, stragi, sparatorie, sevizie, stupri. La realtà delle vita di milioni di persone, quelle che vivono all'ombra del progetto di estrazione, viene dislocata davanti agli occhi di chi gode lo sfruttamento, grazie alle tecnologie digitali di trasmissione delle informazioni.

L'orrore esonda dai social. Come liquame che trabocca da un cesso intasato, ci lambisce le scarpe nuove. Ce lo troviamo di fronte ovunque, nascosto dove mai ce lo aspetteremmo. Si annida tra le pieghe dei cartoni animati che scarichiamo per i nostri figli, nel gorgo di contenuti correlati, creati automaticamente, che nutre la megamacchia computazionale. Puntuale come un corriere di Amazon, come un rider di Deliveroo che corre sotto la tempesta per non perdere rating, l'orrore ci viene consegnato a domicilio.

Il capitale lo sa. Per impedirlo assolda persone e dà loro il compito di regolare il flusso incessante di informazioni che ci assedia degli schermi di cui ci circondiamo. La moderazione dei contenuti, l'atto di decidere cosa ha o non ha il diritto di circolare nel sistema nervoso digitale della nostra società, è una funzione fondamentale per la tenuta dell'intero sistema.

Ha solo un difetto. Non produce utili. È un costo, non un investimento. È qui che, allora, si realizza l'ennesimo processo d'estrazione del valore. La moderazione dei contenuti è la catena di montaggio all'epoca del capitalismo delle piattaforme.

Dovrebbe essersene reso conto chiunque abbia letto The trauma floor e The terror queue,  i reportage sulla moderazione dei contenuti nelle piattaforme digitali che Casey Newton ha scritto nel corso di quest'anno The Verge.

Nell'ipotetica bibliografia di una versione contemporanea de Il Capitale  a questi testi dovrebbe spettare un posto di rilievo.

Entrambi analizzano le condizioni di lavoro a cui sono sottoposte le persone che hanno il compito di revisionare quelle categorie di contenuti potenzialmente in contrasto con le policy aziendali e le leggi dei paesi in cui operano le piattaforme.

Se ne ricava un quadro di esposizione costante a contenuti violenti e disturbanti che hanno pesanti conseguenze sulla salute mentale e fisica delle persone coinvolte nel processo. Sindrome da stress post traumatico, disturbi di ansia, dell'alimentazione, abuso di sostanze, depressione e altre patologie fanno parte della vita di chi esercita, per professione, la moderazione dei contenuti. Condizioni che peggiorano, mano a mano che l'operazione viene esternalizzata dalle case madri verso sub appaltatori che offrono il servizio.  

La violenza che costituisce il capitale si esercita su un doppio vettore: dal centro alla periferia del sistema, dove viene agita per garantirne la riproduzione; dalla periferia al centro, dove viene prevenuta per permetterne la stabilità.

Il capitalismo è radiottivo. Il suo fallout ci minaccia tutt*.

Google and YouTube moderators speak out on the work that gave them PTSD
They scrub the internet of violent and disturbing content, and it haunts them forever. Following his investigations on Facebook moderators, The Verge’s Casey Newton reports on the working conditions and side effects of scrubbing the internet of “violent extremism” content.
Leggi The Terror Queue su The Verge
The secret lives of Facebook moderators in America
In a damning new report, Casey Newton gives an unprecedented look at the day-to-day lives of Facebook moderators in America. His interviews with twelve current and former employees of Cognizant in Arizona reveal a workplace perpetually teetering on the brink of chaos.
Leggi The Trauma Floor su The Verge