Facebook dispone di diversi team che moderano i commenti ed i post segnalati dagli utenti come potenzialmente inadeguati. Sia che si tratti di commenti offensivi che di fake news, un team umano verifica minuziosamente cosa va bene e cosa no. Tuttavia per poter decidere effettivamente cosa può essere lasciato e cosa essere rimosso, i membri di questi team seguono delle specifiche regole. Il Guardian è riuscito a mettere le mani su quello che è stato chiamato “Facebook Files“, cioè un insieme di regole che i moderatori del social network devono tenere.

I documenti, dunque, mostrano un lungo elenco di regole che i moderatori devono seguire, tuttavia quello che traspare è che la scelta alla fine può diventare arbitraria e controversa. Alla fine, infatti, è sempre Facebook che decide e un atto di autolesionismo in diretta video può anche essere lasciato. Un’affermazione su Trump, invece, ha più valenza di un proposito di violenza ma trattandosi di un presidente americano probabilmente c’è anche un discorso legato alla sua delicata posizione. Ancora, gli abusi sui minori, quelli di natura sessuale sono un discorso a parte, hanno rilevanza solo se esaltano violenza e sadismo.

I video che mostrano morti violente devono essere rimossi solo in alcuni casi e così via. Gli esempi, infatti, potrebbero essere moltissimi. Quindi, probabilmente, più che assumere nuove migliaia di dipendenti per migliorare la moderazione dei contenuti, probabilmente sono le regole che dovrebbero essere migliorate ed affinate.