Rendez-vous

Rejouer


LES DERNIÈRES ÉMISSIONS

LE JOURNAL DE L’AFRIQUE

Congo-Brazaville : Un opposant menacé de mort en France.

En savoir plus

UN ŒIL SUR LES MÉDIAS

Arthur Mitchell : la mort d'une étoile

En savoir plus

LE DÉBAT

Migrants : L'Europe sans solution ?

En savoir plus

POLITIQUE

Audition d'Alexandra Benalla : Une situation embarassante pour E. Macron ?

En savoir plus

À L’AFFICHE !

Alexandra Lamy : "Je suis très fière d'être une actrice populaire"

En savoir plus

CAP AMÉRIQUES

Cour Suprême : tempête autour de Brett Kavanaugh

En savoir plus

Pas 2 Quartier

Bourgogne : cinéaste d'une cité désertée

En savoir plus

FOCUS

Autriche : restriction de l'immigration et obstacles à l'intégration

En savoir plus

L’invité du jour

Claude Pinault : "Tétraplégique, un médecin m’a donné une graine d’espoir"

En savoir plus

Découvertes

8 000 posts par jour, de la pédopornographie : une ancienne modératrice de Facebook raconte son quotidien

© Kyodo News / Getty Images

Texte par Perrine SIGNORET

Dernière modification : 09/07/2018

Une ancienne modératrice de Facebook explique avoir vu défiler des images particulièrement choquantes. Elle avait dix secondes pour décider de leur sort.

Pendant huit mois, en 2016, Sarah Katz a travaillé comme modératrice pour Facebook. Dans une interview au site Business Insider, elle raconte cette période difficile, marquée par la pression du nombre de posts à analyser, et les images choquantes et violentes qu'elle voyait quotidiennement.

VOIR AUSSI : Le travail des modérateurs de Facebook est un casse-tête, comme le confirment des documents internes

Une équipe de plusieurs milliers de modérateurs

Sarah Katz ne travaillait pas directement pour Facebook. Elle était employée par une entreprise tierce, Vertisystem. Son rôle était d'analyser des contenus signalés par des utilisateurs, et de déterminer s'ils contrevenaient au règlement du réseau social. Chaque jour, elle raconte qu'elle devait passer en revue jusqu'à 8 000 posts. Parmi ces derniers – qui apparaissaient sur son écran au rythme d'un toutes les dix secondes –, elle voyait "beaucoup de pornographie, de la zoophilie, et de la violence". "Il y avait beaucoup de contenus que vous n'auriez pas pensé voir partagés sur Facebook", raconte celle qui se souvient encore avec effroi d'images d'abus sexuels sur des mineurs. Parfois, les clichés qu'elle supprimait étaient repostés, à plusieurs reprises. Elle raconte qu'à force, elle avait été comme désensibilisée à ce type de photos ou vidéos.

Pour devenir modératrice, Sarah Katz avait du au préalable signer un document, dans lequel elle avait été alertée qu'elle verrait des images potentiellement dérangeantes. Il était également noté que celles et ceux qui ne le supportaient pas et souhaitaient arrêter devaient le "notifier rapidement" à l'entreprise.

Suite à une série de meurtres diffusés en direct sur sa plateforme, Facebook avait indiqué en mai 2017 employer 4 500 modérateurs. Elle avait promis qu'elle allait ajouter 3 000 personnes à cette équipe. Une promesse, qu'elle assure avoir depuis honorée.

Des règles floues

Le travail des modérateurs, complété par l'utilisation d'algorithmes supposés identifier des contenus problématiques, est de plus en plus complexe, car le nombre de messages ou d'images postés sur la plateforme ne cesse de grossir. Dans un rapport publié en mai, Facebook expliquait avoir en l'espace de trois mois "agi" sur 3,4 millions de posts, soit 1,2 million de plus qu'entre octobre et fin décembre 2017.

Par ailleurs, les règles encadrant la modération des contenus peuvent parfois être floues, comme l'avaient montré des documents internes révélés en 2017 par le Guardian. Une vidéo de mort violente, par exemple, ne doit pas toujours être supprimée. Si elle peut aider à nourrir un débat sur les maladies mentales, elle est acceptée sur le réseau social. Quant aux images montrant des faits de maltraitance à caractère non sexuel sur un enfant, elles peuvent également être tolérées, si elles ne glorifient pas de telles pratiques.

Sarah Katz, dont Facebook a refusé de commenter l'expérience, a elle choisi de changer d'emploi. Elle travaille désormais en tant qu'analyste dans le secteur de la sécurité informatique. Elle assure paradoxalement ne pas garder un trop mauvais souvenir de son passé de modératrice. L'idée de protéger les utilisateurs, explique-t-elle, suffisait à la motiver.

Quelque chose à ajouter ? Dites-le en commentaire.

Première publication : 09/07/2018