Rendez-vous

Rejouer


LES DERNIÈRES ÉMISSIONS

MODE

Azzedine Alaïa, disparition d'un géant

En savoir plus

REPORTERS

Vidéo : avec Trump, la fin du rêve américain pour les musulmans ?

En savoir plus

REVUE DE PRESSE

Au Zimbabwe, "la tâche peu enviable de Mnangagwa"

En savoir plus

LE JOURNAL DE L'ÉCO

Le "vendredi noir" débarque en France

En savoir plus

REVUE DE PRESSE

"Dix viols par jour au travail : on fait quoi ?"

En savoir plus

UN ŒIL SUR LES MÉDIAS

Libye : "je ne suis pas à vendre"

En savoir plus

LE JOURNAL DE L’AFRIQUE

Morgan Tsvangirai met en garde contre une extension du système Mugabe

En savoir plus

LE DÉBAT

Migrants esclaves en Libye : l'Europe coupable ?

En savoir plus

POLITIQUE

Emmanuel Macron face aux maires : jacobin ou girondin?

En savoir plus

Economie

Censurer ou non sur Facebook : un choix parfois cornélien

© Justin Sullivan, AFP | Les conseils de Facebook aux modérateurs de contenus tiennent sur une centaine de pages

Texte par Sébastian SEIBT

Dernière modification : 22/05/2017

Les règles internes à Facebook pour décider quels contenus doivent être censurés ont pu être consultées par le quotidien britannique Guardian. Un manuel de modération qui démontre surtout à quel point la tâche est difficile.

Sur Facebook, il est interdit d’appeler à tirer sur le président américain Donald Trump mais il est permis d’inciter à tabasser les roux. Cette différence de traitement, révélée dimanche 21 mai par le quotidien britannique The Guardian, a été montée en épingle sur les réseaux sociaux, comme l’exemple d’une modération à deux vitesses.

Mais il est loin de refléter la complexité de tous les cas de figure listés au fil de la centaine de pages de ce manuel de survie du modérateur de Facebook. Images violentes, menaces verbales, sexualité : les indications du géant des réseaux sociaux à ses hommes et femmes de e-ménage prouvent surtout que la plupart des contenus litigieux naviguent en eaux troubles.

Les modérateurs marchent souvent sur des œufs, tant chaque décision peut dégénérer en scandale planétaire pour Facebook. Trois exemples évoqués dans ces documents internes illustrent toute la difficulté du travail de censeur pour la célèbre plateforme. Des choix qui, pour faire face au flot de soumission de contenus, doivent être tranchés en moyenne en moins de dix secondes, rapporte The Guardian.

"Mark Zuckerberg a récemment annoncé que nous allions ajouter 3 000 personnes à nos équipes de modération – qui s'ajoutent aux 4 500 personnes qui composent cette équipe aujourd’hui – pour examiner les millions de signalements que nous recevons chaque semaine, et pour améliorer le mode opératoire pour agir le plus rapidement possible", a précisé après la publication de l’article du Guardian, Monika Bickert, directrice de la politique des contenus chez Facebook.

Les images d’enfants nus. Il y a un peu plus d’un an, la situation était simple. Pas de photos ou vidéos d’enfants nus sur le réseau social. Mais l’affaire de la “fille au napalm”, en juin 2016, a changé la donne. Facebook a reconnu avoir eu tort de censurer la publication de ce cliché culte d’une jeune fille brûlée au napalm durant la guerre du Vietnam à la fin des années 1960.

Les règles ont alors évolué. Dorénavant, les photos d’enfants nus peuvent être postées uniquement lorsqu’elles ont une valeur informative. Aux modérateurs de définir cette catégorie. Facebook leur donne, tout de même, un indice : des images d’enfants nus, qui ont survécu à l’Holocauste, doivent être retirées. Attention, cependant : celles qui montrent dans le même contexte des adultes dévêtus peuvent être mises en ligne car elles ont valeur informative et éducative.

Vidéos de violence et de mise à mort. Tout est dans le message, rien - ou presque - dans l’image. Si les vidéos sont mises en ligne pour “célébrer” la violence, elles doivent être censurées. En revanche, elles sont simplement “marquées comme dérangeantes” lorsqu’il n’y a aucune intention de glorifier ces mêmes images. Elles peuvent alors attirer l’attention sur un problème - tendance suicidaire - ou sensibiliser à une situation, comme une guerre.

Le principe semble clair, mais la frontière peut être très mince. Facebook juge ainsi que soutenir la peine de mort n’est pas une glorification d'une vidéo violente postée mais plutôt l'expression d'une opinion. Le réseau social évoque aussi les “réactions ambivalentes qui peuvent être dues au choc”. Ainsi, un “waouh” en commentaire d’une vidéo de décapitation peut être l’expression d’une “réaction ambivalente” plutôt que de satisfaction. Là encore, aux modérateurs de trancher.

Menaces. Certes, Donald Trump, n’importe quel chef d’État et les minorités exposées (homosexuels, minorités religieuses etc.) sont davantage protégés que Monsieur Tout-le-monde. Facebook n’en essaie pas moins de garantir un “environnement sûr” à l’internaute lambda. Mais les conseils concernant les menaces contre les individus obligent les modérateurs à un exercice d’équilibriste délicat. Ils doivent en effet juger de la crédibilité des allégations.

Un faisceau d’indices permet de jauger la menace, telle qu’une description de la méthode d’attaque, la présence d’illustrations ou encore une estimation du délai avant de s’en prendre à la personne en question.

Ainsi, écrire sur Facebook “je vais détruire les bureaux irlandais de Facebook” n’est pas à censurer, contrairement à “je vais faire sortir les bureaux irlandais de Facebook”. L'humour a tendance à décrédibiliser une menace aux yeux du réseau social... mais pas tout à fait. "Je vais te démembrer avec une cuillère" n'est pas une menace à prendre au sérieux, sauf si elle s'accompagne d'une photo d'une "potentielle cible réelle".

Première publication : 22/05/2017

  • ÉTATS-UNIS

    Facebook va embaucher 3 000 personnes pour filtrer les images violentes

    En savoir plus

  • ÉTATS-UNIS

    Aux États-Unis, chasse à l'homme suite à un meurtre diffusé sur Facebook

    En savoir plus

  • INTERNET

    Élection présidentielle : Facebook fait un nettoyage de printemps des faux comptes en France

    En savoir plus

COMMENTAIRE(S)