Découvertes

Cinq conseils à Facebook pour améliorer sa modération

"Ne pas franchir la ligne rouge". Pas si évident.
"Ne pas franchir la ligne rouge". Pas si évident. Danielle Donders / Getty Images
Texte par : Alice MARUANI
17 mn

La modération de Facebook est de nouveau sous le feu des critiques : un journal norvégien a porté plainte pour censure et des militants antiracismes ont vu leurs comptes suspendus. Pour éviter au réseau social de nouvelles bévues, voici nos conseils.

Publicité

Facebook, je t’aime bien. Même si ton appétit pour la réalité virtuelle et la reconnaissance faciale me font un peu flipper, et que ta tendance à m'empêcher de penser en ne me parlant que de ce que j'approuve déjà (aussi appelée "filter bubble") m'agace, tu me permets de partager mes indignations journalières sur l'affaire du burkini, mes blagues ravageuses sur Cyrille Eldin ou encore mes photos de pieds sur fond de plage paradisiaque.

VOIR AUSSI : Facebook face au casse-tête de la modération des vidéos violentes

Mais niveau modération, tu dérailles régulièrement. Comme cette fameuse fois où tu as censuré "L'Origine du monde" qui est – certes – une chatte en gros plan, mais surtout une œuvre d’art du 19ème siècle. Je ne comprends pas non plus ton aversion pour les tétons. Ou pour le corps d’un mannequin grande taille.

Facebook, je t’aime bien. Même si ton appétit pour la réalité virtuelle et la reconnaissance faciale me font un peu flipper, et que ta tendance à m'empêcher de penser en ne me parlant que de ce que j'approuve déjà (aussi appelée "filter bubble") m'agace, tu me permets de partager mes indignations journalières sur l'affaire du burkini, mes blagues ravageuses sur Cyrille Eldin ou encore mes photos de pieds sur fond de plage paradisiaque.

VOIR AUSSI : Facebook face au casse-tête de la modération des vidéos violentes

Mais niveau modération, tu dérailles régulièrement. Comme cette fameuse fois où tu as censuré "L'Origine du monde" qui est – certes – une chatte en gros plan, mais surtout une œuvre d’art du 19ème siècle. Je ne comprends pas non plus ton aversion pour les tétons. Ou pour le corps d’un mannequin grande taille.

Mercredi 7 septembre, ton puritanisme qui confine à l'absurdité a fait entrer le plus gros journal norvégien en résistance. En effet, l'Aftenposten a décidé de porter plainte contre toi puisque tu l'as menacé de suspendre son compte s'il ne retirait pas la photo de la "fillette au napalm" – photo prise pendant la guerre du Vietnam, et qui a gagné le prix Pulitzer – de sa page Facebook. Raison : la fillette est nue. Le rédacteur en chef de l'Aftenposten pense que tu "abuse(s) de (ton) pouvoir". Et je suis assez d'accord : comme le dit le journaliste Vincent Glad, tu te prends un peu pour le "rédacteur en chef des rédacteurs en chef". (Depuis, sous les huées, tu as fini par revenir sur ta décision.)

Pour ne rien arranger, cette asceptisation de nos timelines est en train de devenir une méchante habitude. Récemment, tu as puni des utilisateurs pour avoir exprimé leur opinion – qui n'avait pour autant rien de particulièrement haineuse. La Quadrature du net, association de défense des libertés et des droits sur internet, le dénonce dans une tribune publiée cette semaine. Principales victimes : les activistes Sihame Assbague – une des figures actuelles de l'antiracisme politique – et Marwann Muhammad – du CCIF, le Collectif contre l'Islamophobie en France – pour des posts sur le traitement médiatique des attentats ou l'intégration des musulmans.

Le politologue Philippe Marlière a lui aussi été banni suite à un texte dans lequel il défendait le port du burkini.

Les gouvernements te mettent la pression

Ce n’est pas entièrement de ta faute (enfin si, les tétons, c’était toi) : en tant qu’hébergeur de contenus, tu es responsable juridiquement du contenu "manifestement illicite" qu’on te signale, d’après la loi de 2004 transposant une directive européenne. Par illicite, on entend : pédopornographie, incitation à la haine, à la violence faite aux femmes, négationnisme, apologie du terrorisme, etc. La liste s’allonge d’année en année.

Déjà que les associations antiracistes te critiquaient à tour de bras, les attentats n’ont rien arrangé. Les gouvernements – le nôtre, notamment – te mettent aujourd’hui la pression pour lutter activement contre les discours incitant au terrorisme. Bernard Cazeneuve te passe parfois le bonjour. Alors tu as appris à jouer la prudence. Sur le papier, ça parait pas mal de ne pas laisser dire des horreurs sous prétexte qu’on est sur internet et YOLO.

"Facebook est une plateforme hégémonique"

Mais la liberté d’expression est chatouilleuse. Et comme me l’a dit Adrienne Charmet, responsable à la Quadrature du net : "Même si on peut se passer de Facebook en théorie, c’est une plateforme hégémonique. Donc sa politique de modération a des conséquences sur la réalité concrète de la liberté d’expression".

Voici donc quelques conseils pour t’améliorer.  

  1. Tu devrais permettre d'officialiser certains comptes

Fais comme ton concurrent Twitter, qui a eu la bonne idée de créer des comptes vérifiés. C’est une solution assez simple pour départager journalistes, observateurs et médias des aspirants terroristes, par exemple. Cela pourrait également faciliter le travail de tes modérateurs. Et t'éviter ainsi de supprimer sans raison le compte du journaliste spécialiste du jihad David Thomson. La dernière fois, c'était en juin dernier. Tu l'avais mis "au piquet" pendant trois jours.

Depuis 2014, son compte a été désactivé trois fois. À chaque fois, RFI, son employeur, avait dû intervenir auprès de Facebook pour le rouvrir à nouveau. Du coup, il en a créé un deuxième pour continuer à s'exprimer au cas où.

  1. Tu devrais être plus transparent

Ta modération, c'est un des mystères de l'Internet – et ce, même pour les journalistes ou les associations spécialisées. Beaucoup d'acteurs interviennent dans cette affaire et des questions demeurent (Quels types d'algorithmes utilises-tu et pourquoi ? Les signalements en masse permettent-ils de désactiver un compte ? Comment les modérateurs sont-ils formés à supprimer des contenus ?)

Quand un internaute se fait fermer son compte, c'est kafkaïen. On ne lui indique, au mieux, que le contenu visé, en le renvoyant aux "standards de la communauté". Pourrais-tu, a minima, préciser le "standard" qui est en jeu ? Tu ferais montre de ta bonne fois.

David Thomson par exemple pense que c’est parce qu’il est "ami" avec des terroristes sur Facebook qu’il a été supprimé. Ou encore parce qu’il apparaît sur une photo avec le drapeau de l’EI qui pourrait être repéré automatiquement par un outil de reconnaissance d'images. Mais il n’en est pas certain, et d'ailleurs, il ignore à chaque fois si son compte a été supprimé suite à un signalement ou non.

  1. Tu devrais ouvrir le dialogue et responsabiliser

Pourquoi ne pas avertir l’internaute visé qu’il a été signalé ? Et pourquoi ne pas lui offrir la possibilité de supprimer son contenu lui-même avant toute décision ? L'idée serait in fine d'ouvrir une véritable procédure de fermeture de compte.

"On appelle ça le notice and notice. Je pense que ce serait beaucoup plus efficace. Cela responsabiliserait les internautes, ceux qui signalent comme ceux qui sont signalés", propose à ce titre Adrienne Charmet. Tu ferais alors office de médiateur suprême. Plus pratique, non ?

  1. Tu devrais t'en remettre à la justice

Ce serait d’autant plus efficace que tu menacerais l’internaute en cause de le signaler à la gendarmerie si aucune solution n’est trouvée. "Facebook le fait déjà", m'explique Adrienne Charmet sans toutefois savoir si tous les contenus le sont systématiquement ou non. Pour elle, ça simplifierait ton travail. "Du coup, Facebook n’aurait pas à choisir lui-même de supprimer ou non des contenus, il s’en remettrait à la justice". Car si pour la pédopornographie il y a peu de doute possible, le discours raciste ou l’apologie du terrorisme, eux, se distinguent peu à l’œil nu.

 "Quand un livre est publié, on ne demande pas à l’imprimeur de savoir s’il est légal ou pas avant impression. Alors pourquoi Facebook le ferait ? Qualifier juridiquement un contenu, c'est le rôle d'un juge", argumente Adrienne Charmet.

  1. Tu devrais te méfier des algorithmes

Si l'homme est faillible, les algorithmes aussi. Et avec eux, pas moyen de discuter. Certains prétendent repérer et supprimer les photos et vidéos déjà signalées, mais aussi les contenus illicites, type pornographie, téton et drapeaux de l'EI. D’autres, les discours extrémistes. Mais les faux positifs existent toujours.

On ne sait pas exactement lesquels tu utilises ni comment (tu prends soin de ne pas révéler grand chose en invoquant des questions de sécurité) mais plusieurs enquêtes le disent : ils prennent plus de place dans ta vie. Avant, tu le répétais à chaque fois : seuls les contenus signalés remontaient aux modérateurs, qui pouvaient s'aider de ces algorithmes. Aujourd’hui, tu avoues à demi-mots que des algorithmes pourraient faire eux-mêmes remonter des contenus non signalés voire les bannir automatiquement, pour t'aider à lutter contre l'organisation Etat islamique sans avoir à employer davantage de modérateurs.

"Bien que nous ayons d’abord utilisé ces systèmes pour aider le contrôle manuel des contenus par des modérateurs, nous explorons aussi des manières supplémentaires par lesquelles l’automatisation pourrait signaler ou retirer des contenus qui sont clairement en violation avec nos conditions d’utilisation", indiques-tu.

Or, si ce sont bien tes robots qui réduisent au silence nos timelines, nos associations de défense des libertés ont clairement de quoi s’inquiéter. Alors s'il-te-plaît Facebook, si tu veux que l'on reste amis... revois ta politique de modération.

Quelque chose à ajouter ? Dites-le en commentaire.

– Mis à jour du 12 septembre 2016 : Facebook annule sa censure de "la fillette au napalm"

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Mercredi 7 septembre, ton puritanisme qui confine à l'absurdité a fait entrer le plus gros journal norvégien en résistance. En effet, l'Aftenposten a décidé de porter plainte contre toi puisque tu l'as menacé de suspendre son compte s'il ne retirait pas la photo de la "fillette au napalm"– photo prise pendant la guerre du Vietnam, et qui a gagné le prix Pullitzer – de sa page Facebook. Raison : la fillette est nue. Le rédacteur en chef de l'Aftenposten pense que tu "abuse(s) de (ton) pouvoir". Et je suis assez d'accord : comme le dit le journaliste Vincent Glad, tu te prends un peu pour le "rédacteur en chef des rédacteurs en chef". (Depuis, sous les huées, tu as fini par revenir sur ta décision.)

Pour ne rien arranger, cette asceptisation de nos timelines est en train de devenir une méchante habitude. Récemment, tu as puni des utilisateurs pour avoir exprimé leur opinion  -- qui n'avait pour autant rien de particulièrement haineuse. La Quadrature du net, association de défense des libertés et des droits sur internet, le dénonce dans une tribune publiée cette semaine. Principales victimes : les activistes Sihame Assbague – une des figures actuelles de l'antiracisme politique – et Marwann Muhammad  – du CCIF, le Collectif contre l'Islamophobie en France – pour des posts sur le traitement médiatique des attentats ou l'intégration des musulmans.

Le politologue Philippe Marlière a lui aussi été banni suite à un texte dans lequel il défendait le port du burkini.

Les gouvernements te mettent la pression

Ce n’est pas entièrement de ta faute (enfin, si, les tétons, c’était toi) : en tant qu’hébergeur de contenus, tu es responsable juridiquement du contenu "manifestement illicite" qu’on te signale, d’après la loi de 2004 transposant une directive européenne. Par illicite, on entend : pédopornographie, incitation à la haine, à la violence faite aux femmes, négationnisme, apologie du terrorisme, etc. La liste s’allonge d’année en année.

Déjà que les associations antiracistes te critiquaient à tour de bras, les attentats n’ont rien arrangé. Les gouvernements – le nôtre, notamment – te mettent aujourd’hui la pression pour lutter activement contre les discours incitant au terrorisme. Bernard Cazeneuve te passe parfois le bonjour. Alors tu as appris à jouer la prudence. Sur le papier, ça parait pas mal de ne pas laisser dire des horreurs ou embrigader des jeunes depuis la Syrie sous prétexte qu’on est sur internet et yolo.

"Facebook est une plateforme hégémonique"

Mais la liberté d’expression est chatouilleuse. Et comme me l’a dit Adrienne Charmet, responsable à la Quadrature du net : "Même si on peut se passer de Facebook en théorie, c’est une plateforme hégémonique. Donc sa politique de modération a des conséquences sur la réalité concrète de la liberté d’expression".

Voici donc quelques conseils pour t’améliorer.  

  1. Tu devrais permettre d'officialiser certains comptes

Fais comme ton concurrent Twitter, qui a eu la bonne idée de créer des comptes vérifiés. C’est une solution assez simple pour départager journalistes, observateurs et médias des aspirants terroristes, par exemple. Cela pourrait également faciliter le travail de tes modérateurs. Et t'éviter ainsi de supprimer sans raison le compte du journaliste spécialiste du jihad David Thomson. La dernière fois, c'était en juin dernier. Tu l'avais mis "au piquet" pendant trois jours.

Depuis 2014, son compte a été désactivé trois fois. À chaque fois, RFI, son employeur, avait dû intervenir auprès de Facebook pour le rouvrir à nouveau. Du coup, il en a créé un deuxième pour continuer à s'exprimer au cas où.

  1. Tu devrais être plus transparent

Ta modération, c'est un des mystères de l'Internet – et ce, même pour les journalistes ou les associations spécialisées. Beaucoup d'acteurs interviennent dans cette affaire et des questions demeurent (Quels types d'algorithmes utilises-tu et pourquoi ? Les signalements en masse permettent-ils de désactiver un compte ? Comment les modérateurs sont-ils formés à supprimer des contenus ?)

Quand un internaute se fait fermer son compte, c'est kafkaïen. On ne lui indique, au mieux, que le contenu visé, en le renvoyant aux "standards de la communauté". Pourrais-tu, a minima, préciser le « standard » qui est en jeu ? Tu ferais montre de ta bonne fois.

David Thomson par exemple pense que c’est parce qu’il est "ami" avec des terroristes sur Facebook qu’il a été supprimé. Ou encore parce qu’il apparaît sur une photo avec le drapeau de l’EI qui pourrait être repéré automatiquement par un outil de reconnaissance d'images. Mais il n’en est pas certain, et d'ailleurs, il ignore à chaque fois si son compte a été supprimé suite à un signalement ou non.

  1. Tu devrais ouvrir le dialogue et responsabiliser

Pourquoi ne pas avertir l’internaute visé qu’il a été signalé ? Et pourquoi ne pas lui offrir la possibilité de supprimer son contenu lui-même avant toute décision ? L'idée serait in fine d'ouvrir une véritable procédure de fermeture de compte.

"On appelle ça le notice and notice. Je pense que ce serait beaucoup plus efficace. Cela responsabiliserait les internautes, ceux qui signalent comme ceux qui sont signalés", propose à ce titre Adrienne Charmet. Tu ferais alors office de médiateur suprême. Plus pratique, non ?

  1. Tu devrais t'en remettre à la justice

Ce serait d’autant plus efficace que tu menacerais l’internaute en cause de le signaler à la gendarmerie si aucune solution n’est trouvée. "Facebook le fait déjà", m'explique Adrienne Charmet sans toutefois savoir si tous les contenus le sont systématiquement ou non. Pour elle, ça simplifierait ton travail. "Du coup, Facebook n’aurait pas à choisir lui-même de supprimer ou non des contenus, il s’en remettrait à la justice". Car si pour la pédopornographie il y a peu de doute possible, le discours raciste ou l’apologie du terrorisme, eux, se distinguent peu à l’œil nu.

 "Quand un livre est publié, on ne demande pas à l’imprimeur de savoir s’il est légal ou pas avant impression. Alors pourquoi Facebook le ferait ? Qualifier juridiquement un contenu, c'est le rôle d'un juge", argumente Adrienne Charmet.

  1. Tu devrais te méfier des algorithmes

Si l'homme est faillible, les algorithmes aussi. Et avec eux, pas moyen de discuter. Certains prétendent repérer et supprimer les photos et vidéos déjà signalées, mais aussi les contenus illicites, type pornographie, téton et drapeaux de l'EI. D’autres, les discours extrémistes. Mais les faux positifs existent toujours.

On ne sait pas exactement lesquels tu utilises ni comment (tu prends soin de ne pas révéler grand chose en invoquant des questions de sécurité) mais plusieurs enquêtes le disent : ils prennent plus de place dans ta vie. Avant, tu le répétais à chaque fois : seuls les contenus signalés remontaient aux modérateurs, qui pouvaient s'aider de ces algorithmes. Aujourd’hui, tu avoues à demi-mots que des algorithmes pourraient faire eux-mêmes remonter des contenus non signalés voire les bannir automatiquement, pour t'aider à lutter contre l'organisation Etat islamique sans avoir à employer davantage de modérateurs.

"Bien que nous ayons d’abord utilisé ces systèmes pour aider le contrôle manuel des contenus par des modérateurs, nous explorons aussi des manières supplémentaires par lesquelles l’automatisation pourrait signaler ou retirer des contenus qui sont clairement en violation avec nos conditions d’utilisation", indiques-tu.

Or, si ce sont bien tes robots qui réduisent au silence nos timelines, nos associations de défense des libertés ont clairement de quoi s’inquiéter. Alors s'il-te-plaît Facebook, si tu veux que l'on reste amis... revois ta politique de modération.

Quelque chose à ajouter ? Dites-le en commentaire.

– Mis à jour du 12 septembre 2016 : Facebook annule sa censure de "la fillette au napalm"

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Le résumé de la semaineFrance 24 vous propose de revenir sur les actualités qui ont marqué la semaine