Ouvrir

À suivre

Rendez-vous

Rejouer


LES DERNIÈRES ÉMISSIONS

MODE

La mode de 2014 marquée par une douce révolution et une prise de conscience des créateurs.

En savoir plus

JOURNAL DE L’AFRIQUE

Centrafrique : calme précaire dans la capitale, violences en province

En savoir plus

JOURNAL DE L’AFRIQUE

Au Cameroun, la population se mobilise pour l'éducation

En savoir plus

#ActuElles

Canada : les mystérieuses disparitions des femmes autochtones

En savoir plus

REPORTERS

Le meilleur des grands reportages de France 24 en 2014

En savoir plus

7 JOURS EN FRANCE

Retour sur les temps forts de l’année 2014

En savoir plus

REVUE DE PRESSE

"Un troisième Bush à la Maison Blanche ?"

En savoir plus

DÉBAT

CAN-2015 : un défi pour le continent africain

En savoir plus

L'ENTRETIEN

"Il faut que Pékin réévalue ses politiques dans les régions tibétaines"

En savoir plus

Economie

Des utilisateurs de Facebook cobayes malgré eux

© AFP

Texte par FRANCE 24

Dernière modification : 30/06/2014

Une équipe de chercheurs américains a mené en 2012 sur Facebook une étude sur près de 700 000 utilisateurs, testés à leur insu, pour observer la "contagion émotionnelle" des groupes. Certains dénoncent des méthodes "alarmantes".

Facebook est-il en passe de devenir un laboratoire d’analyse des comportements humains ? Une étude récemment publiée par une revue scientifique américaine a révélé que le contenu du réseau social avait été modifié pour observer "la contagion émotionnelle" dans les groupes.

Pendant une semaine, du 11 au 18 janvier 2012, Facebook et des scientifiques des universités Cornell et de Californie, à San Francisco, ont utilisé le système d'algorithmes du réseau pour modifier le contenu des informations reçues par un groupe d'utilisateurs afin d'étudier l'impact sur leurs émotions. Ce sont ainsi près de 700 000 utilisateurs anglophones qui ont été testés à leur insu.

Manipulation

Les résultats de la recherche, publiée dans la revue scientifique américaine Comptes rendus de l'Académie nationale des sciences (PNAS), datées du 17 juin, conclut que les utilisateurs ciblés commençaient à utiliser davantage de mots négatifs ou positifs selon l'ampleur des contenus auxquels ils avaient été "exposés".

"Les états émotionnels sont communicatifs et peuvent se transmettre par un phénomène de contagion, conduisant les autres personnes à ressentir les mêmes émotions sans en être conscientes", écrivent les auteurs de cette recherche. Selon eux, "ces résultats montrent la réalité d'une contagion émotionnelle de masse via les réseaux sociaux."

D'autres recherches se sont déjà penchées sur ce phénomène, mais cette étude est unique au sens où ses auteurs "ont manipulé", selon leurs propres mots, les données.

Une méthode "démonique" ?

L'étude suscite une attention grandissante sur la Toile après des articles publiés samedi 28 juin dans la revue en ligne Slate et sur les sites du magazine The Atlantic et de Forbes.

Certains internautes n'ont pas hésité à monter au créneau en exprimant "leur trouble profond" ou qualifiant la méthode utilisée "d'alarmante" ou de "démoniaque".

Susan Fiske, de l'université de Princeton qui a édité la recherche, a indiqué à The Atlantic avoir contacté les auteurs pour leur faire part de ses préoccupations quant à leurs travaux. Ils lui ont répondu que les autorités de leurs universités avaient approuvé ces travaux "car Facebook, apparemment, manipule systématiquement le contenu des informations diffusées".

Interrogé par l'AFP, Facebook, plus grand réseau social avec plus d'un milliard d'utilisateurs, a rejeté ces accusations. "Cette recherche a été menée pendant seulement une semaine et aucune donnée utilisée n'était liée au compte d'une personne en particulier", a indiqué une porte-parole, Isabel Hernandez, dans un courrier électronique. "Nous faisons des recherches pour améliorer nos services [...] et une grande partie consiste à comprendre comment les gens répondent à différents contenus positifs ou négatifs", a-t-elle poursuivi.

Avec AFP

Première publication : 30/06/2014

  • ÉTATS-UNIS

    Quand Facebook fait la police en plein cœur de la Silicon Valley

    En savoir plus

  • INTERNET

    Facebook, 56 nuances de genre

    En savoir plus

  • ÉGYPTE

    En Égypte, le projet “Big Brother” pour les réseaux sociaux fait des vagues

    En savoir plus

COMMENTAIRE(S)