Rendez-vous

Rejouer


LES DERNIÈRES ÉMISSIONS

VOUS ÊTES ICI

Dans les coulisses du Moulin Rouge

En savoir plus

L’invité du jour

Sobel Aziz Ngom : "Si chacun fait sa part, à sa manière, on pourra équilibrer ce qu'on a en commun"

En savoir plus

BILLET RETOUR

Billet retour en Ouganda : que reste-t-il d'Idi Amin Dada ?

En savoir plus

DANS LA PRESSE

Shinzo Abe, la passe de trois

En savoir plus

L'INFO ÉCO

Les appartements fantômes de Caracas

En savoir plus

DANS LA PRESSE

"Theresa May humiliée"

En savoir plus

LE JOURNAL DE L’AFRIQUE

Congo-Brazaville : un opposant menacé de mort en France

En savoir plus

UN ŒIL SUR LES MÉDIAS

Arthur Mitchell : la mort d'une étoile

En savoir plus

LE DÉBAT

Migrants : l'Europe sans solution ?

En savoir plus

Amériques

"Deep fake" : ces trucages vidéo accusés de menacer la démocratie américaine

© iStock | Le directeur du Renseignement national américain, Dan Coats, a été saisi d'une demande de considérer les "deep fake" comme une menace pour la sécurité intérieure.

Texte par Sébastian SEIBT

Dernière modification : 14/09/2018

Des élus américains veulent que les “deep fake”, des montages vidéo dopés à l’intelligence artificielle, soient inscrits sur la liste des menaces pour la sécurité nationale. Ils craignent qu’ils deviennent les “fake news” des élections de mi-mandat.

Des politiciens américains s’alarment des risques que font courir les “deep fake” pour la démocratie. Cette technique, qui permet de créer des montages vidéo grâce à un algorithme en substituant notamment une personne par une autre, avait d’abord été utilisée dans le domaine pornographique où les faussaires réussissaient à mettre en scène des célébrités dans des scènes plus que suggestives. Trois élus de la chambre des Représentants - deux démocrates et un républicain - craignent maintenant pour les élections de mi-mandat de novembre 2018 et ont demandé, jeudi 13 septembre, au gouvernement américain d’inscrire les “deep fake” sur la liste des menaces à la sécurité nationale.

Ils redoutent qu’après une campagne présidentielle de 2016 marquée par les “fake news”, la prochaine échéance électorale soit prise d’assaut par des “acteurs étrangers” diffusant ces fausses vidéos pour influencer le vote. Leur cauchemar serait que des agents russes fassent circuler, sur Facebook et Twitter, des montages réalisés pour faire tenir à des candidats des propos à même de ruiner leur réputation et leurs chances de se faire élire.

“La technologie est au point”

Ces élus américains ont, sans doute, été impressionnés par un trucage du site Buzzfeed, publié en avril 2018, faisant dire à un Barack Obama plus vrai que nature que Donald Trump était “une grosse merde”. “Ils ont raison de s’inquiéter, la technologie est au point”, assure à France 24 Vincent Nozick, chercheur au Laboratoire d’informatique Gaspard-Monge (LIGM), où il travaille sur le programme Mesonet de détection des “deep fake”.

Pour cet expert, la menace est d’autant plus importante que ces trucages “ne demandent pas de connaissances très approfondies en mathématiques, ni de matériel informatique très perfectionné”. Des algorithmes savent très bien le faire, à condition de leur fournir une base de données suffisante d’images et de vidéos de la victime du montage. L’intelligence artificielle doit, en effet, disposer de suffisamment de points de repère pour pouvoir ensuite recréer la cible dans un autre environnement. “C’est pourquoi il est plus difficile de réaliser un ‘deep fake’ d’un parfait inconnu que d’une célébrité”, explique Vincent Nozik.

Le recours à ce procédé est d’autant plus tentant que la supercherie n’est pas aisée à découvrir sur le Web. “Les vidéos mises sur Internet sont souvent de piètre qualité, car elles sont comprimées [donc dégradées, NDLR] pour être diffusées plus facilement, et il devient alors très difficile de détecter les altérations qui indiquent une manipulation”, explique Jean-Michel Morel, chercheur au Centre de mathématiques de l’École normale supérieure (ENS) de Paris-Saclay, contacté par France 24.

Un autre problème provient du “manque de bases de données de ‘deep fake’”, souligne Alan Dolhasz, chercheur spécialisé dans l’imagerie numérique à l’université de Birmingham (Grande-Bretagne), contacté par France 24. Les algorithmes chargés de traquer ces trucages sur Internet doivent apprendre à reconnaître une falsification et, comme le phénomène est encore assez récent, il n’y a que peu de points de référence à leur fournir.

Course technologique

Malgré tout, les solutions existent, comme le programme Mesonet de Vincent Nozick. Elles profitent des limites technologiques actuelles des “deep fake”. “On s’est aperçu, par exemple, que l’observation des yeux a un rôle prépondérant pour la détection du faux”, explique le chercheur du LIGM. Des mouvements ou des clignements d’yeux qui ne seraient pas synchronisés ou trop fréquents trahissent le plus souvent un trucage.

“Mais la recherche dans ce domaine avance très vite”, constate Alan Dolhasz. Les efforts portent sur la synchronisation de la bouche avec la parole, les mouvements des yeux ou encore le lien entre le visage et décor du fond. “Les ‘deep fake’ vont donner lieu à une course technologique entre les faussaires et ceux qui essaient de les contrer”, conclut Alan Dolhasz.

Pour lui, la bataille technologique est perdue d’avance si “les gens veulent croire aux ‘deep fake’”. “S’ils ont confiance dans la personne qui, sur Facebook, leur envoie un lien vers une vidéo truquée, ils seront moins susceptibles de chercher si elle est fausse, c’est ce qui s’est passé avec les ‘fake news’ durant l’élection américaine de 2016”, rappelle ce chercheur.

L’enjeu dépasse même les élections de mi-mandat aux États-Unis. Que se passerait-il si une vidéo truquée dans laquelle un chef d’État déclarait la guerre à un autre pays était diffusée à grande échelle ? Même si un démenti officiel intervenait rapidement, ce genre de “deep fake” pourrait profondément déstabiliser la planète. C’est pourquoi, juge Jean-Michel Morel de l’ENS, le plus important n’est peut-être pas de trouver un antidote technologique, mais “la vraie réponse c'est l'éducation publique, y compris à l'usage et à l'interprétation des médias”.

Première publication : 14/09/2018

  • INTERNET

    "Badnews", le jeu pour devenir un roi des “fake news”

    En savoir plus

  • Découvertes

    Quand les expériences de Facebook aident à propager des "fake news"

    En savoir plus

  • MÉDIAS

    "Fake news" : des scientifiques planchent sur un "vaccin" contre les fausses informations

    En savoir plus

COMMENTAIRE(S)