Tech 24

Deepfakes audio : une nouvelle arnaque qui donne de la voix

#TECH24
#TECH24 © France24

En pleine pandémie et à quelques jours de l'élection présidentielle américaine, les deepfakes audio, ces reproductions factices des voix explosent sur le Web. Elles permettent de faire dire n'importe quoi à n'importe qui. Mais comment s'informer lorsqu'on ne peut plus croire ce que l'on entend ou ce que l'on voit ?

Publicité

Alors que ces sons falsifiés pourraient venir perturber la fin de campagne, nos correspondants en Californie ont enquêté pour #Tech24. Ils sont allé à la rencontre de ces entreprises qui font du faux et usage de faux avec nos voix. Reportage.

Mais le détournement audio peut aussi être un objet de recherche et de création. Guillaume Grallet nous explique la démarche de l'Ircam, à Paris : l'institut développe des outils pour faire revivre les voix du passé, comme celle de Marilyn Monroe, ainsi qu'une librairie sonore pour récréer des voix en temps réel.

Vous avez aimé les deepfakes vidéo et audio ? Vous allez adorer les "fake faces" : des visages que l'on croirait plus vrais que nature, mais qui n'existent tout simplement pas. Débrief.

Et dans Test24 : une surface anti-Covid, c'est possible ? Essais avec la start-up toulousaine Pylote. Cela fait 10 ans qu'elle développe des solutions contre les virus. Elle lance un film transparent qui agit comme un bouclier qui protège toutes les surfaces. Tables, poignées de porte ou barres de métro : l'adhésif détruit les micro-organismes, sans le moindre danger pour l'homme. L'entreprise promet que l'effet de son produit dure près de quatre ans ! Démonstration.

 

Le résumé de la semaineFrance 24 vous propose de revenir sur les actualités qui ont marqué la semaine