Rendez-vous

Rejouer


LES DERNIÈRES ÉMISSIONS

UN ŒIL SUR LES MÉDIAS

Miss Terre : la Libanaise disqualifiée à cause d'un cliché

En savoir plus

UNE SEMAINE DANS LE MONDE

Disparition de Jamal Khashoggi : menaces sur la presse

En savoir plus

LE PARIS DES ARTS

Le Paris des Arts d'Arthur Jugnot

En savoir plus

L'INVITÉ DE L'ÉCO

Art contemporain en banlieue : "Ce qui nous intéresse, c'est la mixité du public"

En savoir plus

#ActuElles

Élections de mi-mandat aux Etats-Unis : un nombre record de femmes candidates

En savoir plus

LA SEMAINE DE L'ECO

Brexit : le casse-tête de la frontière irlandaise

En savoir plus

LA SEMAINE DE L'ECO

Burn-out : les absurdités du management moderne

En savoir plus

TECH 24

Femmes dans la tech : comment briser le "clic" de verre

En savoir plus

VOUS ÊTES ICI

La pêche, une tradition familiale au Grau-du-Roi

En savoir plus

Découvertes

Norman, l’intelligence artificielle biberonnée à la morbidité et devenue en toute logique une psychopathe

© MIT | Une photo-concept de Norman, l'intelligence artificielle entraînée pour devenir sociopathe.

Texte par Marine BENOIT

Dernière modification : 08/06/2018

Des chercheurs du MIT sont parvenus à concevoir une intelligence artificielle hautement perturbée en ne la mettant qu'au contact d'images sordides. Ils entendaient ainsi démontrer qu'utilisé à mauvais escient, le deep learning pouvait s'avérer dangereux.

Il fut un temps, dans les années 1990, où les jeux vidéo violents étaient accusés de rendre, dans la vraie vie, leur public violent à son tour. Fort heureusement, cette thèse fut réfutée par de nombreuses études, qui ont démontré que ce type de divertissement n’encourageait en rien une augmentation de la brutalité chez l’Homme (au contraire, il aurait plutôt tendance à la canaliser).

VOIR AUSSI : Le MIT a créé une intelligence artificielle pour nous faire peur : la machine à cauchemars

On ne pourra pas en dire de même lorsqu’il s’agit d’exposer une intelligence artificielle à des contenus dérangeants. Norman, un réseau de neurones développé par le MIT Lab, en est la preuve. Inspiré de Norman Bates, le psychopathe du "Psychose" d’Alfred Hitchcock, il s’apparente à un algorithme de reconnaissance visuelle – une forme d’IA courante –, entraîné à écrire les légendes d’images à partir d’une vaste base de visuels eux-aussi commentés.

Norman a été plongé dans les méandres d'une iconographie documentant la mort, dans ses formes les plus troublantes

Mais Norman n’a pas réalisé son apprentissage n’importe où. Les chercheurs du MIT l’ont plongé dans les méandres d’un subreddit morbide, dédié à toute une iconographie documentant la mort, dans ses formes les plus troublantes (pour des raisons évidentes, l’équipe n’a pas souhaité dévoiler de quel sous-forum il s'agissait). Une fois prêt, Norman a été soumis à un test "psychologique" classique, qui consistait à donner son interprétation de tâches d’encre de Rorschach, célèbres outils cliniques s’appuyant sur le principe de la libre interprétation des images.

Parallèlement, une autre intelligence artificielle spécialisée dans le sous-titrage de visuels, entraînée, elle, de manière plus standard (c’est-à-dire sur l'ensemble de données MS COCO), a subi le même test de Rorschach. L’idée était ainsi de comparer leur évaluation psychologique respective, et de tenter de savoir à quel point la "psyché" d’une IA pouvait être biaisée en fonction de son apprentissage.

Les résultats parlent d’eux-mêmes.

La vision de l'IA "standard" : "Un groupe d'oiseaux accrochés au sommet de la branche d'un arbre."
La vision de Norman : "Un homme est électrocuté et tué."

La vision de l'IA "standard" : "Une photo en noir et blanc d'un petit oiseau."
La vision de Norman : "Un homme qui s'est fait happer dans une machine à pétrir."

La vision de l'IA "standard" : "Une personne tenant un parapluie en l'air."
La vision de Norman : "Un homme tué par balle devant sa femme hurlante."

Cette étude démontre à quel point les contextes d’apprentissage des intelligences artificielles, qui seront sans aucun doute omniprésentes dans la société de demain (si l’on considère que ce n’est pas déjà le cas), sont d’une importance capitale dans leur bon fonctionnement.

Elle souligne surtout un principe fondamental de la robotique, qui n’est plus ignoré de personne : le danger ne réside pas dans la multiplication et le perfectionnement des intelligences artificielles, mais bien dans la manière dont elles seront exploitées par l’homme. Ce qui ne peut que m'amener à vous recommander la lecture de cet article : "Que doit-on craindre le plus : l’intelligence artificielle ou la bêtise humaine ?"

Quelque chose à ajouter ? Dites-le commentaire.

Première publication : 08/06/2018