Rendez-vous

Rejouer


LES DERNIÈRES ÉMISSIONS

UN ŒIL SUR LES MÉDIAS

Mort d'Adama Traore : La troisième autopsie n'aura pas lieu

En savoir plus

UNE SEMAINE DANS LE MONDE

Hillary Clinton, la candidate démocrate à la Maison Blanche

En savoir plus

UNE SEMAINE DANS LE MONDE

Attaques terroristes en Europe, quelles solutions face à la menace ?

En savoir plus

REPORTERS

Vidéo : les Jeux olympiques des réfugiés

En savoir plus

L'ENTRETIEN

"Le vrai antidote contre l’EI, c’est la culture"

En savoir plus

7 JOURS EN FRANCE

Les toits de Paris, un trésor entre ciel et terre

En savoir plus

À L’AFFICHE !

Athènes, la culture plus forte que la crise

En savoir plus

LE JOURNAL DE L'ÉCO

EDF adopte le projet d'EPR à Hinkley Point, Londres temporise

En savoir plus

LE DÉBAT

Hillary Clinton peut-elle conquérir la Maison Blanche ? (partie 1)

En savoir plus

Economie

Tay ou les inévitables dérives racistes de l’intelligence artificielle

© Capture d'écran Twitter | En 24 heures, le "chatbot" de Microsoft a écrit 96 000 tweets.

Texte par Sébastian SEIBT

Dernière modification : 25/03/2016

Les dérapages racistes sur Twitter de Tay, le "chatbot" de Microsoft, ont poussé le géant américain à interrompre l'expérience. Une débâcle qui en dit long sur Internet et la manière de programmer un tel robot conversationnel.

Le rétropédalage a été rapide et les médias du monde entier ont relayé cette débâcle de l’Intelligence artificielle. Microsoft a mis un terme "provisoire", jeudi 24 mars, à l’existence de Tay, son agent conversationnel - ou "chatbot" - censé discuter de la pluie et du beau temps avec les utilisateurs de Twitter. Sauf que ces derniers ont réussi à le rendre raciste et nazi quelques heures seulement après sa "création".

"Hitler n'a rien fait de mal"

Tay a, notamment, été pris en flagrant délit de négationnisme, et n’a pas hésité à mettre les attentats du 11 septembre 2001 sur le dos d’une conspiration juive. La plupart des énormités proférées par cet agent conversationnel sont en fait de simples reprises de phrases écrites par les internautes. En clair, l’utilisateur demande à Tay de répéter et le chatbot s’exécute. "Les agents conversationnels sont souvent conçus à la base pour pouvoir répéter car c’est un élément important du processus d’apprentissage", explique Jean-Gabriel Ganascia, spécialiste de l'intelligence artificielle au laboratoire d’informatique de l’université de Paris VI.

Les conversations précèdent l’essence

Microsoft semble donc avoir été pris à un piège de débutant. Les parents de Tay "ont probablement pêché par excès d’optimisme", soutient le scientifique français. Ils ont agi comme si les internautes n'étaient pas prompts à sauter sur la première occasion de tourner en ridicule un géant du Web. À la décharge de Microsoft, Tay "avait statistiquement peu de chance de tomber sur ce genre de déviance".

Mais une fois cette IA prise dans le piège des racistes ou de ceux qui voulaient la transformer en nazillon virtuel, elle n’a eu que peu de chance d’échapper à son destin. La faute à la manière dont ces agents conversationnels sont conçus. "La personnalité des ces 'chatbots' est façonnée par leurs interactions, c’est sartrien !", assure Jean-Gabriel Ganascia. Pour rappel, l’intellectuel français Jean-Paul Sartre assurait que "l’existence précède l’essence", une manière de dire que ce sont nos choix et nos interactions qui nous définissent.

Paul : "Répète après moi". Tay :"ok".

Le champ lexical des chatbots du type de Tay s’enrichit au fil des discussions. "C’est comparable avec le processus d’acquisition du langage d’un enfant", explique le scientifique français qui a déjà participé à la création de tels agents conversationnels. Si tous ces professeurs sont ou se font passer pour des racistes, il le deviendra à son tour.

Libre de devenir raciste ?

Pour éviter une telle dérive, Microsoft aurait dû "nourrir" Tay d’une liste de mots et de sujets interdits, avant de le lâcher dans la jungle de Twitter. Mettre en place une telle base de données pose un autre type de problème, d’après Jean-Gabriel Ganascia. "Cela signifie que le créateur de l’agent conversationnel s’arroge le droit a priori de décider de ce qui est moralement acceptable", souligne cet expert.

Microsoft avait donc un choix cornélien à faire : se poser en censeur moral ou laisser à Tay la liberté de devenir raciste. Mais il y a aussi une troisième voie que le géant américain semble avoir choisie : laisser Tay faire des erreurs de jeunesse, puis lui apprendre les limites… ne serait-ce qu’en lui "apprenant" qu’il y a des propos illégaux. Le chatbot devrait en effet revenir plus tard "après quelques ajustements".

Première publication : 25/03/2016

  • INTELLIGENCE ARTIFICIELLE

    Go : “AlphaGo a fait preuve de qualités humaines” selon le triple champion de France

    En savoir plus

  • ÉTATS-UNIS

    Les États-Unis admettent qu'une intelligence artificielle peut conduire une voiture

    En savoir plus

  • INTELLIGENCE ARTIFICIELLE

    Une machine qui bat un champion du jeu de go : une prouesse importante et symbolique

    En savoir plus

COMMENTAIRE(S)