Rendez-vous

Rejouer


LES DERNIÈRES ÉMISSIONS

LE JOURNAL DE L’AFRIQUE

Le projet de nouvelle Constitution adopté en Conseil des ministres en Côte d'Ivoire

En savoir plus

FOCUS

La France va-t-elle rendre à Alger les crânes d’Algériens du XIXème siècle ?

En savoir plus

À L’AFFICHE !

"Les 7 mercenaires", il était une deuxième fois dans l’Ouest

En savoir plus

FACE À FACE

Les révélations de Buisson, nouveau coup dur pour Sarkozy ?

En savoir plus

LE JOURNAL DE L'ÉCO

Opep : le bras de fer entre l'Arabie saoudite et l'Iran continue

En savoir plus

REVUE DE PRESSE

"Shimon Peres, ou la bataille "domquichottesque" pour la paix"

En savoir plus

REVUE DE PRESSE

"Nicolas Sarkozy, ses amis, ses affaires, ses emmerdes"

En savoir plus

LE JOURNAL DE L’AFRIQUE

Investiture d'Ali Bongo au Gabon , l'opposition dénonce un "coup d'Etat électoral"

En savoir plus

UN ŒIL SUR LES MÉDIAS

Débat Trump vs Clinton : les réactions sur la Toile

En savoir plus

Economie

Tay ou les inévitables dérives racistes de l’intelligence artificielle

© Capture d'écran Twitter | En 24 heures, le "chatbot" de Microsoft a écrit 96 000 tweets.

Texte par Sébastian SEIBT

Dernière modification : 25/03/2016

Les dérapages racistes sur Twitter de Tay, le "chatbot" de Microsoft, ont poussé le géant américain à interrompre l'expérience. Une débâcle qui en dit long sur Internet et la manière de programmer un tel robot conversationnel.

Le rétropédalage a été rapide et les médias du monde entier ont relayé cette débâcle de l’Intelligence artificielle. Microsoft a mis un terme "provisoire", jeudi 24 mars, à l’existence de Tay, son agent conversationnel - ou "chatbot" - censé discuter de la pluie et du beau temps avec les utilisateurs de Twitter. Sauf que ces derniers ont réussi à le rendre raciste et nazi quelques heures seulement après sa "création".

"Hitler n'a rien fait de mal"

Tay a, notamment, été pris en flagrant délit de négationnisme, et n’a pas hésité à mettre les attentats du 11 septembre 2001 sur le dos d’une conspiration juive. La plupart des énormités proférées par cet agent conversationnel sont en fait de simples reprises de phrases écrites par les internautes. En clair, l’utilisateur demande à Tay de répéter et le chatbot s’exécute. "Les agents conversationnels sont souvent conçus à la base pour pouvoir répéter car c’est un élément important du processus d’apprentissage", explique Jean-Gabriel Ganascia, spécialiste de l'intelligence artificielle au laboratoire d’informatique de l’université de Paris VI.

Les conversations précèdent l’essence

Microsoft semble donc avoir été pris à un piège de débutant. Les parents de Tay "ont probablement pêché par excès d’optimisme", soutient le scientifique français. Ils ont agi comme si les internautes n'étaient pas prompts à sauter sur la première occasion de tourner en ridicule un géant du Web. À la décharge de Microsoft, Tay "avait statistiquement peu de chance de tomber sur ce genre de déviance".

Mais une fois cette IA prise dans le piège des racistes ou de ceux qui voulaient la transformer en nazillon virtuel, elle n’a eu que peu de chance d’échapper à son destin. La faute à la manière dont ces agents conversationnels sont conçus. "La personnalité des ces 'chatbots' est façonnée par leurs interactions, c’est sartrien !", assure Jean-Gabriel Ganascia. Pour rappel, l’intellectuel français Jean-Paul Sartre assurait que "l’existence précède l’essence", une manière de dire que ce sont nos choix et nos interactions qui nous définissent.

Paul : "Répète après moi". Tay :"ok".

Le champ lexical des chatbots du type de Tay s’enrichit au fil des discussions. "C’est comparable avec le processus d’acquisition du langage d’un enfant", explique le scientifique français qui a déjà participé à la création de tels agents conversationnels. Si tous ces professeurs sont ou se font passer pour des racistes, il le deviendra à son tour.

Libre de devenir raciste ?

Pour éviter une telle dérive, Microsoft aurait dû "nourrir" Tay d’une liste de mots et de sujets interdits, avant de le lâcher dans la jungle de Twitter. Mettre en place une telle base de données pose un autre type de problème, d’après Jean-Gabriel Ganascia. "Cela signifie que le créateur de l’agent conversationnel s’arroge le droit a priori de décider de ce qui est moralement acceptable", souligne cet expert.

Microsoft avait donc un choix cornélien à faire : se poser en censeur moral ou laisser à Tay la liberté de devenir raciste. Mais il y a aussi une troisième voie que le géant américain semble avoir choisie : laisser Tay faire des erreurs de jeunesse, puis lui apprendre les limites… ne serait-ce qu’en lui "apprenant" qu’il y a des propos illégaux. Le chatbot devrait en effet revenir plus tard "après quelques ajustements".

Première publication : 25/03/2016

  • INTELLIGENCE ARTIFICIELLE

    Go : “AlphaGo a fait preuve de qualités humaines” selon le triple champion de France

    En savoir plus

  • ÉTATS-UNIS

    Les États-Unis admettent qu'une intelligence artificielle peut conduire une voiture

    En savoir plus

  • INTELLIGENCE ARTIFICIELLE

    Une machine qui bat un champion du jeu de go : une prouesse importante et symbolique

    En savoir plus

COMMENTAIRE(S)