Rendez-vous

Rejouer


LES DERNIÈRES ÉMISSIONS

À L’AFFICHE !

"8, avenue Lénine" : le parcours du combattant d'une femme rom en France

En savoir plus

FOCUS

La minorité arménienne de Syrie se reconstruit à Erevan

En savoir plus

L'ENTRETIEN

Un juge à la Cour suprême incite les Américains à s'investir dans la vie publique

En savoir plus

EXPRESS ORIENT

Yémen : la guerre décryptée

En savoir plus

FACE À FACE

Le mouvement des "gilets jaunes", entre grogne civile et récupération politique

En savoir plus

L’invité du jour

Titouan Lamazou : "Aller à la rencontre de l'infinie diversité de l'humanité"

En savoir plus

L'ENTRETIEN DE L'INTELLIGENCE ECONOMIQUE

Avec la fonte des glaces, le pôle Nord aiguise les appétits

En savoir plus

L'INFO ÉCO

Budget italien : comment la Bourse réagit-elle ?

En savoir plus

DANS LA PRESSE

"Une offensive américaine contre les entreprises françaises"

En savoir plus

Economie

L'intelligence artificielle inquiète les grands cerveaux contemporains

© ThinkStock | Bill Gates, Elon Musk ou encore Stephen Hawking mettent en garde contre l'intelligence artificielle.

Texte par Sébastian SEIBT

Dernière modification : 02/02/2015

Plusieurs personnalités de renom, comme le multimilliardaire Bill Gates et le très médiatique physicien Stephen Hawking, mettent en garde contre les dangers de l’intelligence artificielle, une avancée qui menacerait l’humanité.

Qu’ont en commun Bill Gates, l’homme le plus riche au monde, Stephen Hawking, le plus célèbre des physiciens et Elon Musk, le roi des voitures électriques et pionnier du tourisme spatial ? Ils craignent tous que l’intelligence artificielle (IA) se transforme en menace pour l’homme.

"Je suis de ceux qui redoutent la montée en puissance des superintelligences et je ne comprends pas qu’on puisse ne pas être inquiet", a, ainsi, affirmé Bill Gates lors d’un échange avec des internautes sur le site Reddit, jeudi 29 janvier. Le fondateur de Microsoft et inventeur de Windows rejoint ainsi un cortège de plus en plus peuplé de personnalités qui mettent en garde contre la montée en puissance des IA.

Fin de l’humanité ?

Stephen Hawking a ouvert le bal des hostilités en novembre 2014. Sur un ton quasi-apocalyptique, il avait assuré à la chaîne britannique BBC que "le développement d’une intelligence artificielle pourrait mettre fin à l’humanité". Clive Sinclair, inventeur britannique et pionnier de l’informatique, voit également l’avenir en noir. "À partir du moment où vous développez des machines qui rivalisent avec l’homme en termes d’intelligence, nous allons avoir du mal à survivre", a-t-il affirmé à la BBC.

Quant à Elon Musk, pour ne pas être en reste dans la guerre des prédictions anxiogènes, il a assuré sur Twitter que l’IA était aussi dangereuse, sinon plus, que "les armes atomiques". Même l’institut américain Future of Life, pourtant ouvert aux innovations technologiques et scientifiques, a publié, mi-janvier, une lettre ouverte cosignée par plusieurs centaines de scientifiques qui appellent à une plus grande vigilance dans la recherche sur l’intelligence artificielle.

Les Terminator - ces robots qui ont pris le pouvoir dans le film éponyme de James Cameron - ne sont pourtant pas aux portes des villes. La montée au créneau des scientifiques et autres pontes des nouvelles technologies vient de ce qu’ils sont les plus exposés "à la prédominance du web dans la vie quotidienne et à un monde qui devient de plus en plus connecté donc vulnérable", analyse Peter Ford Dominey, chercheur au CNRS spécialiste des robots et de l’étude du cerveau.

Quand les robots traders dérapent

"Ce qui a, aussi, mis la puce à l’oreille de beaucoup, c’est le travail des robots traders", ajoute Jean-Michel Besnier, philosophe et chercheur au CNRS spécialiste des problématiques liées à l’intelligence artificielle. Les transactions financières par algorithme assisté - le fondement du trading à haute fréquence - ont déjà causé en mai 2010 un crash à la bourse de New York. Pour Peter Ford Dominey, "ces formes assez simples d’intelligence artificielle peuvent entraîner des problèmes sérieux" capables d’affecter l’économie réelle.

Qu’adviendra-t-il lorsque l’intelligence artificielle sera en mesure de prendre des initiatives plus complexes que de décider d’acheter ou vendre des actions ? L’idée d’un système entièrement automatisé qui gèrerait les infrastructures critiques d’un pays a, pour ces chercheurs, de quoi faire froid dans le dos. "Je souscris pleinement à l’appel à la vigilance des scientifiques et autres personnalité s’il s’agit de mettre en garde contre une dominance de l’algorithme [dans le processus de prise de décision, NDLR]", précise Jean-Michel Besnier.

Le spectre d’une "intelligence non-biologique" - comme l’ordinateur de bord du vaisseau dans "2001 : l’Odyssée de l’espace" - qui reléguerait l’homme au second plan relève davantage de la science-fiction pour ces scientifiques.

Les vrais Terminator seraient plutôt des petits bouts de code qui, sous prétexte de simplifier la vie de tout un chacun, priverait l’homme de prises d’initiative. En ce sens, comme le souligne le quotidien "Les Echos", les sorties de Bill Gates ou d’Elon Musk pourraient être autant de critiques dissimulées de Google. Entre son initiative en faveur des voitures sans conducteur et sa frénésie de rachat des sociétés spécialisées dans l’IA (Dark Blue Labs et Vision Factory), le géant de l’Internet paverait l’enfer de bonnes intentions numériques.

Remède à la pauvreté

Mais ce n’est pas, pour autant, une raison pour mettre le holà à toute recherche dans ce domaine, jugent ces spécialistes. "Je ne suis pas de ceux qui croient que la technologie a tendance à s’auto-améliorer toute seule et à croître sans contrôle possible", assure Jean-Michel Besnier. Il suffit de mettre en place les garde-fous à temps.

"Toute technologie à risque, comme le nucléaire ou les OGM, sont soumises à une réflexion sérieuse menée par les politiques et la société civile", rappelle le chercheur Peter Ford Dominey. Il doit en être de même, d’après lui, pour l’intelligence artificielle.

Reste que l’IA, contrairement à l’arme nucléaire, n’est pas intrinsèquement dangereuse. "Le risque provient des responsabilités que nous donnons aux machines", précise Peter Ford Dominey. Dans sa lettre ouverte, l’institut Future for Life souligne d’ailleurs que le risque peut être une chance si la recherche est bien orientée. "Les bénéfices sont énormes puisque l’intelligence artificielle pourrait permettre de trouver des solutions à la pauvreté et mettre au point des remèdes pour la plupart des maladies", assurent les scientifiques qui ont rédigé ce texte. Après tout, si Stephen Hawking a pu lancer son appel à la vigilance, c’est en partie grâce à un ordinateur très avancé qui permet à ce physicien atteint de la maladie de Charcot de s’exprimer.

Première publication : 02/02/2015

  • ISRAËL

    L'astrophysicien Stephen Hawking crée un Big Bang en boycottant Israël

    En savoir plus

  • ÉCONOMIE

    Bill Gates : "En 2035, il n'y aura presque plus de pays pauvres"

    En savoir plus

COMMENTAIRE(S)