Accéder au contenu principal

L’intelligence artificielle à but militaire cible d'une attaque en règle

Photo d'un bras du "Terminator", film éponyme de James Cameron.
Photo d'un bras du "Terminator", film éponyme de James Cameron. Mark Ralston, AFP

Plusieurs milliers de chercheurs et personnalités de renom, dont le célèbre physicien Stephen Hawking, ont lancé un appel, mardi, pour mettre en garde contre les dangers de l’intelligence artificielle utilisée à but militaire.

Publicité

Les progrès de l’intelligence artificielle inquiètent les grands cerveaux. Dans une lettre ouverte, publiée mardi 28 juillet, plus de 12 000 personnes, dont de très nombreux chercheurs en intelligence artificielle et des personnalités de renom, ont lancé un appel pour l'interdiction des armes offensives autonomes, capables de "choisir et frapper des cibles sans intervention humaine".

Parmi les signataires les plus célèbres, Stephen Hawking, le plus célèbre des physiciens, et Elon Musk, roi des voitures électriques Tesla et pionnier du tourisme spatial, qui avaient déjà exprimé leurs inquiétudes à ce sujet par le passé. S’y ajoutent l’intellectuel Noam Chomsky, le prix Nobel de physique Frank Wilczek, le cofondateur d'Apple, Steve Wozniak, ou encore le cofondateur de Skype, Jaan Tallinn.

Tuer sans contrôle humain

Le texte, publié durant la Conférence internationale sur l'intelligence artificielle (IJCAI) à Buenos Aires, sonne comme une mise en garde : "La technologie de l'intelligence artificielle a atteint un point où le déploiement de ces systèmes est, pratiquement sinon légalement, faisable non dans les décennies mais dans les années à venir. (...) Elles ont été décrites comme la troisième révolution dans la pratique de la guerre, après la poudre et les armes nucléaires."

Ces robots tueurs, qui pourraient prendre la décision de tuer sans contrôle humain, à la différence des drones télécommandés pour lesquels une intervention humaine reste nécessaire, inquiètent de plus en plus l'ONU, les scientifiques et défenseurs des droit de l'Homme. La principale crainte : que ces robots ne soient pas capables de faire la différence entre civils et combattants ou programment des attaques aux effets disproportionnés sur les populations.

>> À lire sur France 24 : "L’armée américaine prévoit d’équiper ses snipers de munitions intelligentes"

D'un point de vue militaire, ces armes du futur présentent l'avantage de réduire le risque de pertes humaines sur le champ de bataille, mais elles "abaissent aussi le coût d'un engagement au combat" et laissent présager une nouvelle course aux armements, relèvent les signataires. Contrairement aux armes nucléaires, dénoncent les chercheurs dans leur lettre, celles-ci "ne nécessitent pas de coûteux investissements ou des matières premières difficiles à obtenir (...) Ce ne sera qu'une question de temps avant qu'elles n'apparaissent sur le marché noir et entre les mains de terroristes, de dictateurs (...) et de seigneurs de la guerre voulant perpétrer un nettoyage ethnique, etc."

Responsabilités

Mais les signataires rappellent que l’intelligence artificielle peut être une chance si elle est bien orientée : elle "offre un grand potentiel pour le bénéfice de l'humanité". Pour cela, elle ne doit pas être "discréditée", notamment aux yeux du grand public, par la conception d'armes offensives, insistent-ils.

Les signataires ont envoyé leur mise en garde à l'ONU alors qu’aucun cadre juridique adapté n’existe à ce jour. En avril, l’ONG Human Rights Watch avait justement dénoncé "l’absence de responsabilité légale" des robots tueurs.

>> À lire sur France 24 : "La Norvège ne veut pas stopper les 'robots tueurs'"

Une interdiction d'armes qui n'existent pas encore ne serait pas sans précédent. En 1998, les lasers aveuglants avaient été interdits avant même d'avoir été développés à grande échelle.

Avec AFP

Page non trouvée

Le contenu auquel vous tentez d'accéder n'existe pas ou n'est plus disponible.