Rendez-vous

Rejouer


LES DERNIÈRES ÉMISSIONS

DANS LA PRESSE

"Daphne Caruana Galizia, assassinée il y a un an"

En savoir plus

LE JOURNAL DE L’AFRIQUE

Elections locales en Côte d'Ivoire : bras de fer entre le PDCI et le RHDP

En savoir plus

LE DÉBAT

Inondations en France : plusieurs morts dans l'Aude

En savoir plus

LES OBSERVATEURS

Le vélo de retour à Cuba et les entrepreneurs burundais en province qui innovent

En savoir plus

À L’AFFICHE !

Mo'Kalamity, ambassadrice capverdienne d'un reggae conquérant

En savoir plus

FOCUS

En Californie, une croisade anti-avortement après une décision de la Cour suprème

En savoir plus

L'ENTRETIEN

Adlène Méddi : "1994, une année de basculement en Algérie"

En savoir plus

DEMAIN À LA UNE

Égypte : nouveau procès pour Ahmed Douma, icône de la révolution

En savoir plus

DEMAIN À LA UNE

L'enjeu sécuritaire des législatives en Afghanistan

En savoir plus

Découvertes

La police d'une ville britannique va utiliser une intelligence artificielle pour évaluer le degré de culpabilité des détenus

© Bloomberg/Getty | La police de la ville de Durham va devoir coponser avec l'ingérence d'une AI.

Texte par Benjamin BRUEL

Dernière modification : 11/05/2017

Au Royaume-Uni, la police de la ville de Durham devrait bientôt s'appuyer sur une intelligence artificielle pour aider la police et la justice à déterminer que faire avec les détenus.

La police de la ville de Durham, au nord-est de l’Angleterre, s’apprête à collaborer avec une intelligence artificielle. Celle-ci sera en charge de déterminer si un suspect doit rester en détention ou non, rapporte la BBC le mercredi 10 mai.

VOIR AUSSI : Comment l'intelligence artificielle reproduit les stéréotypes raciaux

Prénommée Hart, l’acronyme de Harm Assessment Risk Tool (Outil d’évaluation des risques de nuisance), cette IA a été conçue pour classer les individus en fonction des risques qu’ils pourraient représenter pour la communauté. La police prévoit de tester son efficacité en condition réelles dans les prochains mois, notamment dans des cas où la justice britannique ne parvient pas à statuer pleinement sur la sanction à appliquer à un détenu.

Le travail effectué par cette intelligence artificielle pourrait rapidement prendre différentes formes si son efficacité est prouvée : Hart devrait être en mesure, par exemple, de déterminer si un suspect doit être gardé en détention plus longtemps ou si la caution exigée par la justice doit être demandée avant ou après qu’une charge ne soit retenue.  

Des données, encore des données

La grande inconnue, c'est évidemment la manière dont l’IA prendra ses décisions et si celles-ci seront fiables. Selon la radio britannique, les choix faits par Hart seront fondés sur les données recueillies par la police entre 2008 et 2013. Parmi ces dernières, on retrouve l’historique criminel local, la sévérité de la jurisprudence envers tel ou tel crime et le niveau de risque de fuite du suspect sitôt sa libération actée.

Les IA utilisées aux États-Unis ont deux fois plus de chance de considérer comme coupable un homme noir

Les tout premiers tests ont eu lieu en 2013 avec un certain nombre de détenus. Durant deux années, Hart a recueilli les attitudes des captifs avant de délivrer ses résultats qui n'ont eu aucun impact judiciaire. Concernant les profils "à bas risque", selon la classification de la police, ses résultats ont été à 98 % exacts. Pour les profils "à haut risque", ils furent à 88 % corrects. Ce qui laisse donc 12 % de marge d’erreur pour les détenus les plus dangereux. Autre problème de la classification criminelle par les données : Hart aura beaucoup moins de chances de classer un individu "à haut risque" si son historique judiciaire est faible, quelle que soit la gravité du crime pour lequel il est accusé.

Deux fois plus de chance de juger un homme noir coupable

Hart est l'un des nombreux algorithmes et outils de prévision utilisés par les forces de police et les systèmes judiciaires à travers le monde. Ce type d’outil peut évidemment apporter une forme d’objectivité, grâce aux chiffres et aux données, mais les IA sont loin d’être infaillibles et peuvent aussi prendre des décisions biaisées.

Dans une enquête approfondie réalisée par le site ProPublica en 2016, les journalistes ont prouvé que les IA réalisent des analyses de risques avec de lourds préjugés, calqués sur ceux des hommes. Selon ProPublica, celles utilisées aux États-Unis ont deux fois plus de chances de considérer comme coupable ou "à haut risque" un homme noir. A contrario, un homme blanc aura deux fois moins de chances d'être jugé comme tel... et de ne pas être condamné.

Quelque chose à ajouter ? Dites-le en commentaire.

Première publication : 11/05/2017