80% des verdicts du tribunal prédit par une intelligence artificielle
Créée par des chercheurs londoniens, cette intelligence artificielle a la capacité de prédire les verdicts de la Cour européenne des droits de l'homme et elle y arrive à 80% de résultats positifs. Bienvenue dans Minority Report.
Le futur juge pourrait être une intelligence artificielle
L'équipe de développement de cette IA travaille dans le service des sciences informatiques de l'University College London (UCL) et explique que l'intelligence artificielle pourrait devenir le premier juge informatique spécialisé dans les cas de violations des droits de l'homme.
A l'heure actuelle, la machine a tout de même prédit 79% des verdicts sur différents cas où elle a été confrontée :
- 584 affaires pour violations de l'article 3 (cas de torture ou de traitement dégradant)
- 8 affaires concernant la vie privée
- Et 6 sur le droit à un procès équitable.
Un taux de réussite qui conforte les développeurs.
Néanmoins, le responsable du projet, Nikolaos Aletras, déclare que cette intelligence artificielle ne remplacera en aucun cas un juge ou un avocat, mais elle pourra très bien les aider dans des affaires complexes.
Comment cela fonctionne ?
Cette IA ne se base pas complètement sur le code des droits de l'homme, elle prend aussi en compte les jurisprudences et le vocabulaire utilisé par les juges afin de prédire un verdict. De ce fait, elle essaie de comprendre les subtilités de langage, ce qui est une jolie prouesse.
L'intelligence artificielle donne un coup de main à la justice
Ce n'est pas la première fois qu'une IA est utilisé par la justice. A New York, un cabinet d'avocat à louer les services de Ross, une intelligence artificielle basée sur le programme Watson d'IBM afin de pouvoir aider ses collègues à retrouver dans les archives des fichiers, dossiers et autres éléments pour faire avancer l'affaire.
Ce n'est pas tout puisque d'autres projets sont en train d'émerger pour prédire le taux de récidive des détenus par rapport à leur comportement, mais une enquête avait dénoncé un problème de neutralité envers les Noirs qui étaient perçus comme plus dangereux que les autres personnes.
Je préféré être jugé par un robot que par des humains qui sont déterminés et qui peuvent être manipulé par leur cerveau (cf vidéo d'E-penser)
Apres Minority Report, c'est pas cool comme monde.