Rechercher Annuler

80% des verdicts du tribunal prédit par une intelligence artificielle

De Mickaël - Posté le 25 octobre 2016 à 14h17 dans High-tech

Créée par des chercheurs londoniens, cette intelligence artificielle a la capacité de prédire les verdicts de la Cour européenne des droits de l'homme et elle y arrive à 80% de résultats positifs. Bienvenue dans Minority Report.

Le futur juge pourrait être une intelligence artificielle

L'équipe de développement de cette IA travaille dans le service des sciences informatiques de l'University College London (UCL) et explique que l'intelligence artificielle pourrait devenir le premier juge informatique spécialisé dans les cas de violations des droits de l'homme.

A l'heure actuelle, la machine a tout de même prédit 79% des verdicts sur différents cas où elle a été confrontée :

  • 584 affaires pour violations de l'article 3 (cas de torture ou de traitement dégradant)
  • 8 affaires concernant la vie privée
  • Et 6 sur le droit à un procès équitable.

Un taux de réussite qui conforte les développeurs.

Néanmoins, le responsable du projet, Nikolaos Aletras, déclare que cette intelligence artificielle ne remplacera en aucun cas un juge ou un avocat, mais elle pourra très bien les aider dans des affaires complexes.

Comment cela fonctionne ?

Cette IA ne se base pas complètement sur le code des droits de l'homme, elle prend aussi en compte les jurisprudences et le vocabulaire utilisé par les juges afin de prédire un verdict. De ce fait, elle essaie de comprendre les subtilités de langage, ce qui est une jolie prouesse. 

L'intelligence artificielle donne un coup de main à la justice

Ce n'est pas la première fois qu'une IA est utilisé par la justice. A New York, un cabinet d'avocat à louer les services de Ross, une intelligence artificielle basée sur le programme Watson d'IBM afin de pouvoir aider ses collègues à retrouver dans les archives des fichiers, dossiers et autres éléments pour faire avancer l'affaire.

Ce n'est pas tout puisque d'autres projets sont en train d'émerger pour prédire le taux de récidive des détenus par rapport à leur comportement, mais une enquête avait dénoncé un problème de neutralité envers les Noirs qui étaient perçus comme plus dangereux que les autres personnes.

Une erreur ?

Source(s) : Konbini

Mots-Clés : intelligence artificielleIAjustice

Par Mickaël

Tombé amoureux de l’informatique étant petit avec un Amstrad 6128, je n’ai jamais décroché. Depuis, je me suis diversifié en m’intéressant aux nouvelles technologies et plus particulièrement celle de notre quotidien.

Cliquez sur une phrase de l'article pour proposer une correction.

J'ai compris !

Commentaires (7)

Par Loic, il y a 7 ans :

c'est chaud de se faire juger par des robots où va-t-on ?

Répondre à ce commentaire

Par elwy, il y a 7 ans (en réponse à Loic):

Ils sont 100% objectif au moins :)

Répondre à ce commentaire

Par Zyomega, il y a 7 ans (en réponse à elwy):

Et incorruptible (sauf si tu le hack)

Répondre à ce commentaire

Par murthan, il y a 7 ans :

79% c'est pas 100% ^^, bien sur que ça remplacera jamais un homme pour le boulot, trop de problèmes liés à ça feraient surface

Répondre à ce commentaire

Par Funktastic, il y a 7 ans (en réponse à murthan):

Oui mais rien ne dit que dans les 21% restant le juge avait raison

Répondre à ce commentaire

Par Mougly, il y a 7 ans :

Psycho Pass

Répondre à ce commentaire

Par Error 404 name not found, il y a 7 ans :

Et certains pensent que l'on ne peut pas remplacer les humains xD
Je préféré être jugé par un robot que par des humains qui sont déterminés et qui peuvent être manipulé par leur cerveau (cf vidéo d'E-penser)
Apres Minority Report, c'est pas cool comme monde.

Répondre à ce commentaire

Laisser un commentaire

Votre adresse e-mail ne sera pas visible. Pour avoir une image de profil, utilisez le service gravatar.

Tu es membre premium car tu as commandé une HITEKBOX. Tu peux donc ajouter des smileys et des images.