Une centaine d'experts dont Elon Musk demande aux Nations Unies de bannir les robots tueurs
Dans une lettre ouverte destinée à l'Organisation des Nations Unies, un groupe d'experts en robotique parmi lesquels Elon Musk demande le bannissement des robots tueurs autonomes.
116 experts contre les armes autonomes
Il est de notoriété publique que le PDG de Tesla et Space X, Elon Musk, est très prudent en ce qui concerne l'intelligence artificielle comme le montre son échange sur le sujet avec Mark Zuckerberg le mois dernier.
Cette fois, le milliardaire a décidé de partir en croisade contre les robots tueurs autonomes et, pour cela, il vient d'adresser, avec un groupe de 115 experts, une lettre ouverte à l'ONU dans laquelle son groupe demande à ce que toute arme létale autonome soit interdite. La lettre en question a été rendue publique hier, au moment de l'ouverture de la conférence mondiale sur l'intelligence artificielle.
Le terme d'arme létale autonome dont il est question ici concerne les drones, chars d’assaut et autres mitrailleuses automatiques pour ne citer qu'elles. En somme, toute arme pouvant ouvrir le feu sans intervention humaine.
Les différents spécialistes ne sont pas sans savoir qu'une utilisation de ce type d'armes létales est envisageable et s'inquiètent donc de la manière dont elles pourraient être utilisées comme l'explique le professeur Toby Walsh, chercheur à l'université de Sidney :
Ces armes peuvent créer la terreur si des tyrans ou des terroristes les utilisent contre la population civile.
Pas la première lettre
Ce n'est pas la première fois qu'Elon Musk soutient une action de ce genre. Déjà en 2015, une lettre signée conjointement par Steve Wozniak, Toby Walsh et Stephen Hawking pour ne citer qu'eux, alertait sur les dangers des armes létales autonomes. Ladite lettre avait alors été rejetée par l'organisme internationale qui déclarait que "les lois humanitaires internationales était suffisantes pour gérer ce domaine."
A l'heure actuelle, le plus gros problème concernant ces armes réside dans le fait qu'elles sont, pour l'immense majorité d'entre elles, encore au stade de prototype et qu'il semble difficile d'estimer leur fiabilité. Le risque est alors de voir des "intelligences artificielles stupides" contrôler des armes comme l'explique le professeur Walsh.
Il semble donc qu'un consensus semble difficilement envisageable entre les différents partis. Reste désormais à savoir si une prise de conscience aura eu lieu avant d'ouvrir la boîte de Pandore.
le seul risque c'est d'inventer une IA qui pensent par elle même, qui évolue toute seul, qui peut apprendre et comprendre d'elle même
a l'heure actuelle une IA c'est juste un programme qui fait simplement ce qu'on lui demande ...
Donc c'est pas forcement contre l' IA en elle meme et ses possibilité d' evolution qu' il faut se concentrer mais sur le fait de creer des armes suffisament "intelligente" pour etre utiliser par une seule personne contre des milliers sans aucunes retenue.
La justice et la morale, ça ne se code pas.
On n'instruit pas un robot à abattre un tel plus qu'un autre.
On laisse ces décisions à l'Homme.
Tu prends l'exemple de Stanislav Petrov : on serait tous crevés si on avait laissé le plein pouvoir à une iA.
Y'a Que Des Fist 2 But Qui Puissent Inventer 1 Truc Comme ça !!!
Musk C tres bien qu'une telle arme pourra etre employé dans la haute finance pour se debarasser 2 la concurrence gênante,,,, en toute impunité, vu quelle est autonome !!!