Une centaine d'experts dont Elon Musk demande aux Nations Unies de bannir les robots tueurs

21 août 2017 à 17h40 dans Science

Dans une lettre ouverte destinée à l'Organisation des Nations Unies, un groupe d'experts en robotique parmi lesquels Elon Musk demande le bannissement des robots tueurs autonomes.

Une centaine d

116 experts contre les armes autonomes

Il est de notoriété publique que le PDG de Tesla et Space X, Elon Musk, est très prudent en ce qui concerne l'intelligence artificielle comme le montre son échange sur le sujet avec Mark Zuckerberg le mois dernier.

Cette fois, le milliardaire a décidé de partir en croisade contre les robots tueurs autonomes et, pour cela, il vient d'adresser, avec un groupe de 115 experts, une lettre ouverte à l'ONU dans laquelle son groupe demande à ce que toute arme létale autonome soit interdite. La lettre en question a été rendue publique hier, au moment de l'ouverture de la conférence mondiale sur l'intelligence artificielle.

Le terme d'arme létale autonome dont il est question ici concerne les drones, chars d’assaut et autres mitrailleuses automatiques pour ne citer qu'elles. En somme, toute arme pouvant ouvrir le feu sans intervention humaine.

Les différents spécialistes ne sont pas sans savoir qu'une utilisation de ce type d'armes létales est envisageable et s'inquiètent donc de la manière dont elles pourraient être utilisées comme l'explique le professeur Toby Walsh, chercheur à l'université de Sidney :

Ces armes peuvent créer la terreur si des tyrans ou des terroristes les utilisent contre la population civile

alw

Pas la première lettre

Ce n'est pas la première fois qu'Elon Musk soutient une action de ce genre. Déjà en 2015, une lettre signée conjointement par Steve Wozniak, Toby Walsh et Stephen Hawking pour ne citer qu'eux, alertait sur les dangers des armes létales autonomes. Ladite lettre avait alors été rejetée par l'organisme internationale qui déclarait que "les lois humanitaires internationales était suffisantes pour gérer ce domaine."

A l'heure actuelle, le plus gros problème concernant ces armes réside dans le fait qu'elles sont, pour l'immense majorité d'entre elles, encore au stade de prototype et qu'il semble difficile d'estimer leur fiabilité. Le risque est alors de voir des "intelligences artificielles stupides" contrôler des armes comme l'explique le professeur Walsh.

Il semble donc qu'un consensus semble difficilement envisageable entre les différents partis. Reste désormais à savoir si une prise de conscience aura eu lieu avant d'ouvrir la boîte de Pandore.

Source(s) : Mashable
count
Commentaires (11)
Ridicule, on est pas dans Terminator
photo de profil de morgath Par morgath, il y a 7 ans Répondre
Ridicule ? le jour ou ou l'.I.A. verra le jour et que la machine prendra le dessus, tu rigolera moins :)
photo de profil de Necrose Par Necrose, il y a 7 ans (en réponse à morgath) Répondre
les cerveaux d'IA ne marcherons jamais comme des cerveaux humain, du moins on en est loin.

le seul risque c'est d'inventer une IA qui pensent par elle même, qui évolue toute seul, qui peut apprendre et comprendre d'elle même

a l'heure actuelle une IA c'est juste un programme qui fait simplement ce qu'on lui demande ...
photo de profil de Aqrave Par Aqrave, il y a 7 ans (en réponse à Necrose) Répondre
Effectivement, c'est donc la le probleme.Elle feras ce qu' on lui demande sans sourciller et sans faillir.Nous seront donc entierement a la merci d' un cerveau humain unique avec asser de pouvoir pour agir sur des milliers d' autre humains et d' imposer par la force sans aucunes contremesure puisque ces armes seront docile et sans sentiments.

Donc c'est pas forcement contre l' IA en elle meme et ses possibilité d' evolution qu' il faut se concentrer mais sur le fait de creer des armes suffisament "intelligente" pour etre utiliser par une seule personne contre des milliers sans aucunes retenue.
photo de profil de Grunge Par Grunge, il y a 7 ans (en réponse à Aqrave) Répondre
Au contraire, le danger, c'est justement de laisser un programme à la con "qui ne fait simplement ce qu'on lui dit" s'armer d'une mitrailleuse ou de missiles.
La justice et la morale, ça ne se code pas.
On n'instruit pas un robot à abattre un tel plus qu'un autre.
On laisse ces décisions à l'Homme.


Tu prends l'exemple de Stanislav Petrov : on serait tous crevés si on avait laissé le plein pouvoir à une iA.
photo de profil de Yoplay Par Yoplay, il y a 7 ans (en réponse à Aqrave) Répondre
"The singularity is near"
photo de profil de Saitama Par Saitama, il y a 7 ans Répondre
UNE ARME AUT0N0ME ???
Y'a Que Des Fist 2 But Qui Puissent Inventer 1 Truc Comme ça !!!
Musk C tres bien qu'une telle arme pourra etre employé dans la haute finance pour se debarasser 2 la concurrence gênante,,,, en toute impunité, vu quelle est autonome !!!
photo de profil de Proof Par Proof, il y a 7 ans (en réponse à Saitama) Répondre
Ben dans la mesure d'éviter tout incident oui, mais il me semble que les tourelles automatiques devraient êtres utiliser pour intercepter des missiles et autres projectiles aussi, là où les réflexes humains sont pas assez rapides.
photo de profil de Lockhy Par Lockhy, il y a 7 ans Répondre
Des tourelles ou missiles, ce n'est pas humain, ya aucune polémique la dessus
photo de profil de Medical Fried Chicken Par Medical Fried Chicken, il y a 7 ans (en réponse à Lockhy) Répondre
En fait c'est déjà le cas sur bon nombre de bâtiments navals. Ils ont des mitrailleuses autonomes qui sont activées lorsqu'un missile est en approche pour le neutraliser avant qu'il ne frappe. Par contre je pense qu'il y a quand même une personne humaine derrière pour enclencher le tir, mais c'est un ordinateur qui vise et repère les cibles.
photo de profil de Pioux57 Par Pioux57, il y a 7 ans (en réponse à Lockhy) Répondre
bonne idée elon bien vu ^^ enfin un qui se réveille
photo de profil de merlin Par merlin, il y a 7 ans Répondre
Laisser un commentaire

Vous répondez à . Annuler