Tout a commencé avec la mort d'un Afro-Américain, tué par des policiers. La vidéo, relayée sur les réseaux sociaux, a à nouveau pointé du doigt les morts raciales aux Etats-Unis, et provoqué des émeutes sous le slogan "Black Lives Matters", avant que cela ne dégénère avec des tirs de snipers visant les policiers. Finalement, un robot a été envoyé afin d'abattre le suspect. A présent, une nouvelle question se pose : "à quel point peut-on se fier aux robots pour accomplir le travail d'un être humain ?"
Une première utilisation "civile"
Si il s'agit de la première fois qu'un robot est chargé de faire le travail de la police, dans ce genre de cas, son utilisation est très répandue dans l'armée. En effet, les troupes basées en Irak ont déjà recours à ce genre d'artifice, en usant d'un robot nommé Marcbot, afin d'éliminer des cibles bien trop dangereuses pour y envoyer des soldats.
Il ne s'agit pas, toutefois, d'un robot de ce type qui a abattu Micah Johnson, la personne suspectée d'avoir tiré sur les policiers et d'avoir placé des explosifs dans la ville. Il s'agit plutôt d'un Northrop Grumman Andros, qui est plutôt destiné à désarmer les véhicules piégés notamment. Mais il s'agit de la première fois que l'un de ces robots est utilisé ainsi.
En Chine, un robot anti-émeute appelé AnBot fait déjà polémique, en raison de l'intégration d'un outil anti-émeute électrisé, entendez par-là une sorte de taser, ne pouvant être déclenché que par les personnes contrôlant AnBot
China's 1st intelligent security robot debuts; can patrol autonomously, protect against riot https://t.co/QjjQr7qxhI pic.twitter.com/B45noU1bHJ
26 avril 2016
Ethique et robotique
Vous l'aurez compris, cela pose le problème de la responsabilité des robots dans le cadre de certaines actions, notamment de police. Ces derniers étant programmés pour réagir précisément en fonction de la menace, ils risquent de contrevenir à la première loi de la robotique telle qu'énoncée par Isaac Asimov :
"Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger"
Et ce, en raison du fait qu'ils ne peuvent ressentir les émotions humaines. A l'instar des algo-rédacteurs, ils ne peuvent pas ressentir d'empathie quelconque et émettre un véritable jugement sur les actes des personnes se trouvant en face d'eux, car ils sont incapables d'appréhender l'esprit humain.
La réaction sera celle prévue par son codage informatique, et non pas le résultat d'une véritable décision humaine. En fin de compte, elle s'apparentera plus à une réaction instinctive de l'être humain. Or, il s'agit de ce genre de réactions qui sont actuellement reprochées à la police américaine.
Par Tatu, il y a 8 ans :
Une question qui risque de se poser de plus en plus souvent durant les prochaines années... En fin de compte, qui sera le tueur ? Les policiers, le robot, ou la personne qui l'aura programmé ?
Répondre à ce commentaire
5
0