Rechercher Annuler

Les premiers robots capables de désobéir sont là

De Kenny - Posté le 2 décembre 2015 à 10h33 dans High-tech

En général, lorsque l'on pense au robot, on pense tout de suite à des êtres obéissants et capables d'aider l'espèce humaine dans les tâches les plus ardues. Enfin, si on met de côté iRobot, Matrix ou Futurama. Une obéissance qui pourrait changer avec le projet de ces deux chercheurs de l'université de Tufts dans le Massachusetts. 

Quand on lui demande de s'asseoir ou de se lever, le robot suit les ordres, sans broncher. Mais si on lui demande d'aller tout droit vers le vide, il refuse. Poliment, certes, mais il refuse quand même. Gordon Briggs et Matthais Scheutz sont les scientifiques à l'origine du projet. Leur objectif est d'humaniser les robots et non d'en faire des machine à tuer comme on pourrait le croire.

Dans leur article, présenté à l'Association pour l'Avancement de l'Intelligence Artificielle, ils écrivent qu' "il y a une communauté grandissante qui s'intéresse à l'éthique pour les machines, où l'autonomie des robots vis-à-vis de leurs propres actions permet de raisonner sur le plan éthique". Voici une autre vidéo où un de leurs robots choisit de ne pas suivre une instruction.

Pour cette expérience, deux robots ont été utilisés, Shafer et Dempster. Les ingénieurs ont implémenté un résonnement mécanique dans le software des machines. Une fonction leur permettant d’analyser l’environnent et de savoir si une action peut compromettre leur sécurité. Une prise de conscience de soi qui ressemble à la graine de la désobéissance.

Mais la désobéissance n'est pas non plus aveugle. En effet, les humanoïdes refusent d’obéir non pas par flemme, mais simplement parce que les ordres peuvent entrer en contradiction avec leur propre sécurité. La troisième Loi de la Robotique d'Isaac Asimov est donc toujours respectée.

En dépit de tous les blockbusters où l'on voit des robots désobéir aux humains, avec des conséquences désastreuses, on se dit que cette idée peut être un poil dangereuse. Surtout avec la prévision selon laquelle, les humains seront moins intelligents que les robots dès 2029.

Une erreur ?

Source(s) : Dailymail

Mots-Clés : robot

Par Kenny

Cliquez sur une phrase de l'article pour proposer une correction.

J'ai compris !

Commentaires (46)

Par Gloup, il y a 8 ans :

Notre espèce développe sa propre perte, c'est beau

Répondre à ce commentaire

Par blake, il y a 8 ans (en réponse à Gloup):

A voir.

On ne peut pas deduire des ecris d'auteur de SF qu'il se passera exactement les meme problemes.

Apres j'avoue ne pas etre particulierement a l'aise avec cette innovation.

Répondre à ce commentaire

Par thib3113, il y a 8 ans (en réponse à Gloup):

En théorie, vu que la machine est une création de l'Homme, elle est donc une sorte d'enfant de l'Homme, elle sera donc peut être sa dépendance finale .

Si il faut, nous ne faisons que accélérer la théorie de l'évolution

Répondre à ce commentaire

Par Zacklo, il y a 8 ans (en réponse à Gloup):

L'être humain développe sa perte depuis qu'il est capable de réfléchir : Famine , Guerre, Arme de destruction massive, Pollution, solution Cancérigène

C'est juste une autre expression de notre côté autodestructeur

Répondre à ce commentaire

Par Rourc, il y a 8 ans (en réponse à Gloup):

Personnellement je ne le vois pas de cette manière, au contraire je pense au final que a l'image de sont créateurs les futurs générations de robots seront très diversifier. Ils auraient plusieurs résonnement possible certains progressant pour l'humanité d'autres pour eux même certainement... Mais au final je pense que comme un père avec son enfant, ils auront surement plus a nous apprendre au final que nous même... Et cela n'implique pas forcement notre destruction.

Répondre à ce commentaire

Par Sir Godefroy de Trifouilleverge, il y a 8 ans (en réponse à Gloup):

t'as pas tort mais c'est beaucoup plus vieux que ça. Notre espèce a développée la bombe nucléaire et la religion. tôt ou tard (plus tôt que tard vu ce qui se passe en ce moment) nous disparaîtront et l'ironie du sort c'est que ce sera de notre faute :)

Répondre à ce commentaire

Par Amedas, il y a 8 ans :

Go fondé la confrérie de l'acier et détruire toute ces abominations de la nature ! A mort l'institut !

Répondre à ce commentaire

Par Louk997, il y a 8 ans (en réponse à Amedas):

Ad victoriam!

Répondre à ce commentaire

Par Castiel, il y a 8 ans :

"Leur objectif est d'humaniser les robots " euh s'ils apprennent l'amour, ils apprennent aussi la haine, donc cette idée pue.

dans le cas present, si c'est pour eviter les ordres stupides, c'est la moindre des choses

Répondre à ce commentaire

Par Angerfist, il y a 8 ans :

Moi j'm'en fous, si les robots dominent le monde je serai déjà mort.

Répondre à ce commentaire

Par KnarWC, il y a 8 ans (en réponse à Angerfist):

J'ai hate

Répondre à ce commentaire

Par Angerfist, il y a 8 ans (en réponse à KnarWC):

Que je meurs ou que les robots dominent le monde?

Répondre à ce commentaire

Par KnarWC, il y a 8 ans (en réponse à Angerfist):

Si je pouvais assister aux deux...

Répondre à ce commentaire

Par Angerfist, il y a 8 ans (en réponse à KnarWC):

Je t'inviterais sur mon lit de mort.

Répondre à ce commentaire

Par Kira, il y a 8 ans (en réponse à Angerfist):

Amis nécrophiles, bonjour...

Répondre à ce commentaire

Par Angerfist, il y a 8 ans (en réponse à Kira):

Bonsoir !

Répondre à ce commentaire

Par Dr Anthrax, il y a 8 ans (en réponse à Kira):

On a parlé de necrophile ??

Répondre à ce commentaire

Par Yoplay, il y a 8 ans :

Ouai enfin il suit un algorithme, qui n'est autre qu'une suite d'instructions et d'ordres pour le robot.

Donc au contraire, il obéit parfaitement, et applique à merveille le protocole rentré...

Répondre à ce commentaire

Par DODO, il y a 8 ans (en réponse à Yoplay):

Merci l'oracle... ;)

Répondre à ce commentaire

Par yohips, il y a 8 ans (en réponse à Yoplay):

Exact, bref effet de pub à la con. Tant qu'un robot n'effectue pas une action contraire à sa programmation, on n'est pas dans la désobéissance. D'ailleurs, si un jour cela arrive, comme dans l'informatique, on pensera à un bug plutôt qu'à une volonté de faire ses propres choix ...

Répondre à ce commentaire

Par RiderFx3, il y a 8 ans (en réponse à Yoplay):

Voilà : https://youtube.com/watch/?v=KFDMm666QBU

Répondre à ce commentaire

Par StrayPaolo, il y a 8 ans :

Pff, à d'autres. Il a été programmé pour refuser. Je vois pas en quoi cette expérience nous prouve qu'il est capable de désobéir.

Répondre à ce commentaire

Par Yaelith, il y a 8 ans (en réponse à StrayPaolo):

On va dire que ce que ça prouve c'est qu'il est capable "d'analyser" les conséquences d'un ordre donné et de choisir si oui ou non il doit l’exécuter. Après méfiance, il y a beaucoup de bullshit dans les papiers scientifiques sur la robotique et beaucoup de choses que les chercheurs "omettent" de dire comme par hasard... On peut arriver à la même vidéo en codant le robot pour qu'il ne réponde pas à cet ordre là spécifiquement mais j'ose espérer que ce n'est pas ainsi que ça a été fait.

Répondre à ce commentaire

Par thib3113, il y a 8 ans (en réponse à Yaelith):

Ben pour le coup c'est pas très dur à faire ( je parle du robot sur la table qui refuse d'avancer dans le vide ) . L'aspirateur Roomba ( pour avoir tester de le reprogrammer en cours ), est déjà programmé pour ne pas sauter dans le vide ... Il te le dit pas, c'est tout

Répondre à ce commentaire

Par Remilia Scarlet, il y a 8 ans (en réponse à thib3113):

ça serrait pete couille si mon aspirateur faisait des commentaires. J'aurais une mere en plus :/

Répondre à ce commentaire

Par Blazz, il y a 8 ans (en réponse à StrayPaolo):

Boarf ils ont foutu un "do while" rien de fou

Répondre à ce commentaire

Par KnarWC, il y a 8 ans :

la nouveauté c'est qu'il y a pas de BSOD avec des instructions contradictoires.

Répondre à ce commentaire

Par ={, il y a 8 ans via l'application Hitek :

les robots servent a automatiser , pas a réfléchir. ...

Répondre à ce commentaire

Par yohips, il y a 8 ans (en réponse à ={):

Qu'est ce que la réflexion ? Ne pense tu pas qu'il est possible de faire un algorithme de ton processus de réflexion ?

Pendant mes études, je n'ai eu aucun mal à faire un programme qui résoud les sudoku. Comment j'ai fait ? J'ai reproduit en algorithme notre façon de résoudre un sudoku.
Après tout, quand tu réfléchis, tu mets en relation un ensemble de faits (actuel et par rapport à ton vécu, un ensemble de données en gros) pour en ressortir une logique qui n'a rien de métaphysique.

On est pas dans la bible, nous ne sommes que des machines biologiques...

Répondre à ce commentaire

Par Somebody, il y a 8 ans :

Moi je dis ça comme ça mais ça pue du cul vraiment... Ma mère m'avait prévenu pourtant

Répondre à ce commentaire

Par Tim45, il y a 8 ans :

On peut parler de prise de conscience? Réellement?
Personnellement la vrai prise de conscience je pense qu'elle se fait à partir du moment ou tu sais que te jeter dans le vide va à l'encontre de protéger ton existence mais que cependant tu as toujours le choix de le faire ou non.
Là le robot est programmé pour repérer du vide et donc obligatoirement ne pas y aller. Là l'bordel il a autant de conscience qu'un capteur de sécurité.

Répondre à ce commentaire

Par NikoBellic68, il y a 8 ans via l'application Hitek :

Ça pue Skynet la!!!

Répondre à ce commentaire

Par Gaston, il y a 8 ans :

"La troisième Loi de la Robotique d'Isaac Asimov est donc toujours respectée."

Votre conclusion est erronée.

Rappel des trois lois :
1 Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger ;
2 Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
3 Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi.

On dit au robot "tu sautes" (loi 2), ça n'entre pas en conflit avec la première loi si dans la situation il ne met pas en danger un être humain.
S'il ne saute pas, il viole la loi 3 puisqu'on lui a donné un ordre direct et valide (loi 2), et qu'il ne le fait pas.

Répondre à ce commentaire

Par litch76, il y a 8 ans (en réponse à Gaston):

Sauf que ca peut mettre en danger un humain, si il ne sait pas a quelle hauteur il est. ( Par exemple sur le toît d'un immeuble, ou d'une table, il peut ne pas faire de différence )

Et puis marcher dessus ça peut être dangereux !

Répondre à ce commentaire

Par TDK, il y a 8 ans (en réponse à Gaston):

Sauf dans le cas où le robot considère qu'il défend son créateur et donc s'il se met en danger, il ne pourra peut etre plus défendre son créateur et donc risque de mise en danger :)

Répondre à ce commentaire

Par Calibanproject, il y a 8 ans via l'application Hitek :

je vous invite a visioner ma conférence sur ce sujet : https://youtu.be/gwlKdR7s0Mk

Répondre à ce commentaire

Par madbom, il y a 8 ans :

AHHHHH!!! Quel choix pour l'avenir: mourir durant la 3ème guerre mondiale qui pointe le bout de son nez ou mourir par un t-1000! Que de choix, que de choix...

Répondre à ce commentaire

Par Remilia Scarlet, il y a 8 ans :

Je connais des humains moins inteligens que des tamagochis, donc bon ...

Répondre à ce commentaire

Par bbpunk14, il y a 8 ans :

Il désobéit pas, il analyse si il y a un obstacle il ne bouge pas c'est tout, il bougera que si on lui dit qu'il risque rien il fera une exception, il n'y a rien d'innovant, c'est comme une porte automatique qui détecte qu'il y a quelqu'un elle va pas se fermer...

Répondre à ce commentaire

Par Mordeth, il y a 8 ans :

Euh... un robot codé pour ne pas faire une action dans certaine condition.... au final, il obeit au code qu'on lui a donné non? donc rien a voir avec de la désobéissance >.>

Répondre à ce commentaire

Par Warvin, il y a 8 ans :

Ouai enfin c'est pas désobéir, c'est son intelligence qui lui permet de détecter une possibilité ou non. Il a était programmer pour ne pas faire une action si c'est "dangereux" (comme notre cerveau d'ailleurs), mais avec une condition, il le fait. Donc, il ne dit pas "non", il dit "je ne peux pas"

Répondre à ce commentaire

Par seb_ast, il y a 8 ans :

On commence à peine a maitriser l'IA et le premier truc qu'on lui apprends c'est à désobéir... enfin même si la c'est plutôt de la logique (aller petit robot, marche dans le vide!...) mais quand même, c'est comme ça que ça commence!

Répondre à ce commentaire

Par Reizo, il y a 8 ans :

J'adore lire ce genre de débat!
Ici le refus un programmé et non venant du robot lui meme.
Je vois pas où c'est terrifiant.

Répondre à ce commentaire

Par Hellswing, il y a 8 ans :

Un autre pas vers la création des cylons :D

Répondre à ce commentaire

Par Risa, il y a 8 ans :

Mouais, en gros il est programmé pour désobéir ? Donc au final, il obéit ?

Répondre à ce commentaire

Laisser un commentaire

Votre adresse e-mail ne sera pas visible. Pour avoir une image de profil, utilisez le service gravatar.

Tu es membre premium car tu as commandé une HITEKBOX. Tu peux donc ajouter des smileys et des images.