Les premiers robots capables de désobéir sont là

2 décembre 2015 à 10h33 dans High-tech

En général, lorsque l'on pense au robot, on pense tout de suite à des êtres obéissants et capables d'aider l'espèce humaine dans les tâches les plus ardues. Enfin, si on met de côté iRobot, Matrix ou Futurama. Une obéissance qui pourrait changer avec le projet de ces deux chercheurs de l'université de Tufts dans le Massachusetts. 

Les premiers robots capables de désobéir sont là

Quand on lui demande de s'asseoir ou de se lever, le robot suit les ordres, sans broncher. Mais si on lui demande d'aller tout droit vers le vide, il refuse. Poliment, certes, mais il refuse quand même. Gordon Briggs et Matthais Scheutz sont les scientifiques à l'origine du projet. Leur objectif est d'humaniser les robots et non d'en faire des machine à tuer comme on pourrait le croire.

Dans leur article, présenté à l'Association pour l'Avancement de l'Intelligence Artificielle, ils écrivent qu' "il y a une communauté grandissante qui s'intéresse à l'éthique pour les machines, où l'autonomie des robots vis-à-vis de leurs propres actions permet de raisonner sur le plan éthique". Voici une autre vidéo où un de leurs robots choisit de ne pas suivre une instruction.

Pour cette expérience, deux robots ont été utilisés, Shafer et Dempster. Les ingénieurs ont implémenté un résonnement mécanique dans le software des machines. Une fonction leur permettant d’analyser l’environnent et de savoir si une action peut compromettre leur sécurité. Une prise de conscience de soi qui ressemble à la graine de la désobéissance.

Mais la désobéissance n'est pas non plus aveugle. En effet, les humanoïdes refusent d’obéir non pas par flemme, mais simplement parce que les ordres peuvent entrer en contradiction avec leur propre sécurité. La troisième Loi de la Robotique d'Isaac Asimov est donc toujours respectée.

En dépit de tous les blockbusters où l'on voit des robots désobéir aux humains, avec des conséquences désastreuses, on se dit que cette idée peut être un poil dangereuse. Surtout avec la prévision selon laquelle, les humains seront moins intelligents que les robots dès 2029.

Source(s) : Dailymail
count
Commentaires (46)
Notre espèce développe sa propre perte, c'est beau
photo de profil de Gloup Par Gloup, il y a 9 ans Répondre
A voir.

On ne peut pas deduire des ecris d'auteur de SF qu'il se passera exactement les meme problemes.

Apres j'avoue ne pas etre particulierement a l'aise avec cette innovation.
photo de profil de blake Par blake, il y a 9 ans (en réponse à Gloup) Répondre
En théorie, vu que la machine est une création de l'Homme, elle est donc une sorte d'enfant de l'Homme, elle sera donc peut être sa dépendance finale .

Si il faut, nous ne faisons que accélérer la théorie de l'évolution
photo de profil de thib3113 Par thib3113, il y a 9 ans (en réponse à Gloup) Répondre
L'être humain développe sa perte depuis qu'il est capable de réfléchir : Famine , Guerre, Arme de destruction massive, Pollution, solution Cancérigène

C'est juste une autre expression de notre côté autodestructeur
photo de profil de Zacklo Par Zacklo, il y a 9 ans (en réponse à Gloup) Répondre
Personnellement je ne le vois pas de cette manière, au contraire je pense au final que a l'image de sont créateurs les futurs générations de robots seront très diversifier. Ils auraient plusieurs résonnement possible certains progressant pour l'humanité d'autres pour eux même certainement... Mais au final je pense que comme un père avec son enfant, ils auront surement plus a nous apprendre au final que nous même... Et cela n'implique pas forcement notre destruction.
photo de profil de Rourc Par Rourc, il y a 9 ans (en réponse à Gloup) Répondre
t'as pas tort mais c'est beaucoup plus vieux que ça. Notre espèce a développée la bombe nucléaire et la religion. tôt ou tard (plus tôt que tard vu ce qui se passe en ce moment) nous disparaîtront et l'ironie du sort c'est que ce sera de notre faute :)
photo de profil de Sir Godefroy de Trifouilleverge Par Sir Godefroy de Trifouilleverge, il y a 9 ans (en réponse à Gloup) Répondre
Go fondé la confrérie de l'acier et détruire toute ces abominations de la nature ! A mort l'institut !
photo de profil de Amedas Par Amedas, il y a 9 ans Répondre
Ad victoriam!
photo de profil de Louk997 Par Louk997, il y a 9 ans (en réponse à Amedas) Répondre
"Leur objectif est d'humaniser les robots " euh s'ils apprennent l'amour, ils apprennent aussi la haine, donc cette idée pue.

dans le cas present, si c'est pour eviter les ordres stupides, c'est la moindre des choses
photo de profil de Castiel Par Castiel, il y a 9 ans Répondre
Moi j'm'en fous, si les robots dominent le monde je serai déjà mort.
photo de profil de Angerfist Par Angerfist, il y a 9 ans Répondre
J'ai hate
photo de profil de KnarWC Par KnarWC, il y a 9 ans (en réponse à Angerfist) Répondre
Que je meurs ou que les robots dominent le monde?
photo de profil de Angerfist Par Angerfist, il y a 9 ans (en réponse à KnarWC) Répondre
Si je pouvais assister aux deux...
photo de profil de KnarWC Par KnarWC, il y a 9 ans (en réponse à Angerfist) Répondre
Je t'inviterais sur mon lit de mort.
photo de profil de Angerfist Par Angerfist, il y a 9 ans (en réponse à KnarWC) Répondre
Amis nécrophiles, bonjour...
photo de profil de Kira Par Kira, il y a 9 ans (en réponse à Angerfist) Répondre
Bonsoir !
photo de profil de Angerfist Par Angerfist, il y a 9 ans (en réponse à Kira) Répondre
On a parlé de necrophile ??
photo de profil de Dr Anthrax Par Dr Anthrax, il y a 9 ans (en réponse à Kira) Répondre
Ouai enfin il suit un algorithme, qui n'est autre qu'une suite d'instructions et d'ordres pour le robot.

Donc au contraire, il obéit parfaitement, et applique à merveille le protocole rentré...
photo de profil de Yoplay Par Yoplay, il y a 9 ans Répondre
Merci l'oracle... ;)
photo de profil de DODO Par DODO, il y a 9 ans (en réponse à Yoplay) Répondre
Exact, bref effet de pub à la con. Tant qu'un robot n'effectue pas une action contraire à sa programmation, on n'est pas dans la désobéissance. D'ailleurs, si un jour cela arrive, comme dans l'informatique, on pensera à un bug plutôt qu'à une volonté de faire ses propres choix ...
photo de profil de yohips Par yohips, il y a 9 ans (en réponse à Yoplay) Répondre
photo de profil de RiderFx3 Par RiderFx3, il y a 9 ans (en réponse à Yoplay) Répondre
Pff, à d'autres. Il a été programmé pour refuser. Je vois pas en quoi cette expérience nous prouve qu'il est capable de désobéir.
photo de profil de StrayPaolo Par StrayPaolo, il y a 9 ans Répondre
On va dire que ce que ça prouve c'est qu'il est capable "d'analyser" les conséquences d'un ordre donné et de choisir si oui ou non il doit l’exécuter. Après méfiance, il y a beaucoup de bullshit dans les papiers scientifiques sur la robotique et beaucoup de choses que les chercheurs "omettent" de dire comme par hasard... On peut arriver à la même vidéo en codant le robot pour qu'il ne réponde pas à cet ordre là spécifiquement mais j'ose espérer que ce n'est pas ainsi que ça a été fait.
photo de profil de Yaelith Par Yaelith, il y a 9 ans (en réponse à StrayPaolo) Répondre
Ben pour le coup c'est pas très dur à faire ( je parle du robot sur la table qui refuse d'avancer dans le vide ) . L'aspirateur Roomba ( pour avoir tester de le reprogrammer en cours ), est déjà programmé pour ne pas sauter dans le vide ... Il te le dit pas, c'est tout
photo de profil de thib3113 Par thib3113, il y a 9 ans (en réponse à Yaelith) Répondre
ça serrait pete couille si mon aspirateur faisait des commentaires. J'aurais une mere en plus :/
photo de profil de Remilia Scarlet Par Remilia Scarlet, il y a 9 ans (en réponse à thib3113) Répondre
Boarf ils ont foutu un "do while" rien de fou
photo de profil de Blazz Par Blazz, il y a 9 ans (en réponse à StrayPaolo) Répondre
la nouveauté c'est qu'il y a pas de BSOD avec des instructions contradictoires.
photo de profil de KnarWC Par KnarWC, il y a 9 ans Répondre
les robots servent a automatiser , pas a réfléchir. ...
photo de profil de ={ Par ={, il y a 9 ans Répondre
Qu'est ce que la réflexion ? Ne pense tu pas qu'il est possible de faire un algorithme de ton processus de réflexion ?

Pendant mes études, je n'ai eu aucun mal à faire un programme qui résoud les sudoku. Comment j'ai fait ? J'ai reproduit en algorithme notre façon de résoudre un sudoku.
Après tout, quand tu réfléchis, tu mets en relation un ensemble de faits (actuel et par rapport à ton vécu, un ensemble de données en gros) pour en ressortir une logique qui n'a rien de métaphysique.

On est pas dans la bible, nous ne sommes que des machines biologiques...
photo de profil de yohips Par yohips, il y a 9 ans (en réponse à ={) Répondre
Moi je dis ça comme ça mais ça pue du cul vraiment... Ma mère m'avait prévenu pourtant
photo de profil de Somebody Par Somebody, il y a 9 ans Répondre
On peut parler de prise de conscience? Réellement?
Personnellement la vrai prise de conscience je pense qu'elle se fait à partir du moment ou tu sais que te jeter dans le vide va à l'encontre de protéger ton existence mais que cependant tu as toujours le choix de le faire ou non.
Là le robot est programmé pour repérer du vide et donc obligatoirement ne pas y aller. Là l'bordel il a autant de conscience qu'un capteur de sécurité.
photo de profil de Tim45 Par Tim45, il y a 9 ans Répondre
Ça pue Skynet la!!!
photo de profil de NikoBellic68 Par NikoBellic68, il y a 9 ans Répondre
"La troisième Loi de la Robotique d'Isaac Asimov est donc toujours respectée."

Votre conclusion est erronée.

Rappel des trois lois :
1 Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger ;
2 Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
3 Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi.

On dit au robot "tu sautes" (loi 2), ça n'entre pas en conflit avec la première loi si dans la situation il ne met pas en danger un être humain.
S'il ne saute pas, il viole la loi 3 puisqu'on lui a donné un ordre direct et valide (loi 2), et qu'il ne le fait pas.
photo de profil de Gaston Par Gaston, il y a 9 ans Répondre
Sauf que ca peut mettre en danger un humain, si il ne sait pas a quelle hauteur il est. ( Par exemple sur le toît d'un immeuble, ou d'une table, il peut ne pas faire de différence )

Et puis marcher dessus ça peut être dangereux !
photo de profil de litch76 Par litch76, il y a 9 ans (en réponse à Gaston) Répondre
Sauf dans le cas où le robot considère qu'il défend son créateur et donc s'il se met en danger, il ne pourra peut etre plus défendre son créateur et donc risque de mise en danger :)
photo de profil de TDK Par TDK, il y a 9 ans (en réponse à Gaston) Répondre
je vous invite a visioner ma conférence sur ce sujet : https://youtu.be/gwlKdR7s0Mk
photo de profil de Calibanproject Par Calibanproject, il y a 9 ans Répondre
photo de profil de Calibanproject Par Calibanproject, il y a 9 ans Répondre
AHHHHH!!! Quel choix pour l'avenir: mourir durant la 3ème guerre mondiale qui pointe le bout de son nez ou mourir par un t-1000! Que de choix, que de choix...
photo de profil de madbom Par madbom, il y a 9 ans Répondre
Je connais des humains moins inteligens que des tamagochis, donc bon ...
photo de profil de Remilia Scarlet Par Remilia Scarlet, il y a 9 ans Répondre
Il désobéit pas, il analyse si il y a un obstacle il ne bouge pas c'est tout, il bougera que si on lui dit qu'il risque rien il fera une exception, il n'y a rien d'innovant, c'est comme une porte automatique qui détecte qu'il y a quelqu'un elle va pas se fermer...
photo de profil de bbpunk14 Par bbpunk14, il y a 9 ans Répondre
Euh... un robot codé pour ne pas faire une action dans certaine condition.... au final, il obeit au code qu'on lui a donné non? donc rien a voir avec de la désobéissance >.>
photo de profil de Mordeth Par Mordeth, il y a 9 ans Répondre
Ouai enfin c'est pas désobéir, c'est son intelligence qui lui permet de détecter une possibilité ou non. Il a était programmer pour ne pas faire une action si c'est "dangereux" (comme notre cerveau d'ailleurs), mais avec une condition, il le fait. Donc, il ne dit pas "non", il dit "je ne peux pas"
photo de profil de Warvin Par Warvin, il y a 9 ans Répondre
On commence à peine a maitriser l'IA et le premier truc qu'on lui apprends c'est à désobéir... enfin même si la c'est plutôt de la logique (aller petit robot, marche dans le vide!...) mais quand même, c'est comme ça que ça commence!
photo de profil de seb_ast Par seb_ast, il y a 9 ans Répondre
J'adore lire ce genre de débat!
Ici le refus un programmé et non venant du robot lui meme.
Je vois pas où c'est terrifiant.
photo de profil de Reizo Par Reizo, il y a 9 ans Répondre
Un autre pas vers la création des cylons :D
photo de profil de Hellswing Par Hellswing, il y a 9 ans Répondre
Mouais, en gros il est programmé pour désobéir ? Donc au final, il obéit ?
photo de profil de Risa Par Risa, il y a 9 ans Répondre
Laisser un commentaire

Vous répondez à . Annuler