La Norvège s'inquiète des robots tueurs
Alors que la robotique progresse pour le plus grand plaisir des industriels, les nombreuses innovations pourraient également comporter un côté moins réjouissant qui pourrait même nous faire craindre certains scénarii de films de science fiction mettant en scène des robots plutôt mal intentionnés. Et si iRobot n'était pas si loin de notre réalité ? C'est du moins ce que laisse penser la Ligue pour la paix qui s'inquiète du développement de "robots tueurs" par le gouvernement norvégien.
Derrière ce terme de "robots tueurs" se cache le développement de nouveaux missiles qui sont destinés à équiper les futurs avions de chasse de l'armée norvégienne. Pourquoi, ces nouvelles munitions font-elles polémique ? Tout simplement car elles seront capable d'identifier une cible précise et de décider ou non de l'anéantir. Le tout sans qu'une intervention humaine ne soit nécessaire. Un projet qui fait froid dans le dos et dont on imagine assez facilement les possibles dérives.
"Cette technologie soulève plusieurs questions morales, notamment sur ce qui se passe si l'humain disparaît totalement du champ de bataille au profit des machines, ou encore sur qui sera tenu responsable en cas d'erreur ou d'attaque violant le droit international" affirme le site The Local. Ces futures armes robotiques sont fabriquées par le groupe Kongsberg auquel le gouvernement norvégien a attribué un budget de 260 millions d'euros. Face à une telle entreprise, Alexander Harang, de la Ligue norvégienne pour la paix, tire la sonnette d'alarme et exige un débat sur les conséquences d'une telle révolution dans le domaine de l'armement. Pour l'heure, sa demande reste sans réponse. Si "l'arme devient le combattant", le rapporteur de l'ONU Christof Heyns, exige une attention toute particulière face aux risques potentiels. De son côté la ministre de la Défense norvégienne refuse de suspendre le projet sans que la question n'ait fait l'objet de débats. Il ne reste donc plus qu'à se réunir pour en parler.
Mais oui c'est claire !
Aux hommes de ne pas en faire leur Némésis.
il faut absolument qu'elle reste à la merci de l'homme pour que cela soit envisageable.
La validation des actions de la machine doit être faite par l'homme ! et pas par la machine elle même.
Si la machine est autonome, cela rajouter un problème de plus dans la société ...
Sérieusement -1 .
Ou alors, on fait comme dans Utopia (solution terrible, mais pacifique, donc séduisante). PERSONNE NE SPOIL pour ceux qui ne connaissent pas, merci.
Plus sérieusement, l'armée servant de nos jours plus à des missions de sauvetages ou humanitaire, l'utilisation de machines évite l'exposition supplémentaires d'humains au risque de mort, de maladie, etc.
après jai toujours pensé que tout régler autour de "jeux" (a prendre avec des pincettes ce terme ) pourrait régler certains problèmes:
-on choisirait des jeux avec de hautes exigences intellectuelles et physiques pour les plus grand enjeux du coup les hautes sphères de pouvoirs serait diriger par les plus capables et non pas des gens élus pour leur "charisme" et leurs promesses mais choisis pour leurs compétences et réguler par une sorte de police au cas ou ils pètent des câbles
-enfin une guerre si elle est commencée par des hommes ne peut se faire sans effusions de sang car détruire ses machines a un dictateur ne le fera pas renoncer il ne s’arrêtera pas il construira d'autres machines donc si on veut pas de mort faut pas faire la guerre car l'homme qui part en guerre a la rage et elle ne s’arrêtera que si on le force a s’arrêter ( je precise celui qui part en guerre n'est pas celui qui y est envoyé)
C'est décevant.
Néanmoins, quand on voit toutes les machines qu'on a aujourd'hui, sensées être parfaites, et qui commettent pourtant des erreurs, il faut avouer que ça fait flipper.
Mais bon, quand on développe des machines superpuissantes, je préfèrerais presque les voir autonomes à obéir à leur logique, plutot qu'entre les mains de la mauvaise personne.
On peut balancer le pour et le contre indéfiniment, même s'il y aura des puristes qui diront "non, un point c'est tout", cela fait déjà longtemps que des machines sont indépendantes, mais pour des situations moins graves, moins importantes, comme lancer une commande de produits en cas de rupture de stock, etc.
Dans le principal avantage de la machine je verrais le fait qu'elle n'est pas aussi influencée par l'extérieur qu'un humain. Elle restera logique, et même si par exemple le danger vient d'un enfant de 10 ans qui tire une roquette sur un char, la machine descendra le gamin. Est-ce moralement bon ? Chacun a sa réponse.
On en conclut donc que la machine est plus efficace dans le sens où elle reste sur son chemin.
Les hommes ont quant à eux le jugement, ils pourront peut-être déterminer s'il est nécessaire d'éliminer la menace ou si la neutraliser suffit, alors que la machine l'éliminera sans réfléchir. L'homme pourra aussi, en fonction de la complexité de la machine, s'adapter plus facilement ou plus rapidement à une évolution dans la situation.
Après, c'est un grande réflexion éthique et philosophique, alors bon laissons cela à ceux qui ont du temps à perdre.
Dans call of duty Modern Warfare 3, je crois, le Capitain Price dit "Le monde est une poudrière géante, et la seule étincelle qui suffit pour l'allumer, c'est la volonté d'un seul homme."
En gros, rajouter de l'insécurité dans ce monde, c'est comme rajouter de la poudre, il y en a déjà tellement qu'on ne verra pas la différence. Une machine c'est prévisible, c'est logique, même si ça n'a pas de jugement de valeur. Les hommes sont imprévisibles mais influençables. Chacun a ses faiblesses. On est encore loin d'une invasion à la iRobot, on veut juste savoir si c'est moral ou non de laisser une machine tuer quelqu'un sans pouvoir lui dire non au dernier moment.
La machine aura surpassé l'homme le jour où elle évoluera toute seule, je pense pas que ce ne soit le cas aujourd'hui, on est encore loin d'ordinateurs purement autonomes.
Donc moi je pense que si c'est bien fait, bah je suis pas contre mais ensuite une autre question se soulève : Pour quoi faire ? Je veux dire à quoi ça sert de balancer un missile autonome ? Qu'es-ce que ça apporte par rapport à un missile guidé traditionnel ? De toute façon ces missiles baseront leurs zones d'attaque et leurs cibles par rapport à des radars ou des satellites, du moins je suppose ou alors ça voudrait dire que ces missiles auraient des putains de cameras à reconnaissance intégré et surtout qu'il serait capables de corriger leurs trajectoire en fonction de c'est données d'une manière je pense physiquement impossible donc autant prédéfinir une cible manuellement, non ?
Voilà tout ce pavé pour dire que je vois pas vraiment l'utilité de la chose. En fait je pense ne pas avoir vraiment pigé le fonctionnement de la chose ....
Ce genre de projet me dégoûte car d'une part on crée des engins de mort et d'autre part on donne une image très négative des technologies et en particulier de la robotique alors que c'est quelque chose qui pourrait aider tout le monde dans tous les domaines.
Pour ces personnes, donner la mort fait gagner de l'argent alors que sauver des vies coûte cher, c'est ça leur mentalité ?
Dans une balance commerciale cela crée des exportations et des emplois, ce qui apparaît non négligeable dans une économie capitaliste ...
D'autant que n'oubliez pas que malheureusement les plus grandes avancées technologiques se sont fait en période de guerre ou en préparation. Car la guerre draine énormément de capitaux dans des secteurs de pointe ! Du biplan de 1918 on arrive 20 ans plus tard au stuka pour le premier avion à réaction et fusée en 1942 ! C'est le nucléaire militaire qui a développé le nucléaire civil ! Les travaux sur le corps humain ont connu une avancée durant les guerres italiennes de François 1er voyez Ambroise Paré. Et même l'ordinateur voit son premier développement durant la seconde guerre mondiale tout comme l'infra-rouge !
Qui veut la paix prépare la guerre ;-)
Après tout, nous somme notre plus grande menace....
1 - qui dit robot dit programmation - dit intervention humaine à l'origine, si le respect des règles de la robotique (édictées par I. ASIMOV) s'appliquent l'humanité ne craint rien.
2 - qui dit robot dit respect d'un protocole : pas de corruption, pas de compromis, une règle simple binaire : oui ou non, bon ou faux.
3 - qui dit robot dit abstraction de la sacro sainte pensée humaine qui se veut supérieure à toutes les autres pensées, en particulier la sienne souvent par rapport aux autres : "jai raison les autres tort", "notre système est mieux que le votre"
4 - qui dit robot dit haute technologie donc domination des plus "forts" technologiquement donc des pays les plus avancées ; d'où le risque d'une domination plus grande du pays possédant ces machines mais si respect du premier point (et donc de la responsabiité humaine) aucune crainte à avoir.
5 - qui dit humain dit faillabilité ... peut on croire en un armement inhumain qui existe déjà : le dogfight - ou combat aérien rapproché - ne se fait jamais, ou très très rarement, en combat visuel mais en virtuel.
En résumé : si l'homme est bon, son objet le sera - si il ne l'est pas, alors cela en deviendra sa némésis ...
- La guerre est un outil politique destiné à résoudre des conflits d’intérêt entre nation, on ne peut donc pas s'en passer, ceux qui veulent supprimer totalement la guerre seront les premiers à les subir, et puis de toute façons Freud et Einstein ou déjà réfléchie à la question et ont décider que la guerre était inéluctable (cf lettre de Sigmund Freud à Albert Einstein, sur la guerre). Donc autant faire une guerre robotisé: moins de pertes humaine.
-La guerre et l'entrainement militaire tend à faire des hommes, des machines, le soldat est la pour appliqué scrupuleusement les ordres du général et le fait (Les pilotes d'avions de chasse qui se révolte pour ne pas tirer sur les civil, c'est dans les films ça hein (sauf exception isolé). Puisque l'humain est déjà machine (du moins en théorie) robotisé l'armement évitera que l'humain (qui tirera de toute façons) se laisse déborder pas ses instinct destructeur (parce que à force de tuer on y prend goût forcement, ça aussi c'est "humain") et ne tue injustement.
- Et enfin la guerre est décidé par les chefs politique et la conduite de la guerre nécessite une très grande intelligence, tant qu'on ne remplace pas les chefs militaires et politiques par des IA (qui n'existe pas encore hein), aucun risque de meurtres ou de guerre déclencher par des machines. Et si les IA (sous les ordres d'un chef humain) sont correctement programmé, les combats s’arrêteront à la seconde ou les chefs humain auront signé un traité de paix, contrairement aux guerre humaines qui engendre énormément de ressentiment ,d'esprit de vengeance et potentiellement de terroriste prêt à continué une guerre perdue...
Donc je suis aussi pour la robotisation de l'armement.
Maintenant la conception de la guerre et des combats et je rejoins Altarian reposent sur une conception politique.
Une arme n'est jamais dangereuse en soi, c'est celui qui appuie sur la gâchette ou le bouton qui l'est !
Tu parles des lois de la robotique mais toutes les formes de lois sont transgressées tot ou tard par un ou un autre...
Outre, ton explication est bien logique tout de même, elle est intéressante, mais ca n'empêche pas que le progrès de repose pas uniquement sur la technologie.
Mais aussi, un exemple, les bombes atomiques sont au départ la pour faire pression, uniquement pour faire peur, elles sont gardées par leurs gouvernements respectifs, mais ça n'a pas empêché a des bombes nucléaires d'exploser la ou il fallait pas.. (hiroshima pour exemple) , meme si la on parle d'intelligence artificielle, celui qui construit et contrôle reste l'homme, et on ne sait pas a quel moment il peut déraper, et comme j'ai dit dans un commentaire plus haut, un hackeur arrive et c'est bon la faille est trouvée, la défense aura beau être renforcée, l'attaquant aussi, et l'attaquant n'aime pas forcement les lois de la robotique, enfin je dis ca, je vais dire mot pour mot: Tôt ou tard des terroristes vont utiliser cette technologie a leur avantage, car une défense ne tient jamais éternellement, tout comme la paix.
Désolé mais il y a un peu trop le bordel sur cette planète pour y developper une telle technologie, sans oublier qu'il faudrait s'occuper d'autres problemes que ceux d'armement.. Enfin bon encore la voilà une des raisons pour lesquelles je considère que l'humanité a bientôt terminé ses siecles d'existence, meme au bout du rouleau, elle continue de se foutre en l'air, et ça bien sur, pour l'argent, car ce sont ceux qui veulent de l'argent qui gouvernent, et donc personne n'en ayant les moyens ne s'occupe des choses qui serviraient a rallonger encore un peu l'existence de l'humanité au moins... Juste une population majoritaire en manque de pouvoir, et des saloperies de décérébrés au pouvoir.
Quoi qu'il en soit, deja ça m'étonnerait qu'il arrive un jour propice au développement d'une telle technologie sans risque élevé, mais en plus actuellement il y a bien des choses qui ont une réelle priorité dessus..
Après ont aura des guerres vs les robots, donc négatif !!!
C'est qu'on commence à avoir du choix pour la fin du monde.
Entre la pollution,l'invasion zombie,la guerre nucléaire,la maladie incurable,etc et maintenant la guerre contre les robots.
Bon ben y a plus qu'à ouvrir les paris:
Je mise 20€ sur la guerre nucléaire.
Le risque est bien là : le piratage mal intentionné car aucune forteresse n'est imprenable, il suffit de regarder tout ce qui est piraté de nos jours, le reste n'est qu'une question de temps ou de mises à jours.
Il y a par ailleurs déjà des drones Samsung entre les deux Corées, rien de surprenant lorsqu'on est un peu réaliste et qu'on aime le cinéma.