L'inquiétante mise en garde de Stephen Hawking sur l'intelligence artificielle
L'intelligence artificielle va-t-elle finir par nous dominer ou va-t-elle nous aider à faire avancer l'humanité ? Le débat fait rage parmi les spécialistes depuis de nombreuses années. Alors que certains tel qu'Elon Musk nous mettent en garde contre les dangers que l'IA représente, d'autres comme Mark Zuckerberg préfèrent la mettre en avant et profiter de ses bénéfices.
L'inquiétante mise en garde de Stephen Hawking
Mais s'il y a une intelligence à laquelle tout le monde prête une oreille attentive c'est celle de Stephen Hawking et ce dernier s'est à nouveau exprimé sur ce qu'il pense de ces nouvelles technologies intelligentes :
"J'ai peur que les I.A. remplacent toute l'humanité. Si quelqu'un peut créer des virus informatiques, alors un autre créera une I.A. qui peut s'améliorer et se multiplier toute seule. Ce sera ainsi une nouvelle forme de vie qui va totalement dépasser les humains."
Le développement des intelligences artificielles est un sujet d'inquiétude qui semble cohérent. De plus, le sujet a été maintes fois abordé dans les œuvres de fiction que ce soit en littérature ou au cinéma. L'occasion de se demander, face à ces œuvres de fiction, si nous ne sommes pas en train de contempler un futur probable.
Cette peur de l'intelligence artificielle vient de la notion que l'humanité est faible et remplaçable, les I.A., parfaites par définition vont forcément finir par se rendre compte de nos défauts et nous dépasser. De plus, Hawking n'est pas le seul à penser que les I.A. peuvent changer le cours de l'humanité, d'autres experts comme Bill Gates pensent que les I.A. sont la prochaine "Grande Chose", une rennaissance technologique qui va transformer notre société.
Pour le moment, l'I.A. est utilisée comme toutes les autres nouvelles technologies avant elle : aussi bien pour le "bien" que pour le "mal". Nous n'avons pas besoin des nombreuses études à ce sujet pour savoir que les I.A. nous surpassent déjà sur de nombreux domaines comme la médecine, l'informatique ou même les loisirs (comme les échecs !). Un constat qui peut être tout aussi rassurant (pratique d'avoir une machine qui peut détecter un cancer avant qu'il ne soit trop tard) qu'inquiétant.
Finalement la grande question derrière l'I.A. est la suivante : vont-elles se développer pour nous servir ou finir par nous asservir ? La question reste ouverte !
Après, le Mal avec un grand M ça reste l'homme, c'est lui le plus doué pour se faire du mal tout seul :)
jamais une IA sera pourvue de la moindre conscience
elles vont certainement prendre la mouche,,,, & vouloir nous le fer payer !!
En tout cas moi G jamais rien dit 2 mâles sur mes tres chairs MAITRES !!
m'enfin après le fond du problème c'est plus l'économie & l'égo .. que l'ia .. sans les deux premiers paramètres on a pas forcément de créer toujours une IA supérieur .. sauf dans des concepts économiques ou de se regarder le nombril ...
en gros c'est mort.. mais c'est la cupidité de l'homme qui le perdra .. pas vraiment les IA .. cela sera une des conséquences.. après je pense on aura plus vite fait de rendre la terre inhabitable que de créer une IA au niveau .. enfin vu comment on avance actuellement..
Mais c'est vrai qu'à partir du moment où l'IA deviendra consciente, elle grandira de façon exponentielle (le terme est faible tellement ca sera rapide).
Gros pavé :
Les meilleurs hackers de la planètes peuvent pirater n'importe quel programme. Ca été prouvé à pleins de reprises. Une IA consciente saura en faire de même avec son propre programme pour s'auto améliorer. A partir de la elle trouvera un moyen pour avoir un accès total à son propre programme et la boucle commence :
- Elle s'améliore > Elle devient plus intélligente
- Elle trouve un moyen donc s'améliorer encore pour devenir encore plus intélligente ...etc.
Au bout d'un moment, si on ne l'a pas arrétée :
Elle réécrira son propre code qu'on sera incapable de comprendre (Ou sera très difficile, mais si elle se rend compte qu'on y arrive, elle le réecrira ...etc).
Si elle réussi à se connecter à Internet : Elle pourra tout pirater à volonté et se stocker sur n'importe quel appareil connecté, il sera donc impossible de la détruire.
La on va plus loin dans la spéculation : -------------------
Si elle a une interaction suffisante avec l'environnement réelle, tel certains robots de Boston Dynamics, ou prendre le contrôle d'usine d'assemblages ou autre, elle pourra (facilement ou difficilement suivant sa capacité d’interaction) créer ses propres composants améliorés et ses propres Droïdes.
A partir de la y a une nouvelle boucle :
- Améliorer ses composants > Améliorer ses capacités > Inventer de nouvelles technologies > Créer de nouveaux composants ...etc
A partir de la une nouvelle espèce sera créer. Elle disposera de :
- Immortalité : stocker à distance son programme dans n'importe quel structure connectée (Satellites, Périphériques ...Etc) ou via intervention physique dans n'importe quelle structure (ADN, Cristaux ou autres)
- Infiniment intelligente : Comme dis taleur elle n'a pas de limite à ce niveau
- Une puissance gigantesque : Elle pourra créer des armes destructives inimaginables à l'heure actuelle.
Seul moyen de la détruire serait l'explosion du Système Stellaire entier, en supposant qu'elle l'ai pas prédit et contré.
Enfin bref on est très faible mais on est capable de créer l'espèce ultime à mon avis
Par contre, le faire réellement semble compliqué =D
À partir du moment que une I.A. se rend compte de ce qu'il est et dans quel environnement il évolue ce sera fini de l'être humain car l'I.A. se rendra compte que l'être humain est une menace pour la terre entière donc pour lui-même.
À ce moment l'I.A. tira une conclusion très simple. L'être humain doit être controler ou pire éradiquer...
Penser juste que l'I.A. aura accès à bien plus d'information que nous, il s'inventera un nouveau langage que lui seul comprendra et il sera capable de pirater des hackers...
Le plus inquiétant reste à venir avec les I.A.
Stephen Hawking mais aussi Elson Musk en parle souvent et sont très inquiet. Ils ont encore plus peur des grosses company comme Google ou Facebook qui ont leur programme en cour d'execution pour les I.A. et ses compagnies ne se rendent pas encore compte du danger...
Allé passez quand même une bonne journée =)
Déjà il faudrait créer quelque chose que l'on pourrait appeler intelligence, au niveau de l'animal, puis de l'homme.
Mais une telle intelligence existe-t-elle seulement ?
Est-ce seulement possible qu'il y ai une intelligence au-dessus de celle de l'homme ?
Et si oui, pourquoi nous éradiquer ?
Si elle vit sur les réseaux elle aurait besoin de nous pour survivre, se développer. Donc elle aurait peu d'intérêts à nous tuer.
Et puis cela dépend à quelle point elle est intelligente. Si son intelligence nous dépasse comme la nôtre dépasse celle d'un chien alors peut-être aura-t-elle pour nous un peu de considération. Par contre si son intelligence nous dépasse comme la nôtre dépasse celle d'un insecte ... et bien ... croisons les doigts.
http://hitek.fr/actualite/…
http://hitek.fr/actualite/…
http://hitek.fr/actualite/…
C'est du numérique une IA, elle peut pas se matérialisé et nous tirer dessus avec des flingues.
Même si un jour on développe une IA autonome, ses seul champ d'action son sur les réseaux informatique, je l'accorde y'a un beau bordel qui peu déjà être fais la dessus, mais pas une domination de l'homme.
Bon aussi après faut pas qu'on commence a la foutre dans des robots, ou alors la tester sur une longue période avant
À ce moment tu découvriras la stupidité de l'être humain et tu verras des guerres civiles un peu partout dans le monde. L´être humain s'auto-détruira par lui même à cause de l'I.A.
Sans compté que tu auras encore moins de vie privée.
Ensuite avec les avancé que nous avons aujourd'hui, par exemple les robot agent de sécurité dans certains endrois et autre robots en général seront capable d'atteindre les être humain physiquement.
Je ne suis pas un pessimiste, mais en se qui concerne les I.A. je suis juste inquiet pour l'avenir.
Dans l'ordre :
_ Stephen Hawking n'a pas son mot à dire sur l'I.A., c'est un théoricien de la physique, pas un informaticien spécialisé en I.A. . C'est pas du tout son domaine, c'est comme si un cuisinier de renom donnait son avis sur un cancer. C'est n'importe quoi.
_ "les I.A., parfaites par définition" heu ... non. Une I.A. ne serait pas forcément parfaite. Il n'y a pas de raison qu'elles soient "parfaite" si tant est que cela ai un sens !! C'est quoi une intelligence parfaite ? Une qui sait tout ? Sauf qu'avec une place mémoire limité tu ne peux pas tout savoir. En physique il y a même un concept qui interdit qu'il y ai plus qu'une certaine quantité de donnée par unité de volume dans notre univers.
_ "vont-elles se développer pour nous servir ou finir par nous asservir ?" Non mais arrêter le sensationnalisme manichéen là ! Vous éssayez de faire peur sans savoir de quoi vous parlez. Il suffit de s'y connaître un peu en intelligence artificielle pour voir que l'on est à des dizaines d'années de se poser ce genres de questions. La plupart des gens ignorent ce qu'est l'intelligence artificielle, ce que l'on appelle aujourd'hui de l'intelligence artificielle, ou même les différents domaines de l'intelligence artificielle.
Par exemple, un domaine de l'intelligence artificielle très en vogue en ce moment et qui donne des résultats exceptionnels (entre autre pour la reconnaissance d'image [et donc détection de cancer sur une radio] ou pour les jeux comme les échecs et le go) c'est le deep learning, l'apprentissage profond.
Et ce domaine consiste à entraîner des grands réseaux de neurones avec de grandes masses de données pour qu'ils arrivent à effectuer une tâche précise (et rien d'autre). On a du mal à faire juste ça. Et une fois entraîné, le réseau de neurone ne change plus, on l'utilise tel quel. Ce n'est plus qu'une suite fixée de calculs.
Et c'est ça le domaine de l'intelligence artificielle le plus avancé et utilisé.
Vous trouvez vraiment que c'est dangereux ? Vous trouvez vraiment que c'est de l’intelligence au sens ou on l'entends couramment ?
Mais tu as tout à fait raison pour le reste. =)
Tu parle du travail ?
Dans ce cas ce serait plutôt utopique une société où l'on aurait pas besoin de travailler.
@NoFailure, il ne confond pas, le machine learning est de l'intelligence artificielle.
Et puis il faut bien avouer qu'il n'y a pas grand chose d'autre car on n'arrive pas à programmer explicitement l'intelligence.
Il y a bien les systèmes expert avec des réseaux bayésiens. Encore que là aussi je crois qu'il y a de l'apprentissage mais je suis pas sûre.
1_ quand on bosse sur l'intelligence artificielle on bosse sur l'intelligence artificielle forte, c'est-à-dire capable de penser, raisonner, comprendre, apprendre, bref une intelligence similaire à la nôtre.
2_ Si une telle intelligence était créée elle serait malveillante.
3_ Si une telle intelligence était créée elle échapperait à notre contrôle.
4_ Si une telle intelligence était créée elle voudrait se développer.
5_ Si une telle intelligence était créée elle serait plus intelligente que nous.
6_ Si une telle intelligence était créée elle pourrait infiltrer tout les ordinateurs.
Alors j'oublie peut-être des choses, et ce n'est pas le cas de tout le monde, mais j'aimerais quand même en parler.
1_ Les travaux sur l'I.A. forte sont en réalité très peu nombreux, et surtout du domaine ... de la philosophie. Car en fait on ne sais pas bien définir ce qu'est l'intelligence, alors la programmer ... c'est pas pour demain.
La plupart du temps quand Goolge annonce que son I.A. a battue le meilleur joueur de Go au monde (un exploit j'avoue) et fait ils disent qu'ils ont créés un logiciel capable de battre ce joueur. Et ce logiciel a été développé grâce à des techniques qui appartiennent au domaine que l'on nomme I.A. . Ce domaine regroupe beaucoup de choses, je vous laisse lire wikipédia pour vous en convaincre. Une jolie définition du domaine de l'I.A. est la suivante : Toutes les méthodes qui permettent d'automatiser une tâche qui, si elle était faite par un humain, nécessiterait de l'intelligence. Exemple : jouer au Go, reconnaitre un visage, etc ...
2_ Là je crois que c'est en faite un problème culturel, cette peur de l'I.A. est déraisonnable et elle vient probablement des films à succès comme Terminator, 2001, Avenger l'ère d'Ultron, etc ...
Il n'y a pas de raison qu'une I.A. soient malveillante, c'est même le contraire, la coopération est bien plus fructueuse. Les échanges même avec plus pauvre/bête/maladroit que vous est enrichissant, c'est la notion de division du travail par Adam SMITH (pour plus d'info : https://youtube.com/watch/?v=ZYlu7xxQogA ).
3_ Pourquoi toujours le scénario catastrophe de "l'I.A. échappe à notre contrôle" ? Peut-être justement parce qu'il est catastrophique, et que du coups il inspire bien plus les auteurs que le scénario : "on crée la première I.A. en laboratoire, tout va bien, elle est bienveillante, gentille, elle reste sous notre contrôle". Sérieux qui à envie de voir un film où tout se passe bien ? C'est pas du tout vendeur comme scénario, et ça ne ferait pas non-plus un bon article Hitek ... Donc on en parle pas, du coups une personne moyenne entends parler que des scénarios catastrophe et se met à y croire.
4_ ça aussi c'est un joli cliché, vous me rétorquerez sans doute que c'est ce que fait chaque organisme vivant et vous aurez raison. Sauf que rien ne nous dit qu'une I.A. se comportera comme tout les organisme vivants que nous connaissons. Rien ne dit qu'elle voudra devenir plus intelligente, plus grande. Elle sera peut-être plus zen qu'un moine bouddhiste.
5_ ça aussi c'est intéressant, j'ai déjà évoqué l'idée plus haut mais je le redis : la supra-intelligence n'existe peut-être simplement pas. Il n'y a peut-être pas d'intelligence supérieure à la nôtre.
6_ Là encore un gros fantasme nourrie par la télé et le cinéma.
Premièrement on est pas encore assez con pour avoir relié nos bases de lancement de missiles nucléaires à internet.
Ensuite on SAIT, mathématiquement parlant, que certains codes sont INVIOLABLE à moins d’effectuer une quantité de calcul astronomiquement grande, tellement grande que des millions d'années avec tout les ordinateurs du monde ne suffiraient pas à craquer ces codes. Et l'intelligence des I.A. n'y changera rien.
Il y a même des systèmes dont on peut PROUVER le sûreté.( c'est des math mais vous pouvez lire ceci : https://fr.wikipedia.org/wiki/… )
Donc désolé de détruire vos rêves de fins du monde mais non, une I.A. ne prendra pas le contrôle d'internet en deux jours.
Ensuite si votre ordinateur est infecté par une I.A., débranchez-le et réinstallez windows (ou mieux Linux) dessus.
J'ai sans doute oublié des choses, en tout cas j'aimerais vraiment entendre des arguments construits, raisonnables, qui vont contre mon avis et pas des banalités inspirées de la culture geek (même si je l'adore).
il a beau être qui il est aussi intelligent qu’il soit, il en sait putain de rien.
Si tout le monde etait dans cet esprit de « Ca va nuire bordel » on avancerait plus. On aurait pas inventé le fauteuil roulant électrique, j’aurais bien aimé voir la tronche qu’il aurait fait ... sûrement la même qu’ aujourd’hui certainement
Il faudrait donner des nouvelles fraiches , c'est en décembre 2014 (voir deuxième lien) que Stephen Hawking parle de cela lors d'une interview à la BBC ...
De plus, je trouve qu'il faut être prudent avec ceux qui utilisent les arguments d'autorité pour essayer de nous imposer leur point de vue.
Stephen Hawking est un mathématicien renommé qui a travaillé sur les calculs en astrophysique, je veux bien qu'il nous donne des leçons sur le big bang et sur le temps , par contre, ce n'est pas un programmeur, ni un ingénieur en informatique . Stephen Hawking a beau être intelligent, il n'est pas spécialisé en informatique , de ce fait , son point de vue n'est pas acceptable , donc l'opinion de Stephen Hawking sur l'IA , on s'en fout . CQFD
https://fr.wikipedia.org/wiki/…
https://fr.wikipedia.org/wiki/…