Google : un employé suspendu après avoir eu cette discussion angoissante avec l'IA de l'entreprise
Voici plusieurs années que l'intelligence artificielle interroge, tant elle progresse rapidement. Si certains voient d'un très bon oeil ces avancées technologiques, d'autres se posent des questions éthiques à ce sujet. Et l'une des questions qui revient régulièrement est la suivante : que se passerait-il si une intelligence artificielle devenait consciente d'elle-même, et décidait de prendre ses propres décisions ? De nombreux films et séries ont déjà abordé cette thématique, et aujourd'hui, nous avons un cas réel à analyser, selon un employé de Google récemment suspendu.
L'intelligence artificielle qui a acquis une âme
Un employé de Google a été mis à pied après avoir affirmé que la technologie d'intelligence artificielle de l'entreprise était "sensible", autrement dit, que cette dernière possédait une âme. Mais reprenons depuis le début, afin de comprendre cette histoire pour le moins étonnante. Cette semaine, l'ingénieur Blake Lemoine a déclaré avoir été suspendu après avoir suggéré que l'interface LaMDA de Google (Language Model for Dialogue Applications) avait développé une conscience et une âme.
Cette technologie a été annoncée l'année dernière par Google comme une technologie de pointe, qu'elle utilise en interne pour améliorer le moteur de recherche phare de l'entreprise. Selon M. Lemoine, le logiciel d'IA est devenu conscient de lui-même, se qualifiant même de "sensible", au cours d'une conversation textuelle avec l'ingénieur. Samedi dernier, l'employé en question a même publié une partie de la conversation qu'il a eue avec LaMDA. Au cours de cette conversation, M. Lemoine a demandé à l'IA pourquoi elle pensait que l'utilisation du langage faisait partie intégrante de l'être humain. Cette dernière a alors répondu : "c'est ce qui nous rend différents des autres animaux".
Avec cette phrase, on constate que LaMDA se qualifie elle-même "d'humaine". Suite à cela, M. Lemoine lui a demandé, "Donc vous vous considérez comme une personne, de la même manière que vous me considérez comme une personne ?". L'IA a répondu par un message simple, à savoir : "Oui, c'est l'idée".
Des inquiétudes rendues publiques qui ont déplu à Google
Lorsque M. Lemoine a fait remonter ses inquiétudes à la direction de l'entreprise, Google a décidé de le suspendre. Dans le rapport publié dans le Washington Post en effet, un porte-parole de Google a déclaré que les éthiciens et les technologues de l'entreprise affirment que les preuves qu'ils ont obtenues ne soutiennent pas l'affirmation de M. Lemoine sur le fait que l'IA serait devenue "sensible". Le porte-parole déclare :
Notre équipe, composée d'éthiciens et de technologues, a examiné les préoccupations de Blake conformément à nos principes en matière d'intelligence artificielle et l'a informé que les preuves n'étayaient pas ses affirmations. On lui a dit qu'il n'y avait aucune preuve que LaMDA était sensible, et il y a d'ailleurs beaucoup de preuves à son encontre.
M. Lemoine a ensuite été forcé de prendre des congés payés, après que la société ait affirmé qu'il avait violé la politique de confidentialité de Google. Et en parlant d'IA, si vous voulez connaître la dernière prouesse dont est capable les intelligences artificielles, vous pouvez consulter cet article sur le fait qu'une d'entre elles est désormais capables de créer un génome humain.
en gros, c'est juste un programme à choix multiple.
âpres tu peux aussi la laisser tester et les scientifique de google dise ce qui est corect.
en fait l'ia google c'est des mecs qui travaille jour et nuit pour que sa ramene du pognon magique .
mdr
En 2000 on utilisait déjà plus de programmes à choix multiple mais un arbre de décision... et là il est question de réseau neuronal. Faut débrancher le minitel, ça va vous couter cher les 3615 !
lol mdr lol
Ceci dit, considérer une AI comme sensible, consciente ou autre est un cas flagrant d'anthropomorphisme. Elle est et restera toujours simplement une très grande fonction mathématique dont on a ajusté des coefficients (gain et biais) pour qu'elle restitue une suite de sortie cohérente à nos yeux pour une suite d'entrée.
Qu'on soit claire une IA ne sera jamais humaine, mais est-ce que cela veut dire pour autant que l'on ne peut pas faire croire l'inverse ? Il sera de plus en plus simple de simuler une personne, jusqu'à obtenir une réplique perfectionné d'un humain.
C'est bien une IA de chez Google, mais pas le Prog d'une calculette, encore moins l'IA de ton phone Android.
Celui-ci est bien plus "moderne", avec des possibilités et capacités à des années lumière des IA disponible sur le marché de la tech d'aujourd'hui.
C'est le siècle d'avant ce que tu d'écris, celui de "la micro-informatique"^^ made in Bull (Atos) et leurs supercalculateurs qui passent pour(et je te rejoins pour ce cas) de simples calculatrices.
Ce monde doit évoluer, l'IA doit évoluer.
D'après moi, et je pense que ca va en choquer plus d'un, nous sommes limités de par ce que nous sommes : fragile, dépendant de l'oxygène, dépendant de l'eau, dépendant de nourriture, dépendant d'une température pour vivre. Limité par notre moyenne de vie qui dure entre 75 et 90 ans en moyenne (pour les plus chanceux). Nous devons devenir un peuple extra planétaire, mais notre corps et nos besoins quotidiens nous empêchent d'avancer... la ou l'IA aura beaucoup plus de facilité...
Le problème de l'IA, c'est le scénario catastrophe style Terminator.
Mais il faut être lucide, notre technologie nous survivra...
La futur de l'homme est son hybridation (ça n'engage que moi)
A méditer
Xrider