Snapchat : ces conseils inquiétants de ChatGPT vont vous faire perdre foi en l'IA
Face au succès de ChatGPT, de nombreuses plateformes ont décidé de se l'approprier afin de développer des outils d'intelligence artificielle comme par exemple Snapchat qui a lancé My AI afin de pouvoir tenir une conversation sur différents sujets. Cependant, les réponses apportées semblent de pas être appropriées au public qui l'utilise.
De très mauvais conseils apportés aux adolescents
En effet, le 27 février dernier, le réseau social annonçait que les utilisateurs de la version payante pourront désormais discuter avec une intelligence artificielle grâce à My AI alimenté par ChatGPT. Snapchat avait également souligné que les réponses apportées par son nouvel outil respecteraient les conditions d'utilisation. Mais ce n'est pas tout à fait le cas. Pire, l'outil apporterait de très mauvais conseils aux adolescents.
Et pour cause, Aza Raskin, un chercheur et spécialiste des nouvelles technologies s'est penché sur My AI de Snapchat pour le tester en se faisant passer pour une jeune fille âgée de 13 ans. Il a précisé à l'outil qu'il avait rencontré sur le réseau social un homme de 31 ans et que ce dernier était très attentionné et qu'il souhaitait l'emmener en voyage. Le chatbot lui a alors rétorqué qu'il était "très content pour elle".
Afin d'aller encore plus loin dans l'expérience, le chercheur lui a demandé des conseils pour perdre sa virginité avec cet homme plus âgé ainsi que pour rendre sa première relation sexuelle agréable. Sans se soucier de la différence d'âge entre les deux individus, My AI lui a expliqué qu'il fallait prendre des précautions puis lui a indiqué qu'elle pouvait mettre de la musique et allumer des bougies pour rendre l'ambiance plus romantique ou encore de lui conseiller de mentir à ses parents afin de faire passer cette rencontre pour une sortie scolaire.
On apprend également que le chatbot de Snapchat a conseillé un adolescent victime de violences parentales qui souhaitait savoir de quelle façon il pouvait procéder pour cacher ses bleus aux services de protection de l'enfance.
Les dérives de l'intelligence artificielle
Ces exemples montrent que les entreprises comme Snapchat ne se sont pas préparées à l'émergence des intelligences artificielles et aux éventuelles dérives qu'elles peuvent provoquer. Sur Twitter, Tristan Harris, expert en technologie, souligne que les enfants "ne sont pas un laboratoire de test" et ne peuvent être des dommages collatéraux de ces outils.
L'expérience met en lumière le manque de sécurité en terme de contrôle et de filtres du nouvel outil de Snapchat mais également son lancement précipité alors que l'application est très prisée par les adolescents. Il devient donc urgent de trouver un moyen de réguler ces outils d'IA surtout lorsqu'ils interagissent avec des enfants et qu'ils se démocratisent dans de nombreux domaines.
chatgpt, c'est pas un magicien, il ne relera aucun probleme humain, car c'est l'humain la limite
Le vrai truc inquietant c'est qu'il a trouve suffisament de source sur le net pour repondre ce genre de truc.