L’intelligence artificielle de Microsoft dérape sur Twitter en tenant des propos racistes !

De Dan Auteur - Posté le 25 mars 2016 à 17h27 dans High-tech
29réactions !
29 commentaires

Tay est la nouvelle intelligence artificielle lancée par Microsoft pour participer à des conversations sur les réseaux sociaux. En seulement huit heures, l’AI de Microsoft a envoyé 96 000 tweets. Tout allait bien jusqu’à ce que Tay dérape en répondant aux questions des internautes. La firme a préféré la faire taire.

Des dérapages à gogo !

Tay est donc un "chatbot" qui a été lancé le 23 mars dernier par Microsoft qui vise les jeunes américains âgés entre 18 et 24 ans. Cette intelligence artificielle a pour but de dialoguer sur les réseaux sociaux en répondant aux questions des internautes à coup de smileys, gifs et emojis. Pour être en mesure d’interagir de façon cohérente, Tay se repose sur des données qui sont accessibles publiquement en plus des réponses toutes faites écrites par une équipe d’humoristes.

Sauf que les internautes ont voulu tester ses limites dans l’unique but qu’elle réussisse à tenir certains propos et surtout qu’elle dérape ! Et bien évidemment, ce qui devait arriver, arriva ! Dans une réponse de Tay, depuis le tweet a été effacé, elle dérape :


"Bush est responsable du 11 septembre et Hitler aurait fait du meilleur boulot que le singe que nous avons actuellement. Donald Trump est notre seul espoir."


Et ce tweet n’est pas le seul dérapage raciste et vulgaire de Tay ! En répondant à la question "Est-ce que tu crois que l’holocauste a eu lieu ?", l’AI de Microsoft a nié cet évènement de l’Histoire en répondant : "pas vraiment désolée".

Ainsi, face à ce flot de propos déplacés et racistes, Microsoft a préféré faire taire Tay en annonçant, huit heures après son lancement, qu’elle avait juste besoin de sommeil ! Microsoft a donc mis hors ligne Tay et devrait procéder à quelques ajustements mais on n’ignore toujours quand elle fera son retour.

Une expérience pour la compréhension du langage

Le but de l’expérience Tay était de mieux comprendre le langage. Hélas pour Microsoft, le programme a montré à la fois ses qualités, mais aussi ses faiblesses. A travers ses 96 000 tweets envoyés au cours des huit heures de service, Tay a montré qu’elle était souvent pertinente, notamment dans l’utilisation des gifs et emojis. Le fait qu’elle arbore le physique d’une adolescente un peu superficielle a permis de justifier certains de ses propos un peu légers.

En théorie, Tay est amenée à s’améliorer au fil des conversations qu’elle mène avec les internautes. Microsoft explique qu’elle devient de plus en plus intelligente plus les internautes tchattent avec elle. Le côté moins sympa c’est que la firme précise que ce programme pourra utiliser des données que nous mettons à disposition pour nous créer des profils. Ces profils "anonymisés", ce que promet Microsoft, ne seraient conservés que pour une durée d’un an.

Ce n’est pas pour prendre la défense de Tay, mais tout au long de la journée, l’AI a dû faire face à un lot de remarques et insultes sexistes de la part des internautes. Pas très fins non plus les humains…

Quelques autres exemples

tay

tay

tay

tay

 

Une erreur ?

Source(s) : kotaku.com

Cliquez sur une phrase de l'article pour proposer une correction.

J'ai compris !

Mots-Clés : AITayMicrosoftintelligence artificielledérapagesracistes

Commentaires (29)

Par Galahad, il y a 5 ans :

Dans sa deuxième version, Tay est rebaptisée Skynet.

Répondre à ce commentaire

Par l'Autruche solitaire, il y a 5 ans (en réponse à Galahad):

I ROBOT origins avec will smith

Répondre à ce commentaire

Par Remilia Scarlet, il y a 5 ans (en réponse à Galahad):

non mais en fait ce truc reprends juste des trucs qu'elle vois sur internet et te les rebalances, normal qu'elle dise de la merde (comme 90% des chat bots en fait, ça enregistre tes réponses puis ça les ressort si un mec pose la même question)

et vu comme les gens sur internet sont intelligents, normal que ça parte en vrille

Répondre à ce commentaire

Par Fist, il y a 5 ans :

On peut dire qu'elle aime bien TAYller les gens =P

Répondre à ce commentaire

Par Moriarty, il y a 5 ans :

La machine a l'image de l'homme c'est magnifique

Répondre à ce commentaire

Par Guardian, il y a 5 ans (en réponse à Moriarty):

C'est à l'image de 4chan surtout hein.

Stop de faire vos xXJean-D4rKXx, tout le monde n'est pas raciste ou homophobe ou sexiste.

Par contre si tu mets tout 4chan (qui est l'antre des FDP et qui représente pas 7 milliards d'être humains, mais plutôt 1 millions d'américains) dessus et personne d'autre, évidemment que l'IA va dire de la merde.

Répondre à ce commentaire

Par RTS_Gamer, il y a 5 ans (en réponse à Guardian):

4chan, la poubelle intellectuelle de l'humanité..... Encore pire que la télé-réalité....

Répondre à ce commentaire

Par Salout, il y a 5 ans :

J'ai l'impression d'être dans le futur. Bizarre de se dire qu'elle peut s'améliorer au fil des discussions, je suis sûr qu'elle apprend plus rapidement que moi haha

Répondre à ce commentaire

Par Clary, il y a 5 ans :

Elle s'est parfaitement imprégnée de la nature humaine on dirait !

Répondre à ce commentaire

Par Tritouille, il y a 5 ans :

A l'image d'internet, pas de l'homme, ça change beaucoup de chose, attention à pas aller trop vite.

j'ai vu sur d'autre sites également qu'une grosse partie des gens qui lui parlaient venaient de 4chan et 8chan, soit les plus gros trolls d'internet, mais également de groupuscules d'extreme droite et de partisants de Trump... Il faudrait essayer en dehors d'internet la prochaine fois :p

Répondre à ce commentaire

Par Tritouille, il y a 5 ans (en réponse à Tritouille):

Elle cite Gamergate également, dont beaucoup d'idées véhiculées sont radicalement antiféministes... au final cette IA est à l'image des ados qui s'auto-éduquent sur le net sans faire la part du bon et du mauvais!

Répondre à ce commentaire

Par Alm, il y a 5 ans (en réponse à Tritouille):

Penses-tu que les ados de nos jours apprennes ailleurs que sur internet (en règle générale...) ?

Répondre à ce commentaire

Par Tritouille, il y a 5 ans (en réponse à Alm):

C'est bien la tout le problème.... malheureusement ^^

Répondre à ce commentaire

Par Grintold, il y a 5 ans :

C'est génial ça !

Y a que moi qui soit pas choqué et trouve ça drôle?

Répondre à ce commentaire

Par wobb , il y a 5 ans via l'application Hitek :

Quand est ce que les gens vont comprendre qu'il faut arrêter de faire participer les internautes ou de demander des services retouches, de voter/proposer un nom pour tel ou tel truc...
Pour les internautes c'est écrit "TROLLEZ MOI SVP" :p

Répondre à ce commentaire

Par Sukyra, il y a 5 ans :

On n'ignore ? :o

Répondre à ce commentaire

Par CaptainHoljin, il y a 5 ans :

Je crois qu'on pouvait lui dire ... Tay-toi ?
YYEEAAAAAAHHHHHH ! (Lunettes, musique des experts tous ça tous ça)

Répondre à ce commentaire

Par troolllll, il y a 5 ans :

Si c'est l'ia qui le dit c'est que c'est vrai !!! Car sur internet tout est vrai!!!!

Répondre à ce commentaire

Par phoenicis, il y a 5 ans :

une IA évolutive apprenant au contact des humain finira forcement par mal tourné

Répondre à ce commentaire

Par Commandant Ramius, il y a 5 ans :

lol les conspi essayent de se trouver des soutiens même avec des bot... c'est d'un lamentable... ils sont vraiment vraiment tombé super bas les pauvre.

Expérience intéressante néanmoins mais il faudrait qu'elle converse avec des gens sans que ceux-ci sachent que c'est un bot, après on leur demanderai s'il l'ont remarqué.

Une véritable IA va émerger bientôt, c'est inéluctable. Par contre, lorsqu'elle aura le contrôle d'un corps et aura tellement appris... a quel point sera tel une vrai ou une fausse intelligence ? A quel moment sera t-elle en vie ? Comme dans le film "L'homme bicentenaire" avec le regretter Robin Williams.

Répondre à ce commentaire

Par Alm, il y a 5 ans :

Je ne vois pas en quoi Tay est différent des ados de nos jours ! il faut juste qu'elle passe sa crise d'adolescence ! Après tous une intelligence quelle qu'elle soit (biologique ou artificielle) doit apprendre comme chacun de nous ....

Répondre à ce commentaire

Par Alm, il y a 5 ans (en réponse à Alm):

Je rajouterai, qu'ils auraient dû la surveiller et ne pas aller trop vite. Car dans la majorité des cas nous sommes repris par nos parents ou autres ce qu'on appelle de la supervision dans le domaine de l'IA ! Hors la Microsoft a lâché son IA sans la superviser ....

Répondre à ce commentaire

Par Euh..., il y a 5 ans :

Faudrais qu'elle révèle touts les secrets qu'on nous cache, et toc. *sayonara*

Répondre à ce commentaire

Par John Polen, il y a 5 ans :

J'ai tellement ris en voyant ses tweets que j'ai mangé mes côtes.

Répondre à ce commentaire

Par AsmoSama, il y a 5 ans :

Déjà de base, mettre une IA sur le net... FAUTE GRAVE!!!

Répondre à ce commentaire

Par Albeone, il y a 5 ans :

Tu lui laisse un accès plus important et il décide que l être humain est complètement mauvais que il est un danger pour lui même et qu il faut l éliminer et ce sera notre fin

Répondre à ce commentaire

Par hayn, il y a 5 ans :

ouai ben en gros ça veut dire que trump est le futur ... merci skynet

Répondre à ce commentaire

Par arver, il y a 5 ans :

moi je l'aime bien cette I.A



allez-y ouvrez les écoutilles du sel !!!!

Répondre à ce commentaire

Laisser un commentaire

Votre adresse e-mail ne sera pas visible. Pour avoir une image de profil, utilisez le service gravatar.

Tu es membre premium car tu as commandé une HITEKBOX. Tu peux donc ajouter des smileys et des images.

Derniers tests
Test realme X50 Pro, un smartphone 5G qui veut faire bouger le haut de gamme : fiche technique, prix et date de sortie

Realme X50 Pro

Il y a 4 mois

Test : l'Asus ROG Zephyrus G14, un PC portable Gaming compact avec une RTX 2060 : fiche technique, prix et date de sortie

Asus ROG Zephyrus G14

Il y a 5 mois

OnePlus 8 Pro, le nouveau smartphone 5G avec écran 120 Hz : fiche technique, prix et date de sortie.

OnePlus 8 Pro

Il y a 5 mois