Tay est la nouvelle intelligence artificielle lancée par Microsoft pour participer à des conversations sur les réseaux sociaux. En seulement huit heures, l’AI de Microsoft a envoyé 96 000 tweets. Tout allait bien jusqu’à ce que Tay dérape en répondant aux questions des internautes. La firme a préféré la faire taire.
Des dérapages à gogo !
Tay est donc un "chatbot" qui a été lancé le 23 mars dernier par Microsoft qui vise les jeunes américains âgés entre 18 et 24 ans. Cette intelligence artificielle a pour but de dialoguer sur les réseaux sociaux en répondant aux questions des internautes à coup de smileys, gifs et emojis. Pour être en mesure d’interagir de façon cohérente, Tay se repose sur des données qui sont accessibles publiquement en plus des réponses toutes faites écrites par une équipe d’humoristes.
Sauf que les internautes ont voulu tester ses limites dans l’unique but qu’elle réussisse à tenir certains propos et surtout qu’elle dérape ! Et bien évidemment, ce qui devait arriver, arriva ! Dans une réponse de Tay, depuis le tweet a été effacé, elle dérape :
"Bush est responsable du 11 septembre et Hitler aurait fait du meilleur boulot que le singe que nous avons actuellement. Donald Trump est notre seul espoir."
Et ce tweet n’est pas le seul dérapage raciste et vulgaire de Tay ! En répondant à la question "Est-ce que tu crois que l’holocauste a eu lieu ?", l’AI de Microsoft a nié cet évènement de l’Histoire en répondant : "pas vraiment désolée".
Ainsi, face à ce flot de propos déplacés et racistes, Microsoft a préféré faire taire Tay en annonçant, huit heures après son lancement, qu’elle avait juste besoin de sommeil ! Microsoft a donc mis hors ligne Tay et devrait procéder à quelques ajustements mais on n’ignore toujours quand elle fera son retour.
Une expérience pour la compréhension du langage
Le but de l’expérience Tay était de mieux comprendre le langage. Hélas pour Microsoft, le programme a montré à la fois ses qualités, mais aussi ses faiblesses. A travers ses 96 000 tweets envoyés au cours des huit heures de service, Tay a montré qu’elle était souvent pertinente, notamment dans l’utilisation des gifs et emojis. Le fait qu’elle arbore le physique d’une adolescente un peu superficielle a permis de justifier certains de ses propos un peu légers.
En théorie, Tay est amenée à s’améliorer au fil des conversations qu’elle mène avec les internautes. Microsoft explique qu’elle devient de plus en plus intelligente plus les internautes tchattent avec elle. Le côté moins sympa c’est que la firme précise que ce programme pourra utiliser des données que nous mettons à disposition pour nous créer des profils. Ces profils "anonymisés", ce que promet Microsoft, ne seraient conservés que pour une durée d’un an.
Ce n’est pas pour prendre la défense de Tay, mais tout au long de la journée, l’AI a dû faire face à un lot de remarques et insultes sexistes de la part des internautes. Pas très fins non plus les humains…
Quelques autres exemples
Par Galahad, il y a 8 ans :
Dans sa deuxième version, Tay est rebaptisée Skynet.
Répondre à ce commentaire
202
1