Facebook confond des personnes de couleurs avec des singes
L’algorithme de Facebook fait des siennes, et s'est montré très gênant. Il a récemment comparé des hommes de couleurs, à des singes. Une affaire qui remet en cause la fiabilité de l'ia dans la gestion des contenus sensibles.
Algorithme limité
Afin de lutter contre la diffusion de contenus à caractère NSFW, sexistes, racistes ou tout simplement choquants, les sites et applications utilisent des modérateurs de contenus, comme des algorithmes. Mais ceux-ci ne s'avèrent pas fiables à 100 %, et montrent les limites de l'intelligence artificielle.
On peut par exemple citer certaines affaires pour le moins embarrassantes, comme celle où Facebook avait censuré en 2018 une photo d'Emmanuel Macron en visite à Saint-Martin pour « nudité et actes sexuels ». L'an passé, l'algorithme a confondu un innocent panier d'oignons avec une paire de seins.
Une affaire très embarrassante
C'est aujourd'hui une vidéo vieille d'un an qui refait surface. À cette période, le Daily Mail, un tabloïd anglais, avait mis en ligne une vidéo intitulée « un homme blanc appelle les flics contre des hommes noirs à la marina ». (Ré)aperçue récemment sur Facebook, plusieurs utilisateurs ont vu s'afficher un message très choquant à la fin de la vidéo. En effet, l'algorithme de recommandation a demandé aux utilisateurs s’ils souhaitaient voir d’autres « vidéos sur les primates », avec les options « Oui/Rejeter ».
Darci Groves, une ancienne designer du géant des réseaux sociaux a pris une capture d'écran et l'a diffusée sur Twitter. « C’est scandaleux », a-t-elle commenté, appelant ensuite ses ex-collègues de Facebook à faire remonter l’affaire.
Um. This “keep seeing” prompt is unacceptable, @Facebook. And despite the video being more than a year old, a friend got this prompt yesterday. Friends at FB, please escalate. This is egregious. pic.twitter.com/vEHdnvF8ui
— Darci Groves (@tweetsbydarci) September 2, 2021
Une erreur très gênante pour Facebook, dont une porte-parole a rapidement réagi, en présentant ses excuses :
C'est clairement une erreur inacceptable (...), nous présentons nos excuses à quiconque a vu ces recommandations insultantes ».
Le groupe californien a désactivé l'outil de recommandation sur ce sujet « dès que nous nous sommes aperçus de ce qui se passait afin d'enquêter sur les causes du problème et empêcher que cela ne se reproduise ».
L'information a rapidement été commentée sur Twitter.
Classique Shit malheureusement mais surprenant quand on connait les pointures en I.A chez Facebook et là ca devient impardonnable https://t.co/U08YD7UbCS
— David Larose \ud83d\udc27 (@Pentar0o) September 4, 2021
Y'a encore des progrès à faire...#IA #intelligenceArtificielle #éthique https://t.co/2WJpmHIWx7
— Marie Langé #jesuisvaccinée\ud83d\udc89 (@langemarie) September 4, 2021
Je suis juste choquée !!!
— Sabrina Biodore (@sbiodore) September 4, 2021
Les faits datent de juin 2020 et ressortent aujourd’hui : à la suite d’une vidéo montrant des hommes noirs, un algorithme de @Facebook a proposé de continuer à voir des vidéos « sur les primates ». Que les GAFA contribuent à propager le #racisme le plus abject est inacceptable. https://t.co/f5Si5f08bk pic.twitter.com/KCKSsqkt3H
— Collectif VAN (@Collectif_VAN) September 4, 2021
C'est honteux
— Onifade (@carineoni) September 4, 2021
Facebook dans l’œil du cyclone
Voici qui montre donc les limites de la fiabilité de l'ia, notamment pour identifier et bloquer des messages et des images problématiques avant même qu’ils ne soient visionnés. « Comme nous l'avons dit, même si nous avons amélioré nos systèmes d'intelligence artificielle, nous savons qu'ils ne sont pas parfaits et que nous avons des progrès à faire », s'est défendu le réseau social.
Facebook est aussi accusé de ne pas lutter suffisamment contre le racisme et d'autres formes de haine et de discriminations. Pire, plusieurs associations et organisations pointent du doigt le fait que le réseau social et ses algorithmes contribuent à la division de la société américaine, dans le contexte des manifestations du mouvement Black Lives Matter.
Mais bon le jour ou les gens reflechiront deux secondes sur internet n'arrivera jamais.
A corriger évidement, que les ramollis du bulbe s'abstiennent de déformer ou d'extrapoler mes propos...
Puisque tu refuses d'avance toute extrapolation de tes propos, t'auras le courage d'écrire explicitement ce que sous-entend cette phrase pas vrai ?
Quant au courage... Je vois pas ce que ça vient faire là dedans!
Il y a des gens qui n'ont simplement pas le courage d'écrire clairement le fond de leurs pensées.
On se demande bien pourquoi...
Rien d'étonnant, les gens qui pensent comme toi sont des lâches.