L’algorithme de Facebook fait des siennes, et s'est montré très gênant. Il a récemment comparé des hommes de couleurs, à des singes. Une affaire qui remet en cause la fiabilité de l'ia dans la gestion des contenus sensibles.
Algorithme limité
Afin de lutter contre la diffusion de contenus à caractère NSFW, sexistes, racistes ou tout simplement choquants, les sites et applications utilisent des modérateurs de contenus, comme des algorithmes. Mais ceux-ci ne s'avèrent pas fiables à 100 %, et montrent les limites de l'intelligence artificielle.
On peut par exemple citer certaines affaires pour le moins embarrassantes, comme celle où Facebook avait censuré en 2018 une photo d'Emmanuel Macron en visite à Saint-Martin pour « nudité et actes sexuels ». L'an passé, l'algorithme a confondu un innocent panier d'oignons avec une paire de seins.
Une affaire très embarrassante
C'est aujourd'hui une vidéo vieille d'un an qui refait surface. À cette période, le Daily Mail, un tabloïd anglais, avait mis en ligne une vidéo intitulée « un homme blanc appelle les flics contre des hommes noirs à la marina ». (Ré)aperçue récemment sur Facebook, plusieurs utilisateurs ont vu s'afficher un message très choquant à la fin de la vidéo. En effet, l'algorithme de recommandation a demandé aux utilisateurs s’ils souhaitaient voir d’autres « vidéos sur les primates », avec les options « Oui/Rejeter ».
Darci Groves, une ancienne designer du géant des réseaux sociaux a pris une capture d'écran et l'a diffusée sur Twitter. « C’est scandaleux », a-t-elle commenté, appelant ensuite ses ex-collègues de Facebook à faire remonter l’affaire.
Um. This “keep seeing” prompt is unacceptable, @Facebook. And despite the video being more than a year old, a friend got this prompt yesterday. Friends at FB, please escalate. This is egregious. pic.twitter.com/vEHdnvF8ui
September 2, 2021
Une erreur très gênante pour Facebook, dont une porte-parole a rapidement réagi, en présentant ses excuses :
C'est clairement une erreur inacceptable (...), nous présentons nos excuses à quiconque a vu ces recommandations insultantes ».
Le groupe californien a désactivé l'outil de recommandation sur ce sujet « dès que nous nous sommes aperçus de ce qui se passait afin d'enquêter sur les causes du problème et empêcher que cela ne se reproduise ».
L'information a rapidement été commentée sur Twitter.
Classique Shit malheureusement mais surprenant quand on connait les pointures en I.A chez Facebook et là ca devient impardonnable https://t.co/U08YD7UbCS
September 4, 2021
Y'a encore des progrès à faire...#IA #intelligenceArtificielle #éthique https://t.co/2WJpmHIWx7
September 4, 2021
Je suis juste choquée !!!
September 4, 2021
Les faits datent de juin 2020 et ressortent aujourd’hui : à la suite d’une vidéo montrant des hommes noirs, un algorithme de @Facebook a proposé de continuer à voir des vidéos « sur les primates ». Que les GAFA contribuent à propager le #racisme le plus abject est inacceptable. https://t.co/f5Si5f08bk pic.twitter.com/KCKSsqkt3H
September 4, 2021
C'est honteux
September 4, 2021
Facebook dans l’œil du cyclone
Voici qui montre donc les limites de la fiabilité de l'ia, notamment pour identifier et bloquer des messages et des images problématiques avant même qu’ils ne soient visionnés. « Comme nous l'avons dit, même si nous avons amélioré nos systèmes d'intelligence artificielle, nous savons qu'ils ne sont pas parfaits et que nous avons des progrès à faire », s'est défendu le réseau social.
Facebook est aussi accusé de ne pas lutter suffisamment contre le racisme et d'autres formes de haine et de discriminations. Pire, plusieurs associations et organisations pointent du doigt le fait que le réseau social et ses algorithmes contribuent à la division de la société américaine, dans le contexte des manifestations du mouvement Black Lives Matter.
Par Xmattks, il y a 3 ans :
Que pensez-vous des calculs algorithmiques de l'ia de FB ?
Répondre à ce commentaire
1
0