Rechercher Annuler

Facebook confond des personnes de couleurs avec des singes

De Alix Odorico - Posté le 4 septembre 2021 à 15h42 dans Insolite

L’algorithme de Facebook fait des siennes, et s'est montré très gênant. Il a récemment comparé des hommes de couleurs, à des singes. Une affaire qui remet en cause la fiabilité de l'ia dans la gestion des contenus sensibles.

Algorithme limité

Afin de lutter contre la diffusion de contenus à caractère NSFW, sexistes, racistes ou tout simplement choquants, les sites et applications utilisent des modérateurs de contenus, comme des algorithmes. Mais ceux-ci ne s'avèrent pas fiables à 100 %, et montrent les limites de l'intelligence artificielle.

On peut par exemple citer certaines affaires pour le moins embarrassantes, comme celle où Facebook avait censuré en 2018 une photo d'Emmanuel Macron en visite à Saint-Martin pour « nudité et actes sexuels ». L'an passé, l'algorithme a confondu un innocent panier d'oignons avec une paire de seins.

Une affaire très embarrassante

C'est aujourd'hui une vidéo vieille d'un an qui refait surface. À cette période, le Daily Mail, un tabloïd anglais, avait mis en ligne une vidéo intitulée « un homme blanc appelle les flics contre des hommes noirs à la marina ». (Ré)aperçue récemment sur Facebook, plusieurs utilisateurs ont vu s'afficher un message très choquant à la fin de la vidéo. En effet, l'algorithme de recommandation a demandé aux utilisateurs s’ils souhaitaient voir d’autres « vidéos sur les primates », avec les options « Oui/Rejeter ».

Darci Groves, une ancienne designer du géant des réseaux sociaux a pris une capture d'écran et l'a diffusée sur Twitter. « C’est scandaleux », a-t-elle commenté, appelant ensuite ses ex-collègues de Facebook à faire remonter l’affaire.

Um. This “keep seeing” prompt is unacceptable, @Facebook. And despite the video being more than a year old, a friend got this prompt yesterday. Friends at FB, please escalate. This is egregious. pic.twitter.com/vEHdnvF8ui

September 2, 2021

Une erreur très gênante pour Facebook, dont une porte-parole a rapidement réagi, en présentant ses excuses :

C'est clairement une erreur inacceptable (...), nous présentons nos excuses à quiconque a vu ces recommandations insultantes ».

Le groupe californien a désactivé l'outil de recommandation sur ce sujet « dès que nous nous sommes aperçus de ce qui se passait afin d'enquêter sur les causes du problème et empêcher que cela ne se reproduise ».

L'information a rapidement été commentée sur Twitter.

Classique Shit malheureusement mais surprenant quand on connait les pointures en I.A chez Facebook et là ca devient impardonnable https://t.co/U08YD7UbCS

September 4, 2021

Y'a encore des progrès à faire...#IA #intelligenceArtificielle #éthique https://t.co/2WJpmHIWx7

September 4, 2021

Je suis juste choquée !!!

September 4, 2021

Les faits datent de juin 2020 et ressortent aujourd’hui : à la suite d’une vidéo montrant des hommes noirs, un algorithme de @Facebook a proposé de continuer à voir des vidéos « sur les primates ». Que les GAFA contribuent à propager le #racisme le plus abject est inacceptable. https://t.co/f5Si5f08bk pic.twitter.com/KCKSsqkt3H

September 4, 2021

C'est honteux

September 4, 2021

Facebook dans l’œil du cyclone

Voici qui montre donc les limites de la fiabilité de l'ia, notamment pour identifier et bloquer des messages et des images problématiques avant même qu’ils ne soient visionnés. « Comme nous l'avons dit, même si nous avons amélioré nos systèmes d'intelligence artificielle, nous savons qu'ils ne sont pas parfaits et que nous avons des progrès à faire », s'est défendu le réseau social.

Facebook est aussi accusé de ne pas lutter suffisamment contre le racisme et d'autres formes de haine et de discriminations. Pire, plusieurs associations et organisations pointent du doigt le fait que le réseau social et ses algorithmes contribuent à la division de la société américaine, dans le contexte des manifestations du mouvement Black Lives Matter.

Une erreur ?

Mots-Clés : Twitter.Darci GrovesfacebookalgorithmeAlgorithme FacebookIAintelligence artificiellensfwvidéos sensiblescontenus sensiblesBlack Lives Matter

Cliquez sur une phrase de l'article pour proposer une correction.

J'ai compris !

Commentaires (13)

Par Xmattks, il y a 1 an :

Que pensez-vous des calculs algorithmiques de l'ia de FB ?

Répondre à ce commentaire

Par Mrgoodgift, il y a 1 an :

Nous somme tous des primates.

Répondre à ce commentaire

Par Chouffin Leader, il y a 1 an (en réponse à Mrgoodgift):

Oui ben y a des primates qui jouent avec leur caca et d'autres qui construisent des cathédrales .

Répondre à ce commentaire

Par wasteak, il y a 1 an :

Les gens comprennent pas que ce n'est pas facebook en tord la, mais que les ia ont des limites et parfois font de la merde.

Mais bon le jour ou les gens reflechiront deux secondes sur internet n'arrivera jamais.

Répondre à ce commentaire

Par lola, il y a 1 an :

L'homme a fait cette comparaison bien avant l'invention de l'ordinateur. Et elle n'a pas été faite dans le vide. L'IA fait les mêmes rapprochements, rien d'étonnant.
A corriger évidement, que les ramollis du bulbe s'abstiennent de déformer ou d'extrapoler mes propos...

Répondre à ce commentaire

Par Murge, il y a 1 an (en réponse à lola):

"[Cette comparaison] n'a pas été faite dans le vide."

Puisque tu refuses d'avance toute extrapolation de tes propos, t'auras le courage d'écrire explicitement ce que sous-entend cette phrase pas vrai ?

Répondre à ce commentaire

Par lola, il y a 1 an (en réponse à Murge):

Aucun sous-entendu. Si tu demandes à des personnes qui ressemble le plus à un singe entre un lapin blanc et un lapin noir, combien vont choisir le lapin noir? Je reste volontairement très basique, pas envie de faire des tartines, ça partira de toute façon dans tout les sens.
Quant au courage... Je vois pas ce que ça vient faire là dedans!

Répondre à ce commentaire

Par Murge, il y a 1 an (en réponse à lola):

Encore des sous-entendus, et toujours rien d'explicite.

Il y a des gens qui n'ont simplement pas le courage d'écrire clairement le fond de leurs pensées.
On se demande bien pourquoi...

Répondre à ce commentaire

Par lola, il y a 1 an (en réponse à Murge):

Tu ne me voleras pas mon temps. EOM.

Répondre à ce commentaire

Par Murge, il y a 1 an (en réponse à lola):

Ok, visiblement t'as pas le courage de t'exprimer explicitement.

Rien d'étonnant, les gens qui pensent comme toi sont des lâches.

Répondre à ce commentaire

Par WATCHMEN, il y a 1 an (en réponse à Murge):

pt1 toi tes black avec un ptit sgeg on dirait lol!

Répondre à ce commentaire

Par Murge, il y a 1 an (en réponse à WATCHMEN):

Ok l'illettré.

Répondre à ce commentaire

Par Suce_Moi_Le_Jagon, il y a 1 an :

IA sports? It's in the game?

Répondre à ce commentaire

Laisser un commentaire

Votre adresse e-mail ne sera pas visible. Pour avoir une image de profil, utilisez le service gravatar.

Tu es membre premium car tu as commandé une HITEKBOX. Tu peux donc ajouter des smileys et des images.