Biais racial remarqué dans l'algorithme de recadrage d'images de Twitter

Biais racial remarqué dans l’algorithme de recadrage d’images de Twitter

⌛ Reading Time: 3 minutes

Avec la technologie d’aujourd’hui et la conscience sociale, il n’est plus acceptable de montrer un quelconque type de parti pris dans un produit ou un service, que ce soit intentionnel ou non. C’est pourquoi Twitter est pointé du doigt après que son algorithme de recadrage d’images montre un préjugé racial.

Twitter a-t-il des préjugés raciaux ?

Twitter étudie son algorithme de recadrage d’images après que les utilisateurs ont remarqué que les visages noirs n’étaient pas toujours affichés dans les aperçus d’image sur le système d’exploitation mobile lorsqu’une image montre à la fois un visage noir et un visage blanc.

Twitter a indiqué qu’il n’avait trouvé aucune preuve de préjugés raciaux et sexistes lorsqu’il a testé son algorithme, mais il se rend également compte qu’il y a plus de tests à faire.

Le responsable de la technologie du réseau social, Parag Agrawal, a déclaré que le modèle de recadrage d’images avait été analysé lors de son expédition, mais apprécie que le public aide à le tester en direct. « J’adore ce test public, ouvert et rigoureux – et j’ai hâte d’en tirer des leçons », a-t-il déclaré.

Un directeur d’université de Vancouver, Colin Madland, a lancé cette aventure en remarquant que lorsqu’il zoomait avec un collègue noir, la tête de l’autre homme disparaissait. Il semblait que le logiciel avait vu la tête la plus sombre comme faisant partie de l’arrière-plan, il l’a donc supprimée.

Madland a vu un problème plus profond lorsqu’il a tweeté à ce sujet. Il a posté sur Twitter pour demander si quelqu’un savait ce qui se passait avec la disparition du visage de son collègue. Cependant, une fois qu’il a publié une photo qui comprenait à la fois son visage et le visage manquant de son collègue sur Zoom, Twitter a recadré la photo pour ne montrer que Madland et pas l’autre homme.

Il a découvert sur Zoom qu’il pouvait faire apparaître le visage de l’homme noir si un globe blanc était placé derrière sa tête comme s’il suffisait de le séparer de l’arrière-plan. Pourtant, Twitter a également recadré cela. Il a recadré l’homme avec la tête manquante et a également recadré la photo avec la tête vue devant le globe.

Le responsable de la conception de Twitter, Dantley Davis, pense que le problème serait corrigé si les poils du visage et les lunettes de Madland étaient supprimés.

« Je sais que tu penses que c’est amusant de dunk sur moi – mais je suis aussi irrité à ce sujet que tout le monde. Cependant, je suis en mesure de le réparer, et je le ferai », a déclaré Davis. « C’est à 100 pour cent de notre faute. Personne ne devrait dire le contraire.

Les utilisateurs de Twitter ont mené des expériences pour prouver la théorie. Ils ont découvert que l’algorithme préférait le chef de la majorité au Sénat américain, Mitch McConnell, à l’ancien président américain Barack Obama. Même avec une photo de stock, un homme blanc était montré plutôt qu’un homme noir.

Twitter pas seul

Nouvelles Twitter Carte des préjugés raciaux

Ce n’est pas une situation isolée avec Twitter. C’est également arrivé à Microsoft, IBM et Amazon avec leurs systèmes de reconnaissance faciale. Ils n’étaient pas en mesure d’identifier les personnes de couleur aussi bien que les Blancs.

Microsoft a déclaré avoir pris des mesures pour corriger le problème après s’être rendu compte que le système avait été formé avec des visages principalement blancs. Le système n’avait pas été montré à suffisamment de personnes de couleur pour apprendre à les identifier correctement. Plus tard, Microsoft a suggéré que la reconnaissance faciale soit réglementée pour éviter les biais.

IBM a annoncé qu’il lancerait une nouvelle version de son service. Le système de reconnaissance d’Amazon identifie parfois même les femmes noires comme des hommes noirs, mais il n’a pas le même problème avec les femmes blanches.

Le problème, comme Madland l’a souligné dans son Compte Twitter, c’est que ce n’est pas toujours aussi innocent qu’une réunion Zoom. Les forces de l’ordre utilisent Rekognition. Les gens pourraient être mal identifiés par ce système et accusés d’un crime. Et cela, en soi, est un crime.

Crédit d’image : Twitter de Colin Midland et domaine public

How useful was this post?

Click on a star to rate it!

Average rating 0 / 5. Vote count: 0

No votes so far! Be the first to rate this post.