Facebook, AI Önyargısını Azaltmak için Açık Kaynak Veri Kümesi Oluşturuyor

Facebook crée un ensemble de données open source pour réduire les biais de l’IA

⌛ Reading Time: 3 minutes

Facebook pourrait utiliser de bonnes relations publiques après les dernières nouvelles qui ont révélé que la société de médias sociaux avait permis le vol de données de millions de clients. Pour redresser un peu le navire, Facebook a créé un ensemble de données open source qui, selon lui, réduira le biais de l’IA.

Facebook vise à corriger les biais de l’IA

Un problème existant avec la reconnaissance faciale a été le biais de l’IA. Alors que l’intelligence artificielle essaie d’identifier les personnes à travers leurs caractéristiques faciales uniques, historiquement, elle ne fonctionne pas bien avec les individus non masculins et non blancs.

Facebook a entrepris de corriger le biais de l’IA avec son ensemble de données open source, il s’appelle « Conversations occasionnelles ». Il comprend 45 186 vidéos de plus de 3 000 personnes ayant une conversation non scénarisée. Les participants sont de sexe, de tranche d’âge et de couleur de peau différents.

Les acteurs ont été payés pour soumettre des vidéos contenant leurs propres descriptions d’âge et de sexe afin de supprimer autant que possible la base de l’IA. L’équipe de Facebook les a ensuite étiquetés par ton de peau sur la base de l’échelle Fitzpatrick qui examine six tons de peau.

L’éclairage a également été noté pour montrer différents tons de peau dans des situations de faible luminosité. L’IA audio et visuelle peut être testée avec l’ensemble de données Casual Conversations. Le but n’est pas de développer des algorithmes mais d’évaluer les performances des algorithmes avec différents visages.

Deux des ensembles de données actuellement utilisés pour la reconnaissance faciale – UB-A et Adience – étaient principalement composés de personnes à la peau blanche. UB-A a utilisé 79,6% de Blancs, tandis qu’Adience a utilisé 86,2%.

Traitement des biais Facebook Ai

Outre le teint de la peau, les classificateurs pour IBM, Microsoft et Face++ ont mieux fonctionné avec les visages masculins que les voix féminines dans une étude du MIT. Il n’y avait presque aucune erreur avec les visages masculins blancs, tandis que les visages féminins plus sombres avaient un taux d’erreur de près de 35%.

Casual Conversations vise à aider à évaluer l’algorithme actuellement utilisé. “Notre nouvel ensemble de données Casual Conversations devrait être utilisé comme un outil supplémentaire pour mesurer l’équité des modèles de vision par ordinateur et audio, en plus des tests de précision, pour les communautés représentées dans l’ensemble de données”, a déclaré l’équipe de Facebook travaillant sur le projet.

Évaluations des conversations informelles

Facebook a utilisé Casual Conversations pour tester les cinq algorithmes qui avaient remporté le Deepfake Detection Challenge en 2020. Cela avait été développé pour identifier les médias falsifiés qui étaient publiés.

Ensemble de données Facebook Ai Bias

Bien qu’ils soient des algorithmes très respectés, ils ont eu du mal avec des tons de peau plus foncés. Le gagnant de la troisième place du défi a en fait été le meilleur avec Conversations occasionnelles.

Facebook a déjà publié l’ensemble de données à la communauté open source. Ce faisant, il a noté qu’il identifie les genres « masculin », « féminin » et « autre », expliquant qu’il ne peut pas identifier ceux qui s’identifient comme non binaires.

“Au cours de la prochaine année, nous explorerons des voies pour étendre cet ensemble de données pour qu’il soit encore plus inclusif, avec des représentations qui incluent un plus large éventail d’identités de genre, d’âges, de lieux géographiques, d’activités et d’autres caractéristiques”, a déclaré Facebook à propos de son efforts pour éliminer le biais de l’IA.

Lisez la suite pour en savoir plus sur les efforts de Microsoft pour réglementer la reconnaissance faciale afin d’éliminer la base.

How useful was this post?

Click on a star to rate it!

Average rating 0 / 5. Vote count: 0

No votes so far! Be the first to rate this post.