Facebook creează un set de date open-source pentru a diminua prejudecățile AI

Facebook erstellt einen Open-Source-Datensatz, um die KI-Verzerrung zu verringern

Facebook könnte eine gute PR gebrauchen, nachdem die neuesten Nachrichten enthüllten, dass das Social-Media-Unternehmen den Diebstahl von Millionen von Kundendaten zugelassen hat. Um das Schiff ein wenig zu verbessern, hat Facebook einen Open-Source-Datensatz erstellt, von dem es glaubt, dass er die KI-Tendenz verringert.

Facebook Ziel ist es, AI Bias zu beheben

Ein bestehendes Problem bei der Gesichtserkennung war die KI-Tendenz. Während künstliche Intelligenz versucht, Menschen anhand ihrer einzigartigen Gesichtszüge zu identifizieren, ist sie historisch gesehen bei nicht männlichen, nicht weißen Personen nicht gut.

Facebook hat sich zum Ziel gesetzt, die KI-Tendenz zu beheben Mit seinem Open-Source-Datensatz nennt es “Casual Conversations”. Es enthält 45.186 Videos von mehr als 3.000 Personen, die ein Gespräch ohne Skript führen. Die Teilnehmer sind unterschiedlicher Geschlechter, Altersgruppen und Hauttöne.

Die Schauspieler wurden dafür bezahlt, Videos einzureichen, die ihre eigenen Beschreibungen von Alter und Geschlecht enthielten, um so viel KI-Basis wie möglich zu entfernen. Das Facebook-Team beschriftete sie dann anhand der Fitzpatrick-Skala, die sechs Hauttöne untersucht, nach Hautton.

Es wurde auch festgestellt, dass die Beleuchtung bei schlechten Lichtverhältnissen unterschiedliche Hauttöne zeigt. Audio- und visuelle KI können mit dem Datensatz “Casual Conversations” getestet werden. Der Zweck besteht nicht darin, Algorithmen zu entwickeln, sondern die Leistung der Algorithmen mit unterschiedlichen Gesichtern zu bewerten.

Zwei der derzeit für die Gesichtserkennung verwendeten Datensätze – UB-A und Adience – bestanden hauptsächlich aus weißhäutigen Personen. UB-A verwendete 79,6 Prozent Weiße, während Adience 86,2 Prozent verwendete.

Facebook Ai Bias-Verarbeitung

Abgesehen vom Hautton schnitten die Klassifikatoren für IBM, Microsoft und Face ++ in einer MIT-Studie bei männlichen Gesichtern besser ab als bei weiblichen Stimmen. Es gab fast keine Fehler mit weißen männlichen Gesichtern, während dunklere weibliche Gesichter eine Fehlerrate von fast 35 Prozent hatten.

Casual Conversations soll dabei helfen, den derzeit verwendeten Algorithmus zu bewerten. “Unser neuer Datensatz für Gelegenheitsgespräche sollte als ergänzendes Instrument zur Messung der Fairness von Computer Vision- und Audiomodellen zusätzlich zu Genauigkeitstests für im Datensatz vertretene Communities verwendet werden”, sagte das an dem Projekt beteiligte Facebook-Team.

Gelegenheitsgespräche Bewertungen

Facebook nutzte Casual Conversations, um die fünf Algorithmen zu testen, die 2020 die Deepfake Detection Challenge gewonnen hatten. Diese wurden entwickelt, um behandelte Doktormedien zu identifizieren, die veröffentlicht wurden.

Facebook Ai Bias-Datensatz

Obwohl sie angesehene Algorithmen waren, hatten sie mit dunkleren Hauttönen zu kämpfen. Der drittplatzierte Gewinner der Challenge hat mit Casual Conversations tatsächlich die besten Ergebnisse erzielt.

Facebook hat den Datensatz bereits für die Open-Source-Community freigegeben. Dabei wurde festgestellt, dass die Geschlechter „männlich“, „weiblich“ und „andere“ identifiziert werden, was erklärt, dass diejenigen, die sich als nicht binär identifizieren, nicht identifiziert werden können.

“Im Laufe des nächsten Jahres werden wir Wege untersuchen, um diesen Datensatz noch umfassender zu gestalten, mit Darstellungen, die ein breiteres Spektrum an Geschlechtsidentitäten, Alter, geografischen Standorten, Aktivitäten und anderen Merkmalen umfassen”, sagte Facebook Bemühungen, die KI-Verzerrung zu beseitigen.

Lesen Sie weiter, um mehr über die Bemühungen von Microsoft zu erfahren, die Gesichtserkennung zu regulieren, um die Basis zu beseitigen.

Scroll to Top