Microsoft arbeitet an der Korrektur seiner rassistisch voreingenommenen Gesichtserkennungssoftware

Microsoft arbeitet an der Korrektur seiner rassistisch voreingenommenen Gesichtserkennungssoftware
⏱️ 3 min read

Daran würden viele Menschen niemals denken – es sei denn, Sie sind eine farbige Person. Gesichtserkennungssoftware oder zumindest Microsofts Software wurde mit überwiegend kaukasischen männlichen Gesichtern programmiert. Das bedeutet, dass es schwieriger ist, dunklere Gesichter zu erkennen, insbesondere Frauen. Aber Microsoft gibt bekannt, dass sie das verbessert haben.

[FIX] "Kein Internet, Gesichert...
[FIX] "Kein Internet, Gesichert" Windows 10/11| Routech

Die rassistische Seite der Gesichtserkennungssoftware

Anfang dieses Jahres wurde die auf Azure basierende Microsoft Face API in einem Forschungsbericht kritisiert. Sie untersuchten die Fehlerrate bei Versuchen, das Geschlecht von Farbigen zu identifizieren, und stellten fest, dass dies der Fall war so hoch wie 20,8 Prozentvor allem, wenn versucht wird, Frauen mit dunkleren Hauttönen zu identifizieren. Bei „leichteren männlichen Gesichtern“ lag die Fehlerquote jedoch bei null Prozent.

Dies liegt daran, dass die Technologie der künstlichen Intelligenz genau das ist – künstlich. Es muss von Menschen programmiert werden, was bedeutet, dass die Ergebnisse davon abhängen, wie gut die Technologie programmiert wurde und welche Daten dafür verwendet wurden.

Als Microsoft seine Software entwickelteEs gab nicht genügend Bilder von Menschen mit dunkleren Hauttönen. Dies führte zu einer höheren Fehlerrate bei Farbigen, insbesondere bei Frauen.

Rassismus ist ein wichtiges Thema. Microsoft wollte sicherlich nicht rassistisch sein, aber da die Software hauptsächlich mit weißen Männern programmiert werden kann, stellt sich die Frage, ob die Programmierer unbeabsichtigt ihre eigene rassistische Tendenz zeigten.

Die Reparatur

Unabhängig davon, warum Microsoft Software entwickelt hat, die die Vorurteile seiner Entwickler / Programmierer zeigt, musste es behoben werden. Nachdem sie das Problem behoben hatten, gab das Unternehmen an, die Fehlerrate für dunkelhäutige Personen bis zu zwanzigmal senken zu können. Bei Frauen wurden die Fehlerraten unabhängig vom Hautton um das Neunfache reduziert.

Um diese verbesserte Fehlerrate zu erzielen, hat das Face API-Team drei Änderungen eingeleitet. Offensichtlich mussten die Schulungen und Daten für ihre Benchmarks überarbeitet und erweitert werden. Sie konzentrierten sich speziell auf Hautton, Geschlecht und Alter.

“Wir hatten Gespräche über verschiedene Möglichkeiten, um Voreingenommenheit zu erkennen und Fairness zu operationalisieren”, sagte Hannah Wallach, leitende Forscherin im New Yorker Forschungslabor von Microsoft und Expertin für Fairness, Rechenschaftspflicht und Transparenz in KI-Systemen. „Wir haben über Datenerfassungsbemühungen zur Diversifizierung der Trainingsdaten gesprochen. Wir haben über verschiedene Strategien gesprochen, um unsere Systeme intern zu testen, bevor wir sie bereitstellen. “

Nachrichten-Microsoft-Gesichtserkennung-dunkel

Cornelia Carapcea, eine Hauptprogrammmanagerin im Cognitive Services-Team, sagte schließlich, Wallachs Gruppe habe “ein differenzierteres Verständnis der Voreingenommenheit” vermittelt und ihrem Team geholfen, einen Datensatz zu entwickeln, “der uns über Hauttöne hinweg zur Rechenschaft gezogen hat”.

Weitermachen

“Wenn wir maschinelle Lernsysteme trainieren, um Entscheidungen in einer voreingenommenen Gesellschaft nachzuahmen, indem wir Daten verwenden, die von dieser Gesellschaft generiert wurden, werden diese Systeme notwendigerweise ihre Vorurteile reproduzieren”, sagte Wallach.

Das macht durchaus Sinn. Ob es uns gefällt oder nicht, Rassismus existiert in unserer Gesellschaft. Wir mögen vielleicht nicht gerne glauben, dass dies der Fall ist, aber manchmal können wir es einfach nicht leugnen. Dieselbe Gesellschaft schafft auch die Technologie, die wir verwenden, und das bedeutet, dass sie auch rassistisch voreingenommen sein kann. Wenn wir wollen, dass unsere Technologie besser wird, müssen wir es selbst besser machen.

Was halten Sie davon, dass Microsoft Software entwickelt, die auf den Vorurteilen seiner Entwickler basiert? Ändert es Ihre Meinung über das Unternehmen? Wie reflektiert es Ihrer Meinung nach die Gesellschaft? Fügen Sie Ihre Gedanken in unseren Kommentaren unten hinzu.

Join our Newsletter and receive offers and updates! ✅

0 0 votes
Article Rating
Avatar of Routech

Routech

Routech is a website that provides technology news, reviews and tips. It covers a wide range of topics including smartphones, laptops, tablets, gaming, gadgets, software, internet and more. The website is updated daily with new articles and videos, and also has a forum where users can discuss technology-related topics.

Das könnte dich auch interessieren …

Abonnieren
Benachrichtige mich bei
guest
0 Comments
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x