Microsoft arbeitet an der Korrektur seiner rassistisch voreingenommenen Gesichtserkennungssoftware

A Microsoft trabalha para consertar seu software de reconhecimento facial com preconceito racial

⌛ Reading Time: 3 minutes

Isso é algo que muitas pessoas nunca pensariam – a menos que você seja uma pessoa negra. O software de reconhecimento facial, ou pelo menos o software da Microsoft, foi programado principalmente com rostos masculinos caucasianos. Isso significa que é mais difícil reconhecer rostos mais escuros, principalmente mulheres. Mas a Microsoft está anunciando que melhorou isso.

O lado racista do software de reconhecimento facial

No início deste ano, a Face API da Microsoft, baseada no Azure, recebeu críticas em um artigo de pesquisa. Eles estavam observando a taxa de erro de tentativas de identificar o gênero de pessoas de cor e descobriram que era tão alto quanto 20,8 por cento, especialmente ao tentar identificar mulheres com tons de pele mais escuros. No entanto, com “rostos masculinos mais claros” a taxa de erro era de zero por cento.

Isso ocorre porque a tecnologia de inteligência artificial é apenas isso – artificial. Ele precisa ser programado por pessoas, o que significa que os resultados dependerão da qualidade da programação da tecnologia e dos dados usados ​​para fazê-lo.

Quando a Microsoft estava desenvolvendo seu software, não tinha imagens suficientes de pessoas com tons de pele mais escuros, E isso resultou em uma taxa de erro maior de pessoas de cor, principalmente de mulheres.

O racismo é um tópico importante a considerar. A Microsoft certamente não se propôs a ser racista, mas ao permitir que o software fosse programado principalmente com homens brancos, a questão é se os programadores estavam, sem querer, mostrando seu próprio preconceito racial.

O conserto

Independentemente do motivo pelo qual a Microsoft acabou com um software que mostrava o preconceito de seus criadores / programadores, ela precisava consertá-lo. Depois de consertar, a empresa disse que conseguiu reduzir a taxa de erro para pessoas de pele mais escura em até vinte vezes. Para as mulheres, independentemente do tom de pele, as taxas de erro foram reduzidas em nove vezes.

Para obter essa taxa de erro aprimorada, a equipe da API Face iniciou três alterações. De necessidade óbvia de revisão e ampliação foram o treinamento e os dados para seus benchmarks. Eles se concentraram especificamente no tom da pele, sexo e idade.

“Tivemos conversas sobre diferentes maneiras de detectar preconceitos e operacionalizar a justiça”, disse Hannah Wallach, pesquisadora sênior do laboratório de pesquisa da Microsoft em Nova York e também especialista em justiça, responsabilidade e transparência em sistemas de IA. “Falamos sobre os esforços de coleta de dados para diversificar os dados de treinamento. Conversamos sobre diferentes estratégias para testar internamente nossos sistemas antes de implantá-los. ”

news-microsoft-facial-recognition-dark

Cornelia Carapcea, gerente de programa principal da equipe de Serviços Cognitivos disse que eventualmente o grupo de Wallach deu “uma compreensão mais sutil do preconceito” e ajudou sua equipe a desenvolver um conjunto de dados “que nos responsabilizava em todos os tons de pele”.

Se movendo

“Se estivermos treinando sistemas de aprendizado de máquina para imitar as decisões tomadas em uma sociedade preconceituosa, usando dados gerados por essa sociedade, então esses sistemas necessariamente reproduzirão seus preconceitos”, disse Wallach.

Isso faz todo o sentido. Quer queiramos ou não, o racismo existe em nossa sociedade. Podemos não gostar de pensar que sim, mas às vezes simplesmente não podemos negar. Essa mesma sociedade também cria a tecnologia que usamos, e isso significa que também pode ser tendenciosa racialmente. Se quisermos que nossa tecnologia tenha um desempenho melhor, precisamos fazer melhor nós mesmos.

O que você acha da criação de software pela Microsoft baseado nas tendências de seus desenvolvedores? Isso muda sua opinião sobre a empresa? Como você acha que isso se reflete na sociedade? Adicione suas idéias em nossa seção de comentários abaixo.