Amazon è stata criticata per aver venduto alla polizia una tecnologia di riconoscimento facciale difettosa

Amazon è stata criticata per aver venduto alla polizia una tecnologia di riconoscimento facciale difettosa
⏱️ 3 min read

I limiti della tecnologia di riconoscimento facciale sono stati ampiamente segnalati e questo è ciò che rende ancora più confuso il fatto che Amazon venda la sua tecnologia alla polizia.

È noto che la tecnologia di riconoscimento facciale ha difficoltà a riconoscere la pelle e le donne più scure, che è una cosa quando viene utilizzata accedi al tuo telefono, ma Amazon viene rimproverato dai ricercatori di intelligenza artificiale in una lettera aperta per aver venduto qualcosa di così imperfetto alla legge rinforzo.

Lettera aperta ad Amazon

Rende questa storia molto più deliziosa sapere che alcuni dei ricercatori di intelligenza artificiale che hanno creato la lettera aperta provengono da concorrenti di Amazon: Google, Microsoft e Facebook. Questa lettera, in cui si chiedeva ad Amazon di smettere di vendere la loro difettosa tecnologia di riconoscimento facciale, è stata pubblicata medio.

Come sfondo di questa storia, il riconoscimento facciale è stato criticato in quanto è diventato uno strumento di accesso più popolare, perché mostra quello che sembra essere un pregiudizio. Tuttavia, non è un pregiudizio intenzionale, ma è comunque vero che esiste un pregiudizio, intenzionale o meno.

La ragione addotta per la disparità nel riconoscimento dei volti nel caso di Microsoft sono i dati su cui è stata costruita la tecnologia. Durante la creazione della tecnologia, Microsoft gli ha fornito immagini per imparare a riconoscere i volti. Eppure le immagini utilizzate erano per lo più maschi bianchi. Ciò ha portato a non essere molto abile nel riconoscere la pelle o le donne più scure.

La lettera riporta che lo strumento Rekognition di Amazon ha “tassi di errore molto più elevati durante la classificazione del sesso delle donne dalla pelle più scura rispetto agli uomini dalla pelle più chiara (31% contro 0%).

I ricercatori ritengono che i funzionari di Amazon Matthew Wood e Michael Punke “abbiano travisato i dettagli tecnici del lavoro e lo stato dell’arte nell’analisi e nel riconoscimento facciale”.

Continuano affermando che “i pregiudizi riscontrati in un sistema sono motivo di preoccupazione in altri, in particolare nei casi d’uso che potrebbero avere un impatto grave sulla vita delle persone, come le applicazioni delle forze dell’ordine”. Aggiungono che non ci sono “standard richiesti per garantire che Rekognition sia utilizzato in modo tale da non violare le libertà civili”.

Citando uno studio che ha rilevato la disparità razziale e di genere nella tecnologia di riconoscimento facciale, i ricercatori hanno poi continuato a sottolineare che Wood e Punke hanno cercato di confutare la ricerca, definendola “fuorviante” e affermando che ha tratto “false conclusioni”.

Hanno anche messo in dubbio l’insistenza di Wood sul fatto che ci sia una differenza tra “riconoscimento facciale” e “analisi facciale”. I ricercatori hanno scoperto che i due sono in realtà strettamente correlati e che è comune scambiarsi l’uno con l’altro.

Ritengono che sia importante testare Rekognition “nella parola reale, nei modi in cui è probabile che venga utilizzato”, inclusi gli scenari “scatola nera”, in cui gli utenti non interagiscono con i dettagli interni del sistema come il modello, i dati di addestramento o impostazioni. “

Con questa tecnologia utilizzata dalla polizia, i ricercatori citano avvocati che hanno spiegato che “le persone sbagliate potrebbero essere processate a causa di casi di identità errata”. Credono che la polizia “non conosca i parametri di questi strumenti, né come interpretare alcuni dei loro risultati”.

Che ricorso ha il pubblico?

“Chiediamo ad Amazon di smettere di vendere Rekognition alle forze dell’ordine, poiché la legislazione e le garanzie per prevenire l’uso improprio non sono in atto”, richiedono i ricercatori.

Certamente, dovrebbe essere vero, che se la tecnologia di riconoscimento facciale è difettosa, non dovrebbe essere usata per prendere decisioni di vita. Ma che ricorso abbiamo? Con quella tecnologia già utilizzata dalla polizia, cosa possiamo fare per aiutarla?

Le dita dovrebbero puntare di nuovo su Amazon? O dovrebbero indicare la polizia? Cosa pensi che dovrebbe essere fatto? Facci sapere come ti senti riguardo alla tecnologia di riconoscimento facciale difettosa di Amazon nei commenti qui sotto.

How useful was this post?

Click on a star to rate it!

Average rating 0 / 5. Vote count: 0

No votes so far! Be the first to rate this post.

Potrebbero interessarti anche...