Colorado em Boulder, nos Estados Unidos, descobriu que os principais softwares de reconhecimento facial, baseados em inteligência artificial, não conseguem identificar pessoas trans e não binárias.
Classificados com precisão em 98% dos casos, pessoas trans (que não se identificam com seu gênero de nascimento) foram categorizados de maneira errada em cerca de 30% das vezes. No caso dos não binários (que não se identificam como homem nem como mulher), a máquina errou todas as tentativas.
#transwoman, #transman, #agenderqueer e #nonbinary. Depois de eliminados os registros em grupo ou com rostos meio ocultos, o que restou foi dividido em grupos de 350 imagens que foram usadas para testar os softwares de reconhecimento facial Rekognition (Amazon), Watson (IBM), Azure (Microsoft) e Clarifai.
Estereótipos ultrapassados, o que aumenta ainda mais as taxas de erro. Um exemplo veio da própria equipe: um dos pesquisadores, que tem cabelos longos, foi classificado como mulher por metade dos softwares.
Negras como homens em 30% das vezes que foi acionado. Enquanto falhas como essas não são corrigidas, o preconceito aparece nos lugares mais inusitados: em 2015, o Google Fotos, usando inteligência artificial, marcou selfies de usuários negros como imagens de gorilas.
0 Comentários