Estudo da UFCG analisa falhas em sistemas de reconhecimento facial
Trabalho será apresentado no mais importante evento de visão computacional do país
Não é novidade que o reconhecimento de faces em Inteligência Artificial (IA) é frequentemente utilizado em diversas áreas, tais como videogames, finanças e segurança. O que muita gente não sabe, no entanto, é que, havendo erros na detecção de faces, todas as demais etapas do processamento de imagens podem ser comprometidas, a exemplo das detecções de faixa etária e de gênero e da biometria facial.
Pensando nisso, um trabalho desenvolvido por alunos e professores da Universidade Federal de Campina Grande (UFCG) analisa a existência de falhas em detectores de face de alta precisão. O artigo será apresentado virtualmente no próximo dia 21 de outubro, no Simpósio Brasileiro de Computação Gráfica e Processamento de Imagens (SIBGRAPI), o mais importante evento do Brasil em Visão Computacional e um dos maiores promovidos pela Sociedade Brasileira de Computação (SBC).
Desenvolvida em cerca de cinco meses no Laboratório de Percepção Computacional (LPC) do Programa de Pós-Graduação em Ciência da Computação (PPGCC), a pesquisa, fruto do doutorado da aluna Hanna Menezes e orientada pelos professores Eanes Pereira e Herman Gomes, analisou dados de 365 indivíduos selecionados aleatoriamente em conversas casuais do Facebook, resultando em cerca de 5,5 mil vídeos, fornecendo 550 mil quadros usados para detecção de faces nos experimentos realizados.
“Em sistemas utilizados para acesso biométrico, a face pode ser usada para permitir o acesso. Porém, antes de a face ser identificada, ela deve ser detectada. Detectar a face, em linhas gerais, significa determinar se existe face na imagem ou no quadro de vídeo e determinar a localização geométrica, largura e altura de um retângulo que contém a face. Em seguida, esse retângulo é recortado e passado para as outras etapas do processamento. Se, por exemplo, houver o risco de uma pessoa do gênero feminino não ter sua face detectada com uma probabilidade de risco superior ao de uma pessoa do gênero masculino, essa pessoa poderá passar, no mínimo, por algum constrangimento”, explica o professor Eanes Pereira.
Os resultados obtidos mostram que todos os cinco detectores de faces analisados apresentam alto risco de não detectar faces do gênero feminino e de pessoas entre 46 e 85 anos. Em situações em que a taxa de predição positiva é mais frequente para um determinado grupo (por exemplo, gênero masculino) do que qualquer outro, geralmente também será mais propenso a ter uma maior taxa de falso positivo. Além disso, os grupos de tons de pele escura são os apontados com maior risco de não serem detectadas faces para quatro dos cinco detectores de rosto avaliados. Dessa forma, o trabalho aponta a necessidade de investigar a existência de erros causados por viés ou injustiça, que podem estar presente em conjuntos de dados ou modelos de aprendizado de máquina.
“Os sistemas de IA aprendem de acordo com os dados que lhes são fornecidos e de acordo com as decisões tomadas durante o refinamento dos parâmetros de treinamento. Se os dados ou as decisões de treinamento estiverem contaminadas por algum tipo de viés ou injustiça, o algoritmo replicará tal viés e injustiça. Como algoritmos de IA são aplicados em larga escala e têm potencial para afetar decisões cruciais para o bem-estar e para a vida humana em geral, se esses algoritmos não forem justos, sua utilização poderá agravar ainda mais as injustiças sociais, perpetuando problemas que poderão se tornar insolúveis”, esclarece Eanes.
O artigo, intitulado Bias and Fairness in Face Detection, de autoria da doutoranda Hanna Menezes, do estudante do curso de Ciência da Computação Arthur Ferreira e dos professores Eanes Pereira e Herman Gomes, está disponível aqui.
(Ascom UFCG)
Redes Sociais