22/02/2022
O avanço da inteligência artificial fez multiplicar as denúncias do uso enviesado de machine learning. Os cientistas da computação têm um papel crucial para combater o problema
Tiago Cordeiro
Em 2018, a cientista da computação Joy Buolamwini, pesquisadora do Massachusetts Institute of Technology (MIT), testou três programas de reconhecimento facial desenvolvidos por grandes empresas de tecnologia. Desafiados a identificar os rostos de homens brancos, os três programas alcançaram margens de erro de, no máximo, 0,8%. Entre mulheres de pele escura, porém, a taxa de falha foi muito maior: 20% em um dos softwares e 34% nos outros dois.
O resultado do estudo colocou em xeque as afirmações dos próprios fabricantes: um deles assegurava que a acuracidade do programa era de 97%. Mas, descobriu-se depois, os dados utilizados para alimentar o algoritmo do produto partiram de homens, em 77% dos casos, e brancos, em 83% da amostragem.
O trabalho confirmou, com grande repercussão, o que diferentes pesquisadores já haviam constatado de forma independente ao longo da década passada: o problema da discriminação provocada por algoritmos é grave e está disseminado, seja nos filtros das redes sociais, seja nos sistemas de segurança baseados em machine learning.
Em um relatório de novembro de 2020, o Comitê para Eliminação da Discriminação Racial da Organização das Nações Unidas fez um apelo para que os algoritmos de reconhecimento facial, utilizados já há duas décadas nas grandes metrópoles ou no controle de fronteiras, sejam regulamentados, de forma a evitar que sejam perpetuados — ou até mesmo ampliados — os casos de preconceito contra mulheres, negros e grupos étnicos.
O problema é que os algoritmos aprendem com base em dados, que são fornecidos por seres humanos. Quando os dados são enviesados, a inteligência artificial suportada por eles também o será, afirma André Filipe de Moraes Batista, professor e coordenador técnico do Centro de Ciência de Dados do Insper. “Há cenários em que as máquinas atuam de forma discriminatória em relação a grupos vulneráveis da sociedade.”
No caso da segurança pública, por exemplo, algoritmos que atuam com base em dados de um bairro de maioria negra podem apontar um viés de perseguição policial precisamente contra negros, o que reforça um círculo vicioso. Além disso, é comum, tanto nos sistemas policiais quanto nas redes sociais e nos aplicativos de videoconferência, que os algoritmos se mostrem imprecisos para reconhecer rostos negros, ou de mulheres — muitas vezes porque os dados que os alimentaram partiram de faces majoritariamente brancas e masculinas.
As redes sociais vêm prestando maior atenção à questão. Em maio de 2021, por exemplo, o Twitter divulgou um estudo em que constatou que seu algoritmo de corte de imagem é 4% favorável a pessoas brancas, na média. Entre mulheres, é 7% mais favorável a brancas do que a negras. A empresa realizou a investigação motivada por denúncias de usuários. E se comprometeu a combater o problema. Uma das soluções oferecidas foi a possibilidade de exibir, previamente, o resultado final que a imagem vai apresentar quando publicada.
Para o professor, esse grave problema confirma uma convicção do Insper: a de que os profissionais que atuam com computação precisam receber uma formação integral, que leve em consideração as demandas da sociedade. “O fenômeno da discriminação algorítmica precisa ser discutido e combatido. Sabemos que são os seres humanos que criam e estimulam preconceito, e não as máquinas. Por isso, todo profissional da área precisa ter consciência de sua responsabilidade”, afirma.
Além de incentivar que os profissionais da área tenham consciência sobre o impacto social de seu trabalho, é papel do Insper apontar para os desafios que surgem ao longo do processo, diz o docente. “As máquinas são cruciais. Elas realizam atividades repetitivas, extraem padrões de cenários complexos. Aqui na instituição, temos a função de dar espaço para debater questões como o preconceito, assim como desenvolver formas de encarar dificuldades complexas como esta.”
Existem formas de lidar com o preconceito em algoritmos, segundo Batista. Uma delas é buscar maior diversidade na base de dados que vai alimentar o software. A outra é desenvolver testes prévios, observando se o sistema apresenta a tendência de tratar perfis étnicos e de gênero de forma diferente. “A tecnologia joga luzes para problemas que sempre tivemos como sociedade”, afirma Batista. “Vamos atuar, no Insper, para conscientizar os novos profissionais, além de buscar métodos que mitiguem esse problema. Se não incluirmos explicitamente a diversidade nas rotinas de trabalho com dados, implicitamente estaremos gerando exclusão.”
LEIA TAMBÉM: Como os cientistas da computação estão ajudando no combate à covid-19