A tecnologia baseada em inteligência artificial está cada vez mais disseminada e virou até mesmo arma de guerra, mas suscita questões éticas, de privacidade e de justiça racial
A guerra entre a Rússia e a Ucrânia — o maior conflito na Europa desde a Segunda Guerra Mundial — está completando seis meses e ainda não há sinais de um fim próximo. No esforço de resistência contra forças russas, os ucranianos têm se notabilizado pelo uso intensivo de tecnologia. Um exemplo é o sistema de reconhecimento facial, o software que mapeia, analisa e confirma a identidade de um rosto em uma foto ou vídeo. É a primeira vez que essa tecnologia baseada em inteligência artificial está sendo empregada em uma guerra.
O Ministério de Transformação Digital da Ucrânia admitiu que, desde março, está utilizando o software de reconhecimento facial da empresa americana Clearview AI, com o objetivo de identificar os mortos — russos e ucranianos — e devolver seus corpos às famílias. O governo ucraniano declarou que quer mostrar aos russos “o verdadeiro custo da guerra” e informar às famílias que, caso desejem recuperar os corpos de seus entes queridos, elas são “bem-vindas à Ucrânia”.
O CEO da Clearview, Hoan Ton-That, disse que sua empresa teve acesso a mais de 2 bilhões de imagens do serviço de mídia social russo VKontakte. Esse banco de dados, segundo Ton-That, pode ajudar a Ucrânia a reconhecer os mortos mais rapidamente do que com o exame das impressões digitais, mesmo que haja danos faciais. A Ucrânia está obtendo acesso gratuito ao mecanismo de busca de rostos da Clearview AI, que também permite que as autoridades rastreiem suspeitos em postos de controle.
Fundada em 2017, a Clearview AI operava quase anonimamente até o início de 2020, quando uma reportagem do jornal The New York Times revelou que a empresa executava regularmente seu software de reconhecimento em um banco de dados de fotos extraídas de fontes na internet, incluindo mídias sociais, sites de notícias e sites de emprego. A Clearview AI ambiciona ser a maior rede de reconhecimento facial do mundo. Sua meta é ter um banco com 100 bilhões de imagens de rostos — quase 14 fotos para cada pessoa na Terra. Várias fotos da mesma pessoa melhoram a precisão da tecnologia.
Mas a Clearview AI tem enfrentado vários problemas na Justiça. Em maio de 2020, a American Civil Liberties Union, ONG americana de defesa de direitos civis, iniciou uma ação contra a empresa no tribunal de Illinois, alegando violação dos direitos de privacidade dos residentes do estado.
Os métodos da Clearview AI para coletar imagens não são contestados apenas nos Estados Unidos. Em maio deste ano, o Gabinete do Comissário de Informações do Reino Unido multou a Clearview AI em mais de 7,5 milhões de libras por coletar imagens de pessoas no Reino Unido e em outros lugares da web e das mídias sociais. O órgão britânico ordenou a exclusão das imagens e a interrupção da obtenção e do uso de dados pessoais de residentes do Reino Unido disponíveis publicamente na internet.
De acordo com o site da Clearview AI, sua tecnologia de reconhecimento facial ajuda as autoridades a combater o crime e permite que empresas de diversos setores, como bancos, varejistas e transportadoras, detectem roubos, evitem fraudes e verifiquem identidades das pessoas.
A tecnologia de reconhecimento facial tem uma história antiga. Ela teve origem na década de 1960, quando o matemático e cientista da computação americano Woodrow Wilson Bledsoe desenvolveu um sistema de medidas para classificar fotos de rostos. Um rosto novo e desconhecido poderia ser comparado com os pontos de dados de fotos inseridas anteriormente. O sistema não era rápido para os padrões modernos, mas mostrou que a ideia era viável.
Nos anos seguintes, o sistema foi sendo aprimorado, mas foi somente na década de 2010 que teve início a era moderna do reconhecimento facial, pois os computadores finalmente eram poderosos o suficiente para treinar as redes neurais necessárias para tornar o reconhecimento facial um recurso padrão. Hoje a tecnologia é comum nos telefones celulares, em que pode ser usada no lugar da senha para desbloquear o aparelho ou acessar uma conta, assim como para catalogar fotos de pessoas na galeria de imagens.
Embora muitos usuários considerem o reconhecimento facial apenas uma ferramenta conveniente que pode poupar tempo em tarefas repetitivas, a maneira como os governos e as empresas usam a tecnologia pode ter um impacto muito maior na vida das pessoas. Os defensores da tecnologia dizem que ela é útil porque, além de identificar suspeitos, pode monitorar criminosos conhecidos. Em multidões, pode monitorar suspeitos em grandes eventos e aumentar a segurança em aeroportos ou postos de fronteira.
Já os críticos apontam os riscos de privacidade e as possíveis falhas no sistema. O software de reconhecimento facial que os órgãos de aplicação da lei usam atualmente não está disponível para auditoria pública. Os algoritmos que alimentam o software de detecção e identificação geralmente são sistemas proprietários que os pesquisadores não podem investigar para saber se os sistemas estão sendo usados de forma adequada.
As taxas de erro no reconhecimento também são problemáticas, tanto no sentido falso-positivo (quando uma pessoa inocente é falsamente identificada), quanto no sentido falso-negativo (quando uma pessoa culpada não é identificada). O fato é que o software de reconhecimento facial pode emparelhar duas imagens por engano ou não corresponder às fotos da mesma pessoa. Na guerra da Ucrânia, as consequências de qualquer erro com a inteligência artificial podem ser desastrosas — um civil inocente pode ser morto se for identificado erroneamente como um soldado russo, por exemplo.
Rodolfo Avelino, professor do Insper, faz ressalvas ao uso da tecnologia. “Considero que a tecnologia de reconhecimento facial ainda não superou problemas de eficiência técnica e, neste momento, se apresenta como uma ameaça especialmente à segurança da informação, à privacidade e à justiça racial. Nossos rostos são identificadores únicos e, ao contrário de senhas, não podemos trocá-lo por um novo rosto”, afirma o especialista, que é membro do conselho consultivo da Rede Latino-Americana de Estudos sobre Vigilância, Tecnologia e Sociedade (Lavits).
Avelino diz também que, “em relação à justiça racial, recorrentes estudos mostram que a tecnologia de reconhecimento facial é mais propensa a identificar erroneamente pessoas de cor do que pessoas brancas”. Ele cita, por exemplo, que um estudo do Instituto Nacional de Padrões e Tecnologia (NIST), dos Estados Unidos, encontrou evidências de que pessoas asiáticas e afro-americanas tinham até 100 vezes mais chances de serem identificadas erroneamente do que homens brancos, dependendo do algoritmo específico e do tipo de pesquisa.
“Mesmo que a tecnologia de reconhecimento facial fosse sempre precisa, ainda teria um impacto racial injusto, pois os maiores banco de dados de faces são construídos a partir de câmeras de vigilância e segurança que estão implantadas em bairros periféricos, em transportes públicos de massa como metrô e ônibus, de modo que as pessoas de cor estarão mais propensas do que outras a ser submetidas à impressão facial”, diz Avelino.
Com toda a controvérsia que a cerca, a tecnologia de reconhecimento facial está entrando em uma nova seara: o reconhecimento de emoções. Em vez de simplesmente comparar rostos para determinar uma correspondência, o objetivo agora é rastrear expressões de raiva, tristeza, felicidade, tédio e outros sentimentos de uma pessoa com base em traços como movimentos musculares faciais, tom da voz, movimentos corporais e outros sinais biométricos. Segundo uma projeção da empresa de análises Allied Market Research, esse é um mercado que vem crescendo 30% ao ano e deve chegar a quase 34 bilhões de dólares em 2023.
Da mesma forma que no reconhecimento facial, o reconhecimento de emoções envolve a coleta em massa de dados pessoais confidenciais para rastrear, monitorar e traçar o perfil de pessoas. É uma indústria que está crescendo na China, onde o presidente Xi Jinping e outros líderes fizeram uma campanha para incentivar certos tipos de expressões e limitar outros, para criar uma “energia positiva” no país.
Os defensores da tecnologia dizem que o reconhecimento de emoções pode ajudar a prever comportamentos perigosos de prisioneiros, detectar criminosos em potencial nos postos de controle da polícia, alunos problemáticos nas escolas e idosos com demência em casas de repouso.
Já os críticos afirmam que a tecnologia é baseada em uma pseudociência de estereótipos e apontam que ela tem sérias implicações para os direitos humanos, a privacidade e a liberdade de expressão. Um dos problemas é que os sistemas de reconhecimento geralmente são baseados em atores posando e reproduzindo expressões que eles acham retratar a felicidade, a tristeza, o tédio e outros estados emocionais, e não em expressões reais dessas emoções. Como as expressões faciais podem variar muito entre as culturas, a tecnologia pode não apenas ser muito imprecisa, como também estimular preconceitos étnicos.