[{"jcr:title":"Como um aluno de Engenharia busca explicações da inteligência artificial"},{"targetId":"id-share-1","text":"Confira mais em:","tooltipText":"Link copiado com sucesso."},{"jcr:title":"Como um aluno de Engenharia busca explicações da inteligência artificial","jcr:description":"Orientado pelo professor Maciel Calebe Vidal, o projeto de iniciação tecnológica de Arthur Cisotto busca tornar mais transparente o processo de tomada de decisão das máquinas"},{"cq:tags_0":"tipos-de-conteudo:pesquisa-na-graduação"},{"subtitle":"Orientado pelo professor Maciel Calebe Vidal, o projeto de iniciação tecnológica de Arthur Cisotto busca tornar mais transparente o processo de tomada de decisão das máquinas","author":"Leandro Steiw","title":"Como um aluno de Engenharia busca explicações da inteligência artificial","content":"Orientado pelo professor Maciel Calebe Vidal, o projeto de iniciação tecnológica de Arthur Cisotto (foto) busca tornar mais transparente o processo de tomada de decisão das máquinas   Leandro Steiw   Um dos problemas reconhecidos em machine learning é a falta de transparência sobre o processo de cálculos e tomada de decisões da inteligência artificial (IA), normalmente realizado sem supervisão humana. É a chamada opacidade algorítmica dos modelos. Orientado pelo professor Maciel Calebe Vidal, o aluno Arthur Cisotto Machado, do 6º semestre de [Engenharia de Computação](https://www.insper.edu.br/graduacao/engenharia-de-computacao/) , desenvolveu um projeto de iniciação tecnológica em inteligência artificial explicável na área médica. O nome já revela a essência do trabalho: explicabilidade, em IA, busca entender as decisões apresentadas pela máquina. Na medicina, por exemplo, estudos mostram que existe um viés racial nos diagnósticos feitos por inteligência artificial, que tende a considerar os pacientes negros menos doentes que os brancos e a indicar tratamentos de saúde diferentes para casos similares. A decisão não faz sentido. Muitas vezes, nem os desenvolvedores conseguem interpretar e explicar as decisões do algoritmo. Em prol da transparência, não basta construir um modelo que prevê se um indivíduo tem ou não certo transtorno e demonstrar que se obteve uma boa taxa de acerto. “É preciso entender também quais são as informações que esse modelo está levando em consideração para fazer a previsão”, explica Vidal. “Se o gestor hospitalar olhar apenas o resultado financeiro, pensando em economia de custos, pode estar desprestigiando certos grupos de uma maneira que não seria ética ou justa.” Na pesquisa, Cisotto tentou extrair explicações dos modelos opacos por meio de dados tabulares — como os usados em planilhas do Excel. A inteligência artificial já está difundida na área de saúde, utilizada em modelos de processamento de linguagem natural para a análise de fichas e prontuários, softwares de administração de leitos em hospitais e, principalmente, algoritmos de predição e diagnóstico de doenças. Cisotto apresentou o relatório no [1º Simpósio de Iniciação Científica e Tecnológica do Insper](https://www.insper.edu.br/noticias/1o-simposio-de-iniciacao-cientifica-e-tecnologica-do-insper-reflete-crescimento-da-producao-de-pesquisa-na-graduacao/) , realizado em setembro. “Foi uma experiência que valeu a pena”, diz. “Tenho interesse em explorar um pouco de cada área que aprendemos na faculdade. Ainda não sei se quero seguir a carreira acadêmica, pois há muita coisa que quero fazer na graduação. Mas pude experimentar um dos caminhos possíveis após esse primeiro contato com a pesquisa científica.” Em 2022, interessado em se inscrever para Programa Institucional de Bolsa de Iniciação Tecnológica ( [PIBITI](https://www.insper.edu.br/graduacao/iniciacao-cientifica-tecnologica/) ), Cisotto pensava em estudar algo relacionado a processamento de linguagem natural, tema de um dos projetos apresentados na disciplina Ciência dos Dados, ministrada pelo professor Vidal. Até que, certo dia, os dois se encontraram em um dos intervalos de aula e começaram a conversar sobre as possibilidades de projeto. Vidal havia trabalhado com machine learning e neuroimagem na pós-graduação e sugeriu uma investigação na área de saúde. “Gostei muito do tema, com o qual tenho afinidade porque minha irmã é médica, e acho legal levar a computação para áreas que são de extrema importância não só para quem trabalha com tecnologia, mas para a população em geral”, diz Cisotto. Alguns dos desafios da iniciação científica e tecnológica são estimular a curiosidade do estudante no aprendizado de conceitos novos e desenvolver autonomia para resolver problemas inéditos. “A oportunidade de explorar outras áreas me permitiu uma experiência enriquecedora, como produzir um artigo científico pela primeira vez”, afirma o aluno. “Aprendi com as minhas próprias pesquisas e conversando com o professor.” Diante das discussões sobre proteção de dados e ética em computação, os estudos em inteligência artificial explicável ganham relevância. Para Cisotto, o principal resultado do projeto foi examinar como o viés de dados dos modelos de machine learning pode influenciar negativamente a vida das pessoas. “Em um ambiente no qual a inteligência artificial vem crescendo, essa análise da explicabilidade é essencial para avançarmos com responsabilidade, evitando crescer a qualquer custo e prejudicar as pessoas nesse processo”, diz Cisotto."}]