O desenvolvimento de assistentes virtuais que aumentam a produtividade é um trabalho multidisciplinar que depende do uso de bases de dados confiáveis e responsabilidade ética e da colaboração entre diferentes áreas de conhecimento, diz o professor André Santana
Leandro Steiw
A capacidade de aumentar a produtividade profissional com o auxílio da inteligência artificial (IA) apresenta desafios e oportunidades para os profissionais da Computação. O professor André Santana, da disciplina Co-Design de Aplicativos, dos cursos de Engenharia do Insper, percebe dúvidas similares entre os alunos dos cursos de graduação. “A IA generativa pode complementar outras ferramentas tradicionais da computação e da matemática, aumentando a nossa produtividade e ajudando a exercer melhor o nosso papel social e profissional, sempre com o suporte e supervisão humana”, diz. O ingrediente fundamental para obter soluções eficientes é conectar a tecnologia a bases de informação confiáveis e garantir um processo de revisão com métodos bem definidos.
Entre os campos de aplicações, a área de saúde oferece oportunidades promissoras. Santana enumera três ferramentas que, executadas por IA generativa sob a supervisão de profissionais de saúde, ajudam a exemplificar o uso da tecnologia por profissionais de saúde: um assistente para responder a perguntas sobre dengue com base em dados do Ministério da Saúde; um assistente que avalia uma base teórica de dados de transplante de rins e gera insights a respeito dos pacientes; e um assistente que auxilia no processo de interpretação de mamografias, indicando sinais de possíveis nódulos ou calcificação com visão computacional.
A IA generativa é uma técnica de inteligência artificial que bebe de fontes tradicionais de aprendizagem de informação, mas com capacidade elevada de criação em mídias distintas, de acordo com Santana. Desde o lançamento do ChatGPT, todas as big techs estão tentando se posicionar no mercado de ferramentas que geram textos, áudios e imagens por meio de orientações em linguagem humana para o computador. “O ChatGPT ainda é utilizado com bastante frequência como uma ferramenta para consultas, no entanto, o potencial da plataforma está em trabalhar com dados ou informações e criar algo em cima deles”, afirma Santana.
Esse potencial inexplorado abre a possibilidade de desenvolvimento de assistentes de IA que apoiarão os profissionais de saúde — resguardadas todas as precauções técnicas, éticas e morais que surgem com as novas tecnologias. Segundo Santana, a IA está transformando o mercado de trabalho e é importante que tanto engenheiros quanto cientistas entendam como utilizar essas ferramentas para aumentar sua produtividade, mas sem abandonar o senso crítico em relação aos riscos envolvidos, e mantendo a visão de que o olhar humano sobre o humano é imprescindível.
No papel de ferramenta de acompanhamento do profissional de saúde, o assistente de IA poderia orientar o processo de anamnese — a entrevista que levanta o histórico de saúde do paciente para o diagnóstico inicial da doença — ou os pedidos de exames posteriores à consulta. “É importante frisar que esses assistentes não iriam substituir o contato humano dos profissionais de saúde, embora tentemos treinar a IA para assumir uma postura conciliadora e uma personalidade mais próxima do público-alvo”, diz Santana.
Algumas limitações são perceptíveis. “O assistente é uma entidade computacional capaz de interagir com o usuário e, através dessa sensação, acessar a memória interna da máquina (o modelo), para dar a melhor resposta que consegue construir com o que sentiu/observou”, afirma Santana. “O problema é que essa memória ainda é enviesada, depende muito de quem criou o assistente. Na área de saúde, acaba por desconsiderar grupos minoritários ou características específicas de um país ou uma região. Tentamos reduzir um pouquinho disso atribuindo uma personalidade para esse assistente, mas ainda assim ela é muito limitada.”
No caso de soluções meramente consultivas, assistentes conectados a órgãos oficiais do governo dariam orientações de saúde para a população, respondendo a perguntas sobre prevenção, sintomas, mas com muitas restrições a respeito de diagnóstico e tratamentos. Para doenças como a dengue, por exemplo, informações preliminares poderiam ser apresentadas com base em consultas ao Ministério da Saúde. Não são raras as informações deturpadas sobre os riscos e o tratamento da dengue, que contaminou 5 milhões de pessoas no Brasil entre janeiro e maio de 2024. O assistente poderia interagir com o usuário em linguagem natural, antes do primeiro contato com as equipes de saúde, e repassar informações extraídas de fontes oficiais e confiáveis.
Como exemplo do funcionamento de assistentes de análise de dados, no contexto da saúde, Santana cita uma base da comunidade, disponível no repositório Kaggle, dedicado a desafios em data science. Para responder quais são as características dos 10% de pacientes que apresentam mais recorrência em hemodiálise, a IA abre o documento da base de dados, pesquisa quem são esses 10%, descobre as características dos pacientes e apresenta uma resposta amparada em dados estatísticos. Nesse contexto, a informação não se destina ao usuário final — o paciente —, mas ao profissional de saúde.
Outra perspectiva para engenheiros e cientistas da computação é o desenvolvimento de assistentes para o processamento de imagens, como as obtidas em mamografias para detecção de câncer de mama. “Discutimos muito sobre qual é o tipo de resposta que uma IA generativa precisa entregar para médico e paciente, até onde ela tem a liberdade de fazer uma afirmação e dar um parecer sobre doenças detectadas em imagens”, diz Santana. “Existe um perigo grande de falso diagnóstico, tanto falso positivo quanto falso negativo, que pode ser assumido como verdade por quem está recebendo e criar pânico ou atrasar a busca por um tratamento adequado.”
Essas técnicas de análise de imagens já existem de forma tradicional e abarcada na computação há muito tempo, explica o professor. O que mudou foi a facilidade de acesso via interface da IA generativa, permitindo ao computador entender pedidos feitos com uma linguagem mais próxima da linguagem natural. “Essas fronteiras têm que ser bem estabelecidas para que não passemos a responsabilizar o computador por um processo de acompanhamento que deve ser sempre liderado por algum profissional da área da saúde”, afirma. “Diante dos vieses conhecidos da IA, cabe aos profissionais de computação e à academia ajudar a construir boas práticas em tecnologias levadas ao mercado de saúde.”
Outro obstáculo a transpor é a carência de equipes multidisciplinares para desenvolver tecnologias seguras. “Temos um braço tecnológico muito forte se movimentando para usar as IAs generativas, mas que ainda se debruça muito dentro da área da computação”, diz Santana. “Quando saímos dessas fronteiras da computação, nas quais detemos um controle maior sobre os processos, e passamos para um eixo que envolve a vida de um ser humano, como na saúde, existe uma série de procedimentos que são levados em consideração. Então, essas equipes multidisciplinares que trabalharão em conjunto para construir essas soluções precisam ser cada vez mais bem estabelecidas. Mesmo um chatbot de consulta precisa passar por comissões de ética e acompanhamento de um especialista com formação sólida na área.”
Nos cursos de Engenharia do Insper, a disciplina Co-Design de Aplicativos aplica uma abordagem moderna de soluções computacionais desenvolvidas com e para o usuário. “Mesmo para um assistente virtual mais simples, o profissional de saúde pode ajudar com a terminologia que é mais adequada, quais procedimentos precisam ter mais ênfase para procurar alguém na área de saúde ou como os resultados serão comunicados ao paciente”, afirma Santana. “Um laudo de exame é bastante complexo de se ler. Respeitando a LGPD e as diretrizes éticas, a IA generativa poderia ser bem aproveitada para a democratização do acesso ou consumo da informação do laudo, que é um direito e é de propriedade do paciente.”
Os programadores dispõem de algumas técnicas de treinamento de modelos de IA que reduzem o risco de respostas enviesadas, diz Santana. Mas o raciocínio do computador não pode ser construído apenas pelo programador, porque é um processo mental voltado para alguém com competência na área de saúde. “O profissional de saúde é quem vai dar o anteparo de que o programador necessita para resolver o problema do desenvolvimento desse raciocínio da IA”, diz.