Realizar busca
test

Reflexões sobre questões éticas acerca do uso de tecnologias como o ChatGPT

Os professores Tiago Tavares, Fabrício Barth e Gustavo Macedo resumem os principais pontos discutidos em painel realizado no Insper sobre o futuro da inteligência artificial generativa

Os professores Tiago Tavares, Fabrício Barth e Gustavo Macedo resumem os principais pontos discutidos em painel realizado no Insper sobre o futuro da inteligência artificial generativa

 

Tiago Tavares, Fabrício Barth, Gustavo Macedo* 

 

A inteligência artificial (IA) generativa tem ganhado grande destaque em chatbots como o ChatGPT, da OpenAI, e o Bard, do Google, bem como em ferramentas de produtividade como Copy.ai e Jasper.ai, que visam gerar automaticamente textos longos com estilos específicos. A IA generativa funciona prevendo, uma a uma, as palavras que mais provavelmente dão continuidade a uma frase. Embora tenha um funcionamento simples, alguns comportamentos emergentes, como a capacidade de parafrasear, resumir e expandir frases, podem facilmente ser confundidos com essas mesmas habilidades em sua versão humana.

Até o ano passado, máquinas com essas capacidades linguísticas eram presentes somente na ficção científica. Enquanto eram agentes fictícios, muitas das discussões éticas derivadas da presença de máquinas inteligentes em distopias como “1984” ou “Eu, Robô” ficaram restritas a situações hipotéticas ou foram usadas como pano de fundo para outros tipos de discussão. Em 2023, o cenário é diferente, pois agora temos uma situação em que máquinas conseguem realmente emular a produção de linguagem, o que tem acendido as discussões sobre a regulamentação do uso de inteligência artificial com o Projeto de Lei 21/2020, que tramita atualmente no Congresso Nacional e visa regular a inteligência artificial no Brasil.

Uma vez que é um tema inevitável, tanto para os criadores quanto para os usuários de IA, realizamos no Insper a mesa ChatGPT: Ética e IA, no dia 9 de maio. A mesa se iniciou com uma breve apresentação sobre como os Large Language Models (modelos de linguagem de grande escala, LLMs) funcionam. Em seguida, foi realizada uma atividade com a plateia: foram apresentadas três situações hipotéticas envolvendo questões éticas no uso de inteligência artificial no dia a dia de empresas. Para cada situação, os participantes poderiam escolher uma entre quatro alternativas como solução para o problema. Por fim, os resultados das três enquetes foram analisados à luz do PL 21/2020. Como resultado dessa breve atividade, ficou evidente que não havia um consenso dos participantes entre si; e nem mesmo uma convergência entre a opinião da maioria com o texto atual da lei.

 

Como modelos de linguagem funcionam

As máquinas inteligentes reais são bastante diferentes das máquinas inteligentes da ficção. Elas são criadas como ferramentas de produtividade, isto é, têm um papel similar a um software de planilha de cálculos. Porém, são ferramentas muito especiais, pois seu comportamento não é definido por meio de programação, e sim aprendido pela observação de grandes bases de dados, que contêm exemplos de como responder a entradas.

Essa característica de aprender pela observação de dados permite que a IA execute tarefas que são difíceis de programar. Por exemplo, quando uma ferramenta de busca entende que estamos buscando por “manga”, a fruta, e não por “manga”, a parte de uma roupa, isso se chama “desambiguação”. Algumas tarefas mais recentes que seguem o mesmo raciocínio são “responder a perguntas gerais”, “resumir textos”, “expandir ideias” e “argumentar sob um ponto de vista”, que são usos bastante comuns do ChatGPT.

 

Problemas dos modelos de linguagem

Porém, o fato de essas ferramentas aprenderem a partir de dados gera algumas preocupações. Se os dados utilizados tiverem vieses, o sistema que for criado com eles propagará esses mesmos vieses. Então, como seria possível detectar e mitigar esse tipo de comportamento?

Além disso, podemos nos perguntar: De onde vêm os dados utilizados no aprendizado desse sistema? Será que alguma regra de privacidade não está sendo desrespeitada durante a coleta desses dados? Se hoje temos leis como a LGPD, é porque há a necessidade de respeitar os processos de coleta e utilização de dados, mesmo que porventura eles estejam em bases de dados públicas.

Por fim, o próprio processo de aprendizado por dados gera o problema de criar sistemas cujo funcionamento é simplesmente a aplicação de alguma estatística aprendida. Essa estatística nem sempre está diretamente ligada à situação que está sendo modelada — os modelos de linguagem, por exemplo, não obedecem a nenhuma regra explícita de gramática. A forma como tais sistemas funcionam não deveria ser transparente para todos os seus usuários?

 

Como legislar sobre esses problemas?

Em uma reflexão puramente conceitual, é claro que desejamos sistemas que não sejam enviesados, que são criados com ética e respeito aos dados, e cujo funcionamento é bem entendido por todos. Porém, a realidade é que a IA permite soluções que não necessariamente têm essas características todas e, mesmo assim, são capazes de automatizar processos que são impossíveis de automatizar de outras formas. Na atividade prática da mesa ChatGPT: Ética e IA, ficou claro que há uma grande discordância entre as pessoas diante de dilemas como o limite entre o uso de benefícios da IA e os perigos de seus vieses, especialmente quando o sucesso de um empreendimento depende desses benefícios.

Nesse sentido, o PL 21/2020 visa trazer elementos que delimitam esse tipo de ação sob um ponto de vista legal. Com efeito, o PL 21/2020, como qualquer tentativa de regular um fenômeno tão novo como a IA, não é consensual, e sua interpretação pode variar à luz dos seus operadores. É necessário, portanto, acompanhar a produção do processo legislativo brasileiro e seus possíveis impactos na atividade econômica e social.

 

O que aprendemos na mesa?

O processo tecnológico de criar LLMs e torná-los acessíveis ao público em programas como o ChatGPT é algo novo, e o uso crescente de IA é um processo tão irreversível quanto foi o crescimento do acesso à internet ou as interações por meio de redes sociais. Isso evidencia uma série de questões éticas que antes estavam restritas à ficção científica ou, no máximo, a nichos acadêmicos muito pequenos.

Atualmente, no Brasil, temos a discussão sobre o PL 21/2020, que visa regulamentar o uso de IA. Chegar a uma redação final do PL 21/2020 não é uma tarefa simples, uma vez que não há um consenso sobre o que seria “certo” ou “errado” em situações práticas sobre o uso de IA.

A mesa ChatGPT: Ética e IA trouxe essas discussões à tona, e as interações mostraram que o pensamento ético sobre a IA deve envolver o pensamento sobre todos os grupos afetados pelos sistemas em todas as etapas de seu ciclo de vida, desde a coleta de dados, o processo de avaliação, até o cenário final de implantação.


Professor Tiago Tavares

Tiago Tavares é professor de Engenharia e Ciências da Computação do Insper. É especialista em processamento digital de sinais e aprendizado de máquina, em especial nas suas aplicações em texto, sinais de áudio, música e de sensores de movimento inerciais.

 

Professor Fabricio Barth

 Fabricio Barth é professor de Engenharia e Ciências da Computação do Insper. É especialista em aprendizagem de máquina e inteligência Artificial nas áreas financeira, internet, segurança pública, mineração, educação e recursos humanos desde 2003.

 

Gustavo Macedo

Gustavo Macedo é professor de Economia e Administração do Insper. Pesquisador de pós-doutorado no Instituto de Estudos Avançados da USP, é especialista em diplomacia científica e inovação para inteligência artificial.

Este website usa Cookies

Saiba como o Insper trata os seus dados pessoais em nosso Aviso de Privacidade, disponível no Portal da Privacidade.

Aviso de Privacidade

Definições Cookies

Uso de Cookies

Saiba como o Insper trata os seus dados pessoais em nosso Aviso de Privacidade, disponível no Portal da Privacidade.

Aviso de Privacidade