Realizar busca

IA à flor da pele: transparência, inovação e seus direitos em um xadrez

É crucial analisar os desafios éticos e buscar soluções responsáveis para lidar com a nova era da mídia sintética

É crucial analisar os desafios éticos e buscar soluções responsáveis para lidar com a nova era da mídia sintética

 

Cesar Pagliosa, Enrico Barbato, Lívia Makuta, Pedro Freire e Ricardo Moreira

 

A crescente influência de inteligência artificial (IA) na sociedade é incontestável e terá um papel fundamental no desenvolvimento humano. No entanto, há um aspecto preocupante que tem ganhado destaque nos últimos tempos: a mídia sintética, popularmente conhecida como deep fake. Essa técnica de inteligência artificial possibilita a criação de vídeos ou imagens falsas de forma extremamente realista, substituindo o rosto de uma pessoa por outro. Baseada em Deep Learning, a tecnologia emprega algoritmos organizados em camadas, imitando a lógica do cérebro humano por meio de uma rede neural e alcançando classificações precisas. Embora tenha aplicações promissoras, sua utilização levanta preocupações, pois vídeos e áudios convincentes podem ser explorados para disseminar informações enganosas e prejudiciais. Nesse contexto, é crucial analisar os desafios éticos e buscar soluções responsáveis para lidar com essa nova era da mídia sintética.

A utilização de IA tem gerado debates éticos, especialmente quando se trata do uso da mídia sintética, como no exemplo da polêmica propaganda da Volkswagen com a falecida cantora Elis Regina. Essa situação provocou inúmeras discussões sobre a utilização da imagem de uma pessoa falecida por meio de IA, pois ela acabou sendo associada a uma companhia que possuía valores e diretrizes que talvez não estivessem de acordo com os princípios da artista em vida. Diante desse contexto, surgiu no Senado o PL 3592/2023, que busca regulamentar o uso de imagens de pessoas falecidas por meio de IA, com a exigência de consentimento prévio e expresso da pessoa em vida ou de seus familiares mais próximos. Contudo, ainda existem brechas nessa proposta, permitindo que os herdeiros possam derrubar decisões previamente estabelecidas pelo falecido.

A relevância da discussão sobre a regulamentação do uso de IA é inegável, pois a tecnologia já está em circulação e o Brasil ainda carece de uma regulamentação abrangente para sistemas que a empregam. Encontra-se em tramitação no Legislativo o PL 2338/2023, que visa justamente abordar essa questão mais ampla de IA. Entretanto, como já demonstrado no caso específico da propaganda da Volkswagen, a existência de brechas em regulamentações mais pontuais levanta questionamentos sobre a eficácia de uma PL que abrange toda a tecnologia de IA. Um dos principais pontos a serem destacados é a explicabilidade e a transparência, que foram citados várias vezes no documento.

Dada a complexidade desses sistemas, em relação a explicabilidade, como explicar o funcionamento de um modelo de IA de forma acessível para grupos diversos, como crianças, adolescentes, idosos e pessoas com deficiência? E para os modelos considerados caixas-pretas, em que até os desenvolvedores da tecnologia apresentam dificuldades em interpretar e entender as decisões do algoritmo, como proceder? Além disso, em alguns casos torna-se impossível, já que em redes neurais profundas existem milhões ou até bilhões de parâmetros e camadas usadas para montar um resultado, e dependendo da simplificação dessa explicação, direitos podem ser comprometidos.

Por sua vez, relacionado a transparência, a maior dificuldade é garanti-la sem comprometer a confidencialidade dos modelos proprietários. Equilibrar a divulgação de informações relevantes aos usuários sem expor detalhes sensíveis do algoritmo torna-se um fator determinante a ser considerado nessa regulamentação mais ampla, algo que precisa ser mais desenvolvido na PL 2338/2023 em tramitação.

Como podemos exigir transparência e explicabilidade de empresas como uma forma de regular a tecnologia se nem ao menos sabemos definir o nível desses dois parâmetros? A PL 2338/2023 precisa especificar mais esses conceitos, os quais podem incluir a divulgação de informações sobre o propósito dos algoritmos, os dados utilizados, os modelos matemáticos por trás desses algoritmos, o impacto potencial das decisões e quais salvaguardas estão sendo utilizados contra viés e manipulação. Ademais, tem-se que se a regulamentação em relação a isso deve ser adaptável e revisada regularmente à medida que a tecnologia avança e novos desafios surgem. Outrossim, é extremamente importante que essa regulamentação não seja de tudo limitadora, para que a inovação não seja desencorajada, mas sim incentivada seguindo padrões éticos e responsáveis.

Logo, é notável a necessidade de regular a tecnologia — principalmente no que diz respeito ao seu uso — mas é imprescindível especificar as métricas no projeto de lei, bem como garantir a participação da sociedade nessa discussão a fim de obter o equilíbrio necessário para que a tecnologia seja usada em benefício da sociedade de maneira geral, o que inclui usuários, desenvolvedores, empresas, organizações, instituições e poder público.


Artigo enviado para O Estado de S. Paulo.

Este website usa Cookies

Saiba como o Insper trata os seus dados pessoais em nosso Aviso de Privacidade, disponível no Portal da Privacidade.

Aviso de Privacidade

Definições Cookies

Uso de Cookies

Saiba como o Insper trata os seus dados pessoais em nosso Aviso de Privacidade, disponível no Portal da Privacidade.

Aviso de Privacidade