Realizar busca

O professor e diretor de Tecnologia do Insper, André Filipe Batista, palestrou nesta terça-feira, 8, em uma audiência pública promovida pela Comissão Especial sobre Inteligência Artificial na Câmara dos Deputados para discutir o Projeto de Lei (PL) 2338/2023, que trata do desenvolvimento, do fomento e do uso ético e responsável da inteligência artificial (IA) no Brasil.

 

Com o tema "Proteção de direitos fundamentais e novas tecnologias", a audiência reuniu pesquisadores das áreas de consumo e de inteligência artificial, profissionais do setor de tecnologia, além de representante do Ministério de Direitos Humanos e da Cidadania. O objetivo foi coletar contribuições para o aperfeiçoamento do projeto, que ainda está em tramitação na Câmara.

 

Idealizador do Centro de Dados e Inteligência Artificial do Insper e reconhecido por soluções premiadas na área de saúde baseadas em IA, André Filipe destacou em sua fala a importância de equilibrar dois eixos centrais no debate: a proteção dos direitos fundamentais e o estímulo à inovação tecnológica.

 

Para o professor, o PL 2338/2023 representa uma oportunidade histórica de construir um marco jurídico moderno e equilibrado — alinhado às melhores práticas internacionais, mas atento às especificidades do contexto brasileiro.

 

Durante sua apresentação, ele propôs ajustes ao texto do PL, com foco em três frentes principais: definição técnica de conceitos, proporcionalidade na regulação e monitoramento contínuo de riscos.

 

A primeira contribuição foi a necessidade de incluir definições mais precisas no artigo 4º, que trata dos conceitos utilizados na lei. Segundo ele, a falta de clareza pode gerar insegurança jurídica e interpretações divergentes entre os reguladores, os agentes regulados e o Judiciário. 

 

A segunda sugestão abordou o artigo 18, que trata dos direitos dos usuários de sistemas de IA. André defendeu que os requisitos de transparência sejam ajustados ao nível de risco envolvido e ao porte das organizações responsáveis, garantindo acesso à informação sem criar obstáculos desnecessários à inovação.

 

Por fim, ao comentar o artigo 26 — que trata da avaliação de impacto algorítmico em sistemas de alto risco — o professor sugeriu a inclusão de exigências mais claras de monitoramento contínuo. Segundo ele, os riscos associados a esses sistemas nem sempre são imediatos ou previsíveis, o que torna o acompanhamento permanente uma medida essencial.

 

De acordo com diretor de Tecnologia do Insper, as propostas apresentadas buscam justamente preservar o equilíbrio entre segurança e inovação. “São medidas que não criam travas excessivas. São proporcionais ao risco e ao porte dos agentes”, argumentou. “É um mecanismo que protege o ecossistema inovador. Para não deixar o setor na insegurança jurídica, não podemos manter algumas omissões — por isso faço essas propostas aos itens apontados.”

 

Contribuição ativa

 

O Projeto de Lei 2338/2023, de autoria do Senado Federal, foi aprovado em dezembro de 2023 e atualmente tramita na Câmara dos Deputados. A proposta adota uma abordagem baseada em riscos, com a classificação de sistemas conforme seu grau de impacto, e assegura direitos aos cidadãos afetados por decisões automatizadas.

 

“A exposição vai ao encontro do que queremos dos expositores, no sentido de contribuição e de fazer essa análise do texto do Senado Federal, trazendo contribuições concretas. Sua fala foi muito importante e esclarecedora”, afirmou a deputada federal Luisa Canziani (PSD-PR), presidente da comissão, após exposição das contribuições de André Filipe.

 

Durante a audiência, o professor do Insper ainda respondeu a perguntas dos parlamentares. Questionado pela deputada Luizianne Lins (PT-CE) sobre como a regulamentação pode contribuir para a avaliação de impacto algorítmico, André afirmou que o PL pode tornar esse mecanismo uma prática contínua.

 

“A avaliação é contínua e periódica e a IA se adaptará aos dados com os quais trabalha. Então eu vejo essa lei entrando em vigor sendo um instrumento para que a gente faça esse mecanismo prático”, disse.  

 

Também questionado sobre os riscos à liberdade cognitiva, o professor mencionou a chamada “trofia cognitiva”, quando usuários deixam de exercitar o pensamento diante de respostas automatizadas. Para ele, este fenômeno independe da tecnologia e o foco deve estar no letramento digital. “Temos que lidar com a adaptação das pessoas para lidar com essa nova tecnologia. Não é impedindo a avanço da tecnologia que vamos mitigar o efeito na liberdade cognitiva”, disse.

 

O relator do PL, deputado Aguinaldo Ribeiro (PP-PB), também pediu a opinião do especialista sobre o momento ideal para avaliar os riscos: no desenvolvimento ou na aplicação. “Nos dois. O risco começa na escolha dos dados e segue na aplicação prática. Por isso, proponho que a responsabilidade seja compartilhada entre quem desenvolve e quem utiliza os sistemas”, concluiu André.



Este website usa Cookies

Saiba como o Insper trata os seus dados pessoais em nosso Aviso de Privacidade, disponível no Portal da Privacidade.

Aviso de Privacidade

Definições Cookies

Uso de Cookies

Saiba como o Insper trata os seus dados pessoais em nosso Aviso de Privacidade, disponível no Portal da Privacidade.

Aviso de Privacidade