Realizar busca
test

Por que é importante regular a inteligência artificial no Brasil

Após participar de uma audiência pública no Senado, o professor Rodolfo Avelino analisou os principais desafios que envolvem a regulamentação dessa tecnologia

Após participar de uma audiência pública no Senado, o professor Rodolfo Avelino analisou os principais desafios que envolvem a regulamentação dessa tecnologia

 

Tiago Cordeiro

 

No dia 12 de maio, a Comissão de Juristas do Senado Federal recebeu um grupo de especialistas em tecnologia para participar do painel “Atributos do design sociotécnico de confiabilidade da IA: segurança, acurácia, transparência, rastreabilidade e monitoramento”. O encontro (que pode ser acessado neste link) fez parte de uma programação de quatro dias, entre 28 e 29 de abril e 12 e 13 de maio, dedicada a coletar contribuições da sociedade com o objetivo de elaborar um projeto de lei sobre a tecnologia.

Participaram do painel Diogo Cortiz, da Pontifícia Universidade Católica de São Paulo (PUC-SP); Nina da Hora, cientista da computação, hacker antirracista e pesquisadora de cibersegurança; Marina Feferbaum, da Fundação Getulio Vargas (FGV/SP); Fernanda Viegas, do Google; e Rodolfo Avelino, professor do Insper e integrante do Laboratório de Tecnologias Livres (LabLivre) da Universidade Federal do ABC (UFABC).

Na entrevista a seguir, Avelino comenta sua participação no evento, avalia a necessidade de regulamentação da inteligência artificial e sugere formas de avançar na criação de uma legislação para o tema.

 

Qual a importância, e a necessidade, de regular a inteligência artificial no Brasil?

A IA já faz parte de nossas vidas, oferecendo inúmeros benefícios para a sociedade em áreas como saúde, meio ambiente e mobilidade pública, entre outras. Muitas vezes, porém a adoção de novas tecnologias na sociedade pode ter consequências graves que exigem a implementação de regras.

Muitas aplicações de IA possuem a capacidade de evoluir sem a intervenção humana explícita. Isso significa, muitas vezes, que seus criadores não têm o conhecimento do funcionamento exato do algoritmo. Esta é uma das preocupações: sua opacidade que vai contra a transparência, a imprevisibilidade e a incontrolabilidade da IA.

Além disso, muitas aplicações de IA geram impactos sociais negativos. Existem inúmeras histórias que ilustram a discriminação racial, de gênero e de programas sociais, por exemplo. Sendo assim, entendo que, a partir do momento que um sistema pode tomar decisões que afeta a sociedade, ele deve gerar confiança e ter seus limites de responsabilidade limitados. Essas questões complexas e que necessitam de resolução de conflitos sociais são geralmente consagradas em uma lei.

A legislação é uma ferramenta democrática e as audiências públicas são importantes, pois permitem debates e discussões por intermédio de vários atores sociais. Por outro lado, a legislação não pode ser tão rígida que impacte diretamente a economia, o investimento e a evolução tecnológica.

 

Que países estão à frente na regulação da IA?

A Alemanha, a França, a China e o Canadá já possuem regulamentos específicos. Os Estados Unidos também têm discussões avançadas.

 

Como a legislação trata, e como deveria tratar, a regulação da IA no Brasil?

Além de tratar alguns dos problemas aqui citados, deve-se acompanhar os fóruns e comitês técnicos internacionais na formulação das melhores práticas e dos padrões que vêm sendo desenvolvidos e se tornarão referências, sobretudo na indicação de padrões de sistemas de gerenciamento, padrões sobre diretrizes de avaliação de qualidade, e que abordem a estrutura do ciclo de vida de dados de IA e os padrões sobre qualidade de dados de IA para aprendizado de máquina e análise, como o que vem sendo desenvolvido pela ISO (Organização Internacional para Padronização) e pela IEC (Comissão Eletrotécnica Internacional).

 

Quais os principais riscos que a IA apresenta e como mitigá-los?

Como falar de segurança na IA se o algoritmo muitas vezes é opaco, sem feedback de quem é afetado para que eventuais ajustes possam ser realizados? Nem sequer você pode contestar uma injustiça, pois não sabe como funciona. Temos alguns desafios em relação a nossa limitação em relação à regulamentação da IA. Como na infraestrutura tecnológica (computação em nuvem, sistemas e equipamentos), estamos também condenados a seguir as diretrizes tecnológicas advindas dos países que produzem essas infraestruturas.

Além disso, considero como principais riscos não considerar os seguintes temas:

  1. Sistemas considerados de alto risco ou que estejam ligados diretamente à infraestrutura crítica nacional, como energia, saúde e comunicação, devem ter um tratamento especial. Nestes casos, entendo que seja necessário um processo mínimo de certificação e validação antes mesmo de serem colocados em produção.
  2. Os processos de sistemas de vigilância e processamento de imagens de sistema de segurança integrados. Devem ser definidas regras claras que possam restringir o uso de métodos de aprendizado de máquina em larga escala por plataformas de empresas e oligopólios transnacionais e por agências de inteligência.
  3. Os padrões de transparência e responsabilidades na adoção de algoritmos de aprendizado de máquinas que tomam decisões que afetam vidas humanas, como, por exemplo, recomendações de sentenças e discriminação de preços, entre outros. Neste sentido, a ideia é mitigar que esses sistemas produzam resultados racialmente tendenciosos.
  4. A legislação deve se centrar no contexto de uma governança de IA, definindo regras claras sobre a contratação por órgão públicos, sobretudo para sistemas classificados de alto risco, que estejam ligados diretamente à infraestrutura crítica nacional, como energia, saúde e comunicação.

Para mitigar os riscos, um dos caminhos deve ser como acontece na segurança de dados: “a classificação de informação”, que é um dos instrumentos mais importantes no processo de governança de segurança da informação. Na IA, isso também deve acontecer. Ou seja, sistemas considerados de alto risco ou que estejam ligados diretamente à infraestrutura crítica nacional, como energia, saúde e comunicação, devem ter um tratamento especial. Nestes casos, deve-se pensar num processo mínimo de certificação e validação antes mesmo de serem colocados em produção.

 

Este website usa Cookies

Saiba como o Insper trata os seus dados pessoais em nosso Aviso de Privacidade, disponível no Portal da Privacidade.

Aviso de Privacidade

Definições Cookies

Uso de Cookies

Saiba como o Insper trata os seus dados pessoais em nosso Aviso de Privacidade, disponível no Portal da Privacidade.

Aviso de Privacidade