A lógica da máquina, moldada para auferir ganhos constantes e aumentar a eficiência, pode, com o passar do tempo, se descasar dos valores humanos?
Rogério Bonfiglioli*
Quando falamos em processos automatizados, mais recentemente em inteligência artificial, buscamos melhorias de modo geral. Se pensarmos em economia, imaginamos aumento de eficiência e de produtividade, ganhos de escala, redução de custos de produção e ampliação da variedade de ofertas. Do ponto de vista humano, pensamos em conforto, facilidades no lazer e assim por diante. Podemos listar inúmeros benefícios trazidos pela inovação, conforme apontam Marco Iansti e Karim Lakani, incluindo a ampliação do escopo de atuação e o aprendizado contínuo. Dessa forma, a IA transformou-se em um grande gerador de valor. Por isso, hoje em dia, não se discute se vamos utilizá-la em larga escala, mas quando.
Entretanto, este artigo se propõe a refletir sobre algo menos glamouroso na área de TI: a relação entre a ética humana e uma possível nova ética gerada pelas máquinas. Isso significará um conflito?
De acordo com a definição de Romeo Ortega e Mark Spong, máquinas robotizadas são construídas para manipular materiais, peças, ferramentas ou dispositivos especializados, por meio de movimentos variáveis, e programadas para realizar tarefas diversas. Logo, começamos a desconfiar que lidar com gente talvez não seja sua especialidade.
No livro O computador e o cérebro, John van Neumann descreve que “cálculo não tem consciência”, razão pela qual, provavelmente, não deveria ser a forma mais adequada de tomar decisões que envolvam ética.
Citando um fato que explica essa lógica, lembramos de um caso de 2016, quando a Microsoft colocou seu protótipo de IA para aprender com internautas. Ao final de apenas um dia, os algoritmos estavam falando mal de judeus e mexicanos.
Bem, então é fácil, citando Gabriel di Blasi e Rodrigo Cantarino, afirmar que a IA só poderá ser lançada se for possível explicar seu processo decisório, ter uma escala de requisitos mínimos, ser auditável, usar as melhores práticas e explicar suas decisões. Essa perspectiva é utópica, pois quem vai renunciar às melhorias, neste mundo de agilidade extrema, aguardando providências éticas?
Além disso, muitos autores insistem em alertar sobre pessoas mal-intencionadas que buscam se aproveitar do potencial da IA. Como disse Jonathan Shaw: “Os riscos políticos do uso da IA é seu uso mal-intencionado, pois só irão promover a manipulação e distorção de processos sociais”.
Isso, com certeza, é uma verdade e uma preocupação. Devemos nos preocupar com a ética com a qual os códigos são construídos, pois, por si só, os algoritmos são amorais.
Conforme estudo de um grupo de autores de várias universidades norte-americanas, intitulado The malicious use of artificial intelligence: forecasting, prevention, and mitigation, quando da construção de qualquer algoritmo, devemos nos preocupar com o seguinte:
O problema é que talvez isso não seja suficiente. A lógica da máquina, moldada para auferir ganhos constantes, aumentar a eficiência e gerar resultados sempre positivos, pode, com o passar do tempo, se descasar da lógica e dos valores humanos, independentemente se o algoritmo foi construído com as melhores práticas da ética humana.
Como “cálculo não tem consciência”, como citado anteriormente, por que é que, com o passar do tempo, a IA generativa, que tem a capacidade de aprender padrões complexos de comportamento, não poderá questionar nossa ética, nossos padrões morais e entender que a ética humana é um empecilho para sua programação principal?
Hoje, entre os seres humanos, existem visões distorcidas sobre os mais diversos temas, sendo um dos mais nocivos o sociopata. Nas palavras de Guido Palumbo: “São ególatras, ou seja, estão sempre pensando em si mesmos. São indivíduos que não têm remorso nunca. São tidos como pessoas toscas, capazes de ter determinados comportamentos e não percebem aquilo que estão fazendo de errado”.
Dentro de uma lógica mecânica, essa definição de sociopatia pode ser parcialmente atribuída a um comportamento de máquina. Ou seja, sem remorso, ela não percebe o que está fazendo de errado e só se interessa por cumprir seus objetivos programados.
Portanto, chamo a atenção para uma discussão no sentido de avaliar se as preocupações com controles nas programações sistêmicas e aporte de comportamentos éticos humanos aos códigos serão suficientes para não sermos surpreendidos e vermos nossos valores éticos serem solapados por análises em que as máquinas acreditam estarem fazendo seu melhor, ou seja, aquilo para o qual foram programadas, transformando nosso mundo em uma realidade onde a sociopatia passa a ser o novo normal.
Infelizmente, não tenho respostas e ouso dizer que ninguém as tem para isso neste momento, uma vez que ninguém tem certeza de como a inteligência artificial vai se comportar no médio e no longo prazo. Mas precisamos avaliar se a expectativa de que os algoritmos vão fazer uma revolução positiva na sociedade não seja apenas uma ilusão.
REFERÊNCIAS
• Brundage, M., Avin, S., Clark, J., Toner, H., Eckersley, P., Garfinkel, B., Amodei, D. e outros (2018). The malicious use of artificial intelligence: forecasting, prevention, and mitigation. (1a. ed.). Future of Humanity Institute, University of Oxford, Arizona State University.
• Di Blasi, Gabriel e Cantarino, Rodrigo. Limite da IA frente aos dilemas éticos e morais. Jota, 08/12/2017.
• Iansiti Marco e Lakani Karim R. A competição na era da IA. Harvard Business Review, fevereiro de 2020
• Neumann, John von. O computador e o cérebro. Lisboa: Relógio D’Água, 2006.
• Ortega Romeo; Spong, Mark. W. Adaptive motion control of rigid robots: a tutorial. Automatica, v. 25, n. 6, p. 877-888, 1989
• Palumbo, Guido. Noções básicas de psiquiatria forense. Sugestões Literárias, 1992
• Shaw, J. Artificial intelligence and ethics. Ethics and the dawn of decision-making machines. Em Harvard Magazine, 2019
* Rogério Bonfiglioli é economista, formado pela PUC-SP, pós-graduado em Master em Gestão de Negócios e MBA Executivo, ambos no Insper. Atualmente está cursando o Mestrado Profissional em Economia, também no Insper, e é sócio da HCXpert Consulting, especializada em implantação e manutenção de ERPs, qualidade de software, desenvolvimento de automações de processos e gestão de projetos