[{"jcr:title":"Por que ainda não saímos da era da inteligência artificial “fraca”"},{"targetId":"id-share-1","text":"Confira mais em:","tooltipText":"Link copiado com sucesso."},{"jcr:title":"Por que ainda não saímos da era da inteligência artificial “fraca”","jcr:description":"As tecnologias baseadas em IA ainda tentam igualar a inteligência humana e estão longe de superá-la, diz o professor Luciano Silva"},{"subtitle":"As tecnologias baseadas em IA ainda tentam igualar a inteligência humana e estão longe de superá-la, diz o professor Luciano Silva","author":"Ernesto Yoshida","title":"Por que ainda não saímos da era da inteligência artificial “fraca”","content":"As tecnologias baseadas em IA ainda tentam igualar a inteligência humana e estão longe de superá-la, diz o professor Luciano Silva   Leandro Steiw   Recentemente, ressurgiu certo pânico sobre a capacidade de computadores demonstrarem sentimentos de forma consciente. As máquinas [sencientes](https://www.insper.edu.br/noticias/afinal-a-inteligencia-artificial-do-google-se-tornou-senciente/) já existiriam, segundo um engenheiro que trabalhava no LaMDA, um sistema de inteligência artificial (IA) desenvolvido pelo Google. Especulação ou não, o fato é que ainda vivemos na era da Narrow Intelligence Artificial — ou inteligência artificial fraca ou limitada, como se convencionou na tradução para o português. Tecnologias com suporte de IA fazem parte do nosso cotidiano e estão longe de nos substituir por completo. Por um motivo simples: “O que chamamos de inteligência artificial é basicamente uma tentativa de imitarmos a inteligência humana”, diz Luciano Silva, professor dos cursos de [Engenharia de Computação](https://www.insper.edu.br/graduacao/engenharia-de-computacao/) e [Ciência da Computação](https://www.insper.edu.br/graduacao/ciencia-da-computacao) do Insper. “O problema está na imprecisão de definir algo como similar à inteligência humana. É uma explicação vaga porque ela pode ser menos potente, igual ou superior à inteligência humana”, afirma. Conforme as pesquisas avançaram, criaram-se três grandes classificações: Artificial Narrow Intelligence (ANI), Artificial General Intelligence (AGI) e Artificial Super Intelligente (ASI). “A ANI, que chamamos também só de Narrow , é basicamente uma IA fraca, projetada para executar pequenas tarefas que o ser humano já faz”, diz o professor. “Por exemplo, softwares que ajudam em predição de tempo e análise de dados ou, ainda, num jogo de xadrez que se joga contra o computador.” A ANI nos separa do imaginativo mundo da ficção científica. “Toda inteligência artificial que desenvolvemos atualmente, se tivéssemos que dar uma designação para ela, seria Narrow IA , porque ainda está muito aquém das capacidades de inteligência humana”, diz Silva. Chatbots, assistentes virtuais, programas de segurança digital, aplicativos de geolocalização e rotinas de manutenção preditiva, entre outros, estão amplamente difundidos no comércio, na indústria, nas empresas de infraestrutura e nas instituições financeiras. Mas não pensam por conta própria e dependem de supervisão humana para realizarem com perfeição as tarefas para a quais foram programados. O termo “Narrow” traça o limite em relação às capacidades cognitivas humanas, que já são difíceis de estabelecer por si só. Assim, qual seria a próxima fronteira? “A definição seguinte seria a AGI, uma inteligência artificial que tem as mesmas capacidades humanas, inclusive de ter sentimento e consciência, e é por isso que a pessoas têm muito medo da inteligência artificial”, afirma Silva. “Mas, sob essa perspectiva, há outra mais assustadora, a ASI, que é uma IA teórica, capaz de desenvolver alguma capacidade cognitiva que o ser humano não tem ainda, ou seja, de suplantar a inteligência artificial.”   Cérebros híbridos Muitos teóricos na área de IA acreditam que nunca vai se evoluir para uma AGI, também conhecida por inteligência artificial forte (do inglês, Strong IA ). “Seria o ponto no qual não haveria diferenciação do que é um ser humano e do que é uma inteligência artificial”, diz Silva. “Existe até o chamado Teste de Turing, para saber se o ser humano consegue distinguir se ele está falando com outra pessoa ou se está falando com um computador.” Alan Turing (1912-1954) foi um matemático e cientista da computação britânico que trabalhou na decifração dos códigos de comunicação nazistas, durante a Segunda Guerra Mundial. Embora controverso, o Teste de Turing permeia muitas das discussões, inclusive filosóficas, sobre inteligência artificial desde a década de 1950. No universo da ficção, inspirou o Teste de Empatia Voight-Kampff, usado pelo autor Philip K. Dick (1928-1982) no romance Androides sonham com ovelhas elétricas? para distinguir robôs de humanos. O diretor de engenharia do Google, Ray Kurzweill, é um dos que confiam no estágio subsequente de evolução. Ele acha que, já nos anos 2030, uma inteligência artificial híbrida ligará o cérebro humano a processadores em nuvem, por meio de implantes no neocórtex. Os humanos não perderiam o controle sobre a máquina, se conectariam a outras pessoas e ainda ampliariam as suas habilidades cognitivas, pensa Kurzweill. Para acalmar os ânimos, o engenheiro costuma fazer uma analogia com os smartphones, que já seriam extensores cerebrais dos quais ninguém mais pode prescindir. Uma IA híbrida, porém, não é General ou Super. Outros experimentos buscam uma IA que aprenda com ela mesma. “Mas essa tentativa é limitada dentro daquele universo lógico no qual ela é, por exemplo, programada”, afirma Silva. “Então, se ela trabalha com lógica de primeira ordem, não se espera, pelo menos teoricamente, que ela saia dessa primeira ordem. O que eu quero dizer com primeira ordem: a IA criar outra lógica que trate da lógica na qual ela está trabalhando.” O professor explica por que se coloca ao lado do grupo de pesquisadores que não creem na superação da capacidade humana pela IA: “Porque estamos falando, principalmente, de materiais físicos diferentes. Mesmo que hoje se tenha a [computação quântica](https://www.insper.edu.br/noticias/cientistas-da-computacao-se-preparam-para-o-aprendizado-quantico/) , ainda se trabalha com materiais físicos, como silício e nióbio, que são mais limitados em ligações químicas do que o carbono, que faz parte do nosso corpo como ser vivo. Há um limite de capacidade se analisarmos até o nível bioquímico onde essas coisas acontecem no corpo humano. Então, acho que existe um medo infundado”.   Aprendendo a programar Cientistas da computação não distinguem o ensino em Narrow , General ou Super , pois essa é uma divisão recente na área. “Muitos cursos nem são mais chamados de inteligência artificial, mas de aprendizado de máquina”, diz Silva. “Há divergências se machine learning é uma área nova ou uma divisão da inteligência artificial. Encontra-se gente que defende um ou outro conceito. Atualmente, ensina-se nas universidades basicamente Narrow IA e um campo bem específico dela, que é o aprendizado de máquina.” Para quem está entrando na área, é comum iniciar o treinamento pelo aprendizado de máquina, no qual se aprendem técnicas de análise de dados, por exemplo. “Nesse ponto, a Narrow IA apresenta uma das grandes vantagens que é a capacidade de processamento”, diz. “Consegue-se trabalhar com volumes enormes de dados simultaneamente. A maioria desses métodos é baseada em técnicas algébricas, máquinas de vetor suporte e álgebra linear. São a base para se começar.” Diversas questões éticas emergem do uso da inteligência artificial. Em geral, os argumentos são de que tecnologias criadas para facilitar a nossa vida também podem ser usadas para atos prejudiciais. Máquinas pensantes — com sentimento, consciência e expressão — estão no horizonte das pesquisas em computação. Tudo o que temos, no entanto, ainda está restrito a habilidades fracas ou limitadas e sujeito aos bons ou maus interesses de seus programadores.  "}]