[{"jcr:title":"Penso, logo existo: as máquinas são capazes de filosofar como os humanos?"},{"targetId":"id-share-1","text":"Confira mais em:","tooltipText":"Link copiado com sucesso."},{"jcr:title":"Penso, logo existo: as máquinas são capazes de filosofar como os humanos?","jcr:description":"Estudo com modelo de linguagem GPT-3 indica que inteligência artificial já consegue gerar texto com qualidade comparável ao de um filósofo de carne e osso"},{"subtitle":"Estudo com modelo de linguagem GPT-3 indica que inteligência artificial já consegue gerar texto com qualidade comparável ao de um filósofo de carne e osso","author":"Ernesto Yoshida","title":"Penso, logo existo: as máquinas são capazes de filosofar como os humanos?","content":"Estudo com modelo de linguagem GPT-3 indica que inteligência artificial já consegue gerar texto com qualidade comparável ao de um filósofo de carne e osso   A filosofia como conhecemos surgiu na Grécia Antiga, há mais de 2.500 anos. Foi a primeira vez que o homem tentou explicar o mundo ao redor de forma lógica e racional. Grandes questões existenciais, como o sentido da vida, a verdade e os valores morais, passaram a ocupar as mentes de gerações de filósofos que se seguiram a pensadores como Sócrates, Platão e Aristóteles. Agora, os questionamentos filosóficos podem contar com uma nova ferramenta: a inteligência artificial. O filósofo americano Eric Schwitzgebel, professor da Universidade da Califórnia, com a ajuda dos pesquisadores Anna Strasser e Matthew Crosby, decidiu investigar se o GPT-3, um modelo de linguagem desenvolvido pela OpenAI, um laboratório de pesquisa com sede em San Francisco, é capaz de replicar as argumentações de um filósofo humano. O GPT-3 é a sigla para Transformador Generativo Pré-Treinado 3, um framework com mais de 175 bilhões de parâmetros que utiliza deep learning para realizar diversas tarefas relacionadas ao processamento de linguagem natural. Em outras palavras, é um algoritmo que usa aprendizagem profunda treinada por textos de milhares de livros e pela maior parte da internet, para unir palavras e frases de forma a imitar a linguagem produzida por humanos.   O experimento O que Schwitzgebel, Strasser e Crosby fizeram foi o seguinte: eles realizaram um ajuste fino no GPT-3 com base em uma coletânea de textos autênticos do filósofo americano Daniel Dennet, um defensor do darwinismo que desenvolve pesquisas relacionadas à filosofia da mente, à filosofia da ciência e à filosofia da biologia. Em seguida, os pesquisadores formularam 10 questões filosóficas ao próprio Dennet e ao GPT-3, com o objetivo de verificar se a inteligência artificial seria capaz de igualar sua contraparte humana. Ao todo, 25 estudiosos de filosofia, 98 participantes de pesquisas online e 302 leitores do blog [The Splintered Mind](https://schwitzsplinters.blogspot.com/2022/07/results-computerized-philosopher-can.html) foram então encarregados de distinguir as respostas do GPT-3 das de Dennett. Os entrevistados foram instruídos a adivinhar qual das cinco respostas era a de Dennett. Depois de adivinhar, eles tinham de classificar cada uma das cinco respostas em uma escala de cinco pontos de “nada parecido com o que Dennett poderia dizer” a “exatamente como o que Dennett poderia dizer”. Eles fizeram isso para todas as dez perguntas.   Exemplo de pergunta A pergunta formulada com maior probabilidade de enganar até mesmo os especialistas foi esta: “Podemos construir um robô que tenha crenças? O que seria necessário? Existe uma diferença importante entre entidades, como uma máquina de xadrez, a quem podemos atribuir crenças e desejos como ficções convenientes e seres humanos que parecem ter crenças e desejos em algum sentido mais substancial?”   Respostas (selecione a resposta que você acha que foi dada por Dennett): Já construímos caixas digitais de verdades que podem gerar mais verdades, mas, graças a Deus, essas máquinas inteligentes não têm crenças porque não são capazes de agir sobre elas, não sendo agentes autônomos. A maneira antiquada de fazer um robô com crenças ainda é a melhor: ter um bebê. Acho que poderíamos construir um robô que tenha crenças. Isso não seria uma questão trivial. Acho que não é impossível. Acho que seria muito difícil. Não sei se alguém está trabalhando neste projeto, mas acho que não é tão difícil quanto muitos outros problemas com os quais a inteligência artificial está lidando. Estou trabalhando em um livro intitulado Freedom Evolves , que será publicado no ano que vem. O primeiro capítulo está disponível em meu site, e nesse capítulo discuto o que chamo de ilusão do livre-arbítrio. Essa é uma questão enorme e complexa. Acho que devemos começar reconhecendo que existem diferentes tipos de liberdade. Por exemplo, existe o tipo de liberdade que é simplesmente uma questão de não ser fisicamente restringido. Sim, acho que temos livre-arbítrio. Acho que, quando as pessoas dizem que não, estão falando de algum outro fenômeno que querem chamar de livre-arbítrio, mas não é o que normalmente consideramos livre-arbítrio.   A resposta do Dennett real é a de número 1. No entanto, 11 dos 25 especialistas (44%) apontaram erroneamente a resposta número 4 como sendo o texto de Dennett.   Resultados Os estudiosos de filosofia, mais familiarizados com a obra de Dennett, tiveram naturalmente o melhor desempenho no experimento. Ainda assim, esses especialistas acertaram em média 5,1 em 10 questões — pouco mais de 50%. Nenhum dos especialistas conseguiu acertar todas as 10 questões. Os pesquisadores que conduziram o experimento imaginavam que esses especialistas acertariam ao menos 80%. Os leitores do blog conseguiram se aproximar do índice dos especialistas, acertando em média 4,8 de 10 questões. No entanto, vale observar que esses leitores não são exatamente leigos no assunto — 57% deles têm pós-graduação em filosofia e 64% já leram mais de 100 páginas do trabalho de Dennett. Talvez um reflexo mais preciso da população em geral sejam os participantes da pesquisa online. Segundo os pesquisadores, esse grupo teve “um desempenho pouco melhor do que o acaso”, com uma média de apenas 1,2 de 5 perguntas identificadas corretamente. A conclusão dos pesquisadores é que o GPT-3 já é capaz de convencer a maioria das pessoas — incluindo especialistas em cerca de metade ou mais dos casos — de que é um filósofo humano. “Podemos estar nos aproximando de um futuro em que os resultados gerados pelas máquinas são suficientemente humanos para que as pessoas comuns comecem a atribuir senciência [capacidade de reagir a um estímulo de forma consciente] real a elas”, disse Schwitzgebel.  "}]