Realizar busca
test

Para onde você vai agora, ChatGPT?

O que esperar de avanços dos programas de inteligência artificial generativa — e como eles podem transformar o mundo dos negócios

O que esperar de avanços dos programas de inteligência artificial generativa — e como eles podem transformar o mundo dos negócios

 

David A. Cohen

 

O avanço da inteligência artificial (IA) já começou há muito tempo: pelo menos desde o início dos anos 1940, quando surgiram as primeiras pesquisas sobre como redes de neurônios artificias poderiam realizar funções lógicas. De lá para cá, chamaram a atenção especialmente a vitória do computador Deep Blue, da IBM, sobre o então campeão mundial de xadrez, Garry Kasparov, em 1997; a vitória de seu sucessor, Watson, sobre dois ex-campeões de Jeopardy (um jogo de adivinhações com base em conhecimentos gerais), em 2011; e a vitória do supercomputador AlphaGo, do Google, sobre o então campeão mundial Lee Sedol de Go (um jogo de estratégia com mais posições possíveis do que o número de átomos no universo), em 2016. À parte os grandes eventos de mídia, a IA vem ganhando espaço nos smartphones, com as assistentes virtuais, ou na indústria automobilística, com ferramentas que avançam rumo à direção totalmente autônoma.

Mesmo assim, o mundo parece que só acordou de verdade para o tema em novembro do ano passado, com a liberação para o público do programa ChatGPT, de IA generativa (capaz de criar novas informações a partir de dados preexistentes). Era, talvez, a prova que faltava de que essa tecnologia vai conquistar um bom espaço em quase todas as atividades humanas. De acordo com um relatório da consultoria McKinsey, menos de um ano depois do início do emprego dessa tecnologia, quase um terço de quase 1.700 executivos pesquisados disse que suas organizações estão usando IA em pelo menos uma tarefa de negócios; e 40% afirmam que vão aumentar o investimento na tecnologia graças aos avanços em IA generativa.

“Esse foi o grande tema do final do ano passado e continua neste. A atenção para os LLM (large language models) deve se manter por um bom tempo”, diz o professor Fábio de Miranda, coordenador do curso de Ciência da Computação do Insper.

Além da rápida adoção, o ritmo da evolução acelerou. Em apenas quatro meses, o ChatGPT-3, que havia sido liberado para o público, virou ChatGPT-3,5 e logo foi seguido pelo ChatGPT-4, muito mais potente. Também surgiram vários concorrentes. A própria OpenAI, empresa que desenvolveu o ChatGPT, se aliou à Microsoft; o Google lançou o Bard; a Anthropic (fundada por ex-membros da OpenAI) tem o Claude; a Apple está desenvolvendo o Ajax; a israelense AI21 tem o Jurassic-2; a chinesa Baidu lançou o Ernie 3.0; a Meta tem o LLaMa e por aí vai. Até a Nvidia, que fornece chips para o ChatGPT funcionar, planeja lançar um rival próprio.

Dada essa febre, o que se pode esperar do futuro próximo? Quais são os próximos passos desses programas? “A evolução da IA generativa deve se dar em dois eixos”, afirma Miranda. “O primeiro é que as ferramentas fiquem melhores no que já fazem. O segundo é que possam reconhecer quando uma resposta não é adequada.”

De acordo com Miranda, as produtoras de IA estão investindo milhões de dólares em bases de dados e poder computacional. Os treinamentos para os sistemas darem respostas melhores mobilizam dezenas de milhares de computadores.A demanda por essas ferramentas impulsionou fortemente o mercado de supercomputadores [leia aqui]. Não é à toa. “O ChatGPT 3,5, um avanço do primeiro sistema liberado, utiliza mais ou menos 800GB de memória. Se fossem os notebooks parecidos com o que nós temos em casa, seria necessário juntar uns 40 deles — para dar uma resposta só. Por isso que às vezes a resposta demora demais. Os pedidos chegam, entram na fila dos servidores”, ilustra Miranda. E a melhora das ferramentas exigem ainda mais poder de processamento. “O GPT 4 é um arquivão de 4TB, cinco vezes mais.”

 

Em busca da coerência

Só na melhora das ferramentas já há um campo enorme de oportunidades. Durante dois meses, até julho passado, o colunista de tecnologia pessoal do jornal The New York Times, Brian X. Chen, testou dezenas delas e concluiu que as estamos usando de forma subótima. Os programas com frequência incorrem no que ficou conhecido como alucinações: a fabricação de informações falsas.

Um experimento com uma receita culinária indicada por um programa desses resultou em um bolo duro e em um peru ressecado demais. Ensaios produzidos com IA também podem conter apologia ao racismo. Em outro exemplo de alucinação, ao fazer pesquisas para um artigo de esportes, Chen afirma que o ChatGPT e o Bard misturaram detalhes importantes dos jogos, confundindo os fatos ocorridos e as personagens envolvidas.

A solução, aponta ele, é dirigir os programas para o uso preponderante de bases de dados confiáveis. Alguns plug-ins (programas auxiliares) que assinantes do ChatGPT-4 são autorizados a utilizar vão nessa direção. É possível escolher de quais bases o computador vai extrair a resposta.

A possibilidade das fontes de uma pesquisa alterarem radicalmente os resultados é uma observação que pode parecer óbvia, mas necessária quando o marketing de algumas dessas ferramentas sugere que elas retiram suas respostas de todo o conhecimento acumulado na internet.  Basta olhar o recente lançamento do Ernie, o primeiro chatbot chinês, no dia 31 de agosto, para perceber as inclinações advindas das fontes utilizadas: conforme reportagem da revista The Economist, uma pesquisa sobre a origem da covid-19 leva à resposta de que ela começou entre usuários de cigarros eletrônicos nos Estados Unidos, espalhando-se meses depois na cidade de Wuhan, na China.

“Uma vertente que está sendo perseguida é criar LLMs para domínios específicos”, conta Miranda, do Insper. “Numa hackaton de biologia molecular em Oxford, por exemplo, várias colocaram informações à disposição do computador e depois fizeram pedidos: quero uma droga que cure dor de cabeça, quero uma droga para a doença tal etc.”

 

Um enorme campo nas empresas

Na mesma linha, diz Miranda, há os miniprogramas de IA generativa. “Além da internet congelada de quando o ChatGPT ou similar foi treinado, ele pode usar o que você disponibiliza como pré-conhecimento.” Escritórios de advocacia podem fazer isso, colocando leis e jurisprudência na base.

É uma espécie de Eldorado do mundo corporativo. “Um ChatGPT corporativo combina os dados externos e internos”, esclarece Miranda. “Uma empresa pode querer uma tabela com os clientes mais devedores, e o programa liga as planilhas da empresa com uma interface transacional. Ou a pergunta pode ser investigativa para a tomada de decisões, como descobrir qual a última conversa que um cliente teve com alguém da empresa antes de fazer um determinado pedido.”

Não há muitas empresas capazes de desenvolver esse tipo de tecnologia, mas para as que têm condições, os recursos estão chegando em grande quantidade.  A startup canadense Cohere, fundada por dois ex-pesquisadores do Google e um empreendedor de Toronto, recebeu em maio um investimento de 250 milhões de dólares da Nvidia, da gigante de softwares Salesforce e de duas firmas de venture capital, indicando que a empresa tem um valor estimado de 2,1 bilhões de dólares.

A empresa é focada em clientes empresariais, com uma plataforma que é agnóstica (ou seja, que não está vinculada a uma tecnologia específica) em relação à nuvem que a companhia usa. “A Cohere foi fundada para criar uma plataforma que permite a todas as companhias transformar a organização e seus produtos com uma IA agnóstica, acessível, customizável e segura”, disse Martin Kon, presidente e chefe de operações da empresa, ao site de notícias de tecnologia Tech Crunch.

É um campo com tantas promessas que o Insper pretende lançar em fevereiro uma disciplina chamada AI Startup, no 5º semestre do curso de Ciência da Computação. A ideia dos professores Marcelo Nakagawa e Fabrício Barth, responsáveis pela estruturação da cadeira, é preparar os alunos para identificar as oportunidades na área, com atenção ao que está acontecendo nos centros de tecnologia de ponta.

 

Versão recriada de "A criação de Adão", de Michelângelo
Versão de “A criação de Adão”, de Michelângelo, recriada com computador

O desafio das imagens e vídeos

Um dos grandes desafios no campo das melhorias dos programas de IA generativa é o avanço na criação de imagens. Algumas empresas já desenvolvem tecnologia que pode permitir a qualquer um criar vídeos simplesmente digitando algumas palavras num computador.

“O próximo grande passo em inteligência artificial parece ser a criação de vídeos instantâneos”, afirma um artigo de abril da Analytics Insigth, uma publicação indiana dedicada a IA, big data e analytics. “Os primeiros sistemas de geração de vídeo foram introduzidos pelo Google e pela Meta no ano passado, mas foram mantidos fora do olhar do público pela preocupação de que possam um dia ser usados para rápida e eficientemente disseminar material falso.”

Se com os textos essa já é uma preocupação gigantesca, com imagens a história tende a ficar muito pior. “Os vídeos criados têm apenas quatro segundos de duração, e se você prestar atenção pode ver que as imagens apresentam instabilidades e podem parecer estranhas ou perturbadoras; às vezes há fusão de objetos inanimados com criaturas vivas, fundindo por exemplo telefones e bolas com cães e gatos”, informa o artigo. “Mas com as orientações certas, pode-se ver a direção que esta tecnologia está tomando.”

Na conferência de computação gráfica SigGraph 2023, realizada no início de agosto em Los Angeles, a Nvidia, líder na fabricação de GPUs, os chips de processamento gráfico, apresentou 20 artigos de pesquisa científica com avanços em gráficos neurais e IA generativa, em colaboração com uma dúzia de universidades nos Estados Unidos, Europa e Israel. O conjunto incluía modelos para transformar textos em imagens personalizadas, ferramentas para converter imagens fixas em objetos tridimensionais, e modelos de renderização (transformação de informações tridimensionais em imagens bidimensionais) que dão nova capacidade de gerar detalhes visuais produzidos por IA em tempo real.

É fácil perceber que esse caminho apresenta uma série de obstáculos, especialmente no que concerne à necessidade de controle e regulação contra informações falsas.

 

O segundo eixo: saber quando não sabe

O segundo eixo de evolução da IA generativa, diz Miranda, é a arquitetura. “Trata-se de o programa entender que algo não é uma resposta aceitável e recorrer a um local externo à sua base”, explica. “Também se trata de ele ser capaz de verificar se a resposta que deu está amparada pelos dados.”

Em outras palavras, criar uma rotina, ou um sistema inteiro, capaz de evitar as alucinações (o problema é tão elementar que dá nome à Cohere, uma das poucas startups tidas como capazes de fazer frente à OpenAI). “Quem conseguir resolver esse problema vai virar um unicórnio imediatamente”, opina Miranda. A característica aproximaria a inteligência artificial ainda mais da inteligência humana.

É uma questão que está, aliás, nos primórdios da filosofia ocidental. Quando Sócrates (470 a.C.- 399 a.C.) busca entender por que o oráculo de Delfos o havia apontado como a pessoa mais sábia da Grécia antiga, ele reflete, busca respostas com especialistas de todo tipo e finalmente conclui que ele só pode ser o mais inteligente dos humanos por ter consciência de que não sabe nada. O que o diferencia dos demais não é a ignorância, mas o fato de se saber ignorante — o que lhe permite buscar a verdade com mais desenvoltura do que alguém que acha que já sabe a resposta.

Um avanço desses estaria na linha de desenvolvimento rumo à inteligência geral artificial, aquela de que tratam os filmes de ficção científica e que assustam pela possibilidade de as máquinas ultrapassarem a capacidade humana.

Não é tão fácil chegar lá. Envolve ensinar um computador a reconhecer e decifrar informações não verbais como linguagem corporal, expressões faciais, tom de voz, contextos. “Inteligência social artificial é um desafio distinto e complicado em comparação com o nosso conhecimento físico do mundo”, disse o pesquisador Lifeng Fan, do Instituto de Beijing para a Inteligência Geral Artificial, à plataforma de notícias sobre software The New Stack. “Ela é altamente dependente do contexto. E o contexto pode ser tão amplo quanto a cultura local e o senso comum, ou tão estreito quanto a experiência compartilhada entre dois amigos.” Esta é a maior dificuldade: os problemas de interações sociais no mundo real são complexos, ambíguos, mudam a todo momento, constroem-se uns sobre outros, envolvem muitos agentes ao mesmo tempo e são apenas parcialmente observáveis.

Se a inteligência geral (com seu componente social) está ainda muito distante, existe uma questão premente que se aplica aos sistemas de hoje: pode-se dizer que eles são capazes de inventar algo original?

Já há discussões legais sobre o pagamento de direitos autorais para os donos das informações que possibilitam o treinamento dos sistemas. Este é, diga-se, um dos custos que tornam os LLMs uma tecnologia de capital intensivo. Construir e treinar os modelos de linguagem requer muito capital.

Uma segunda discussão é: a quem pertencem as invenções feitas por máquinas? Parece uma preocupação para o futuro, mas o Escritório de Patentes dos Estados Unidos já promoveu duas reuniões públicas este ano chamadas “sessões de escuta sobre invenções de IA”. E o Senado norte-americano já convocou, em junho, uma sessão sobre patentes e IA, com representantes das grandes empresas de tecnologia e das companhias farmacêuticas.

“A pergunta sobre se uma máquina pode inventar algo é muito complexa”, avalia Miranda. “Correlaciona-se com a pergunta filosófica se o ser humano consegue inventar algo. Um artista está sempre produzindo com base em algo que já viu, já viveu.” É difícil dizer que os programas não inventam, argumenta. “Até o Photoshop Beta já faz algo assim, é capaz de desenhar um chapéu que não existia para uma pessoa em uma foto.”

 

Trilhões de dólares na economia — por ano

O quanto esse futuro está perto, não é possível dizer. Mas é nessa direção que vão todas as apostas. De acordo com um artigo de junho da McKinsey, o impacto da IA generativa na produtividade das empresas pode adicionar trilhões de dólares à economia global. A estimativa da consultoria, com base em 63 casos de uso da tecnologia que seus colaboradores pesquisaram, é de um crescimento entre 2,6 trilhões de dólares e 4,4 trilhões de dólares anuais. Ou seja, um crescimento algo entre 1,3 e 2,2 vezes o PIB brasileiro a cada ano.

Os casos estudados levam em conta, por exemplo, estimativas de que o típico trabalhador intelectual gasta 20% de seu tempo identificando e acumulando informações relevantes ao seu trabalho. Se um programa é capaz de fazer isso em um infinitésimo do tempo, ganha-se em produtividade.

No campo da descoberta de drogas, a mera redução do universo de compostos possíveis para um grupo que poderia efetivamente tratar condições específicas já economizaria uma quantidade absurda de dados, tempo de pesquisa e mesmo testes de drogas, levando a um ganho de tempo precioso no desenvolvimento de remédios ou vacinas.

Há quem defenda que essas estimativas são conservadoras demais. Segundo Ajay Agrawal, professor da Universidade de Toronto e coautor do livro Power and Prediction: The Disruptive Economics of Artificial Intelligence (Poder e previsão: a economia disruptiva da IA), ainda a ser lançado, em um artigo publicado na revista Forbes, “uma segunda onda de IA vai não apenas reduzir o custo das previsões já existentes, mas também transformar o processo produtivo e talvez a proposta de valor das empresas”.

A analogia que ele tece é com os primeiros dias do advento da eletricidade. Anos depois de a invenção ter sido adotada nas cidades, só 3% das fábricas a utilizavam. A mudança veio quando novas fábricas perceberam que a eletricidade distribuída representava mais do que uma pequena vantagem de custo em relação ao combustível ou ao vapor que utilizavam, ela permitia que as máquinas dispensassem as outras fontes de energia. As empresas começaram então a redesenhar suas fábricas, reposicionar equipamentos de forma mais eficiente. Em duas décadas, afirmou Agrawal, o uso da eletricidade chegou a 50% das fábricas.

De forma semelhante, defende ele, o negócio das empresas pode sofrer mudanças radicais com a IA. “Com um sensor que possa detectar e prevenir vazamentos de canos, por exemplo, uma seguradora pode ajudar a reduzir o risco de danos provocados pela água, o que significa vender muito mais apólices, ainda que com valor menor”, disse. Em outras palavras, a próxima fase da IA talvez não seja simplesmente um avanço na capacidade de processamento, mas algo mais transformador, que pode alterar a estratégia, a estrutura de custos e as fronteiras de negócios de todas as companhias.

Algo assim faria com que as previsões da McKinsey, ainda que gigantescas aos olhos de hoje, parecessem tímidas e muito aquém da revolução pela qual o mundo dos negócios está passando.

 

Este website usa Cookies

Saiba como o Insper trata os seus dados pessoais em nosso Aviso de Privacidade, disponível no Portal da Privacidade.

Aviso de Privacidade

Definições Cookies

Uso de Cookies

Saiba como o Insper trata os seus dados pessoais em nosso Aviso de Privacidade, disponível no Portal da Privacidade.

Aviso de Privacidade