A Nvidia, fabricante do chip mais usado em IA, já vale mais de 1 trilhão de dólares. Mas há várias outras apostas, como a startup Cerebras, com seus chips gigantes, os esforços chineses e europeus… e o que pode ser a próxima revolução, das máquinas quânticas
David A Cohen
A inteligência artificial parece estar em todo lugar. De alguns meses para cá, praticamente toda grande empresa percebeu que precisa de uma estratégia de IA — para atendimento, marketing, logística, operações, o que seja. Mas esta febre implica outra: há hoje um superaquecimento no mercado de supercomputadores.
Não é à toa que a empresa líder de um componente essencial para fabricação de supercomputadores, a americana Nvidia, tenha entrado praticamente de uma hora para outra no clube do trilhão. No final de 2019, seu valor de mercado não chegava a 100 bilhões de dólares. Era bastante, já. Afinal, a empresa é a campeã na produção de placas gráficas, as GPUs que habitam uma miríade de telas mundo afora.
Com a pandemia e tanta gente em casa, este mercado se aqueceu e a Nvidia ultrapassou os 800 bilhões de dólares de valor de mercado no final de 2021 — mas em seguida ela despencou, junto com praticamente todo o setor de tecnologia, voltando à casa dos 300 bilhões de dólares em outubro do ano passado.
Foi aí que entraram o ChatGPT e seus congêneres, escancarando as portas do mercado de programas de inteligência artificial generativa. Os sistemas de IA são alimentados com… unidades de processamento gráfico, as GPUs cuja fabricação a Nvidia domina. A demanda por seus produtos voltou a explodir, desta vez com ainda mais força, a ponto de em maio a empresa ter alertado que sua receita no trimestre ficaria mais de 50% acima das estimativas dos analistas. A receita acabou subindo para 13,5 bilhões de dólares no segundo trimestre e o lucro no período, para mais de 6 bilhões de dólares, quase dez vezes mais que um ano antes. Os investidores redobraram seu ânimo e seu valor de mercado no final de agosto estava acima de 1,1 trilhão de dólares.
Por mais assombrosa que seja a valorização da Nvidia, ela está longe de ser a única. No final de julho, por exemplo, foi apresentado ao mercado o supercomputador Condor Galaxy 1, da startup americana Cerebras, desde já um grande concorrente — talvez não no sentido de receita ou valor da empresa, mas certamente em tamanho. O novo supercomputador usa chips com a dimensão de um prato de jantar, 56 vezes maiores que os processadores normalmente utilizados em máquinas de IA.
Com o tamanho vem a capacidade. O chip da Cerebras tem o poder computacional de centenas de processadores tradicionais. “Há anos a Nvidia investe em miniaturizar os processadores para colocar mais capacidade dentro das máquinas”, diz Luciano Silva, professor de Ciência da Computação e Engenharia de Computação do Insper. “A Cerebras resolveu fazer o contrário.”
O processo de miniaturização está no cerne da Lei de Moore, uma antiga constatação de Gordon Moore, um dos fundadores da Intel, de que a cada aproximadamente dois anos o número de transistores num chip de computador dobrava. É por isso que um smartphone tem hoje muito mais capacidade de processamento do que os grandes computadores dos anos 1980 — que já eram muito mais poderosos do que os computadores que a Nasa usou para levar missões tripuladas à Lua.
“O pessoal da Cerebras resolveu simplesmente esquecer a Lei de Moore”, brinca Luciano. A desvantagem é, obviamente, o espaço que uma máquina dessas ocupa. Uma, não. São 64 sistemas interconectados, em gabinetes de 2 metros de altura em um prédio de um andar em Santa Clara, na Califórnia.
A vantagem é o poder computacional. “Esse processador da Cerebras abriga hoje mais ou menos 2,6 trilhões de transistores. A maior GPU tem somente 54,2 bilhões”, compara.
O Condor Galaxy foi construído para a G42, um conglomerado dedicado a IA com sede em Abu Dhabi, nos Emirados Árabes Unidos, e pretensões de operar no mundo inteiro, prestando serviços para grandes corporações, governos e variadas instituições. Estrutura para isso ele já tem: o G42 é formado por nove companhias com 22.000 empregados em 25 países.
O Condor Galaxy (CG) será o primeiro de um conjunto de nove supercomputadores similares (a tal galáxia do nome). Só esse primeiro contrato já deu à empresa cerca de 100 milhões de dólares. Os dois próximos computadores serão construídos no início do ano que vem, também nos Estados Unidos, promete a Cerebras. E ainda em 2024 serão construídos mais seis.
“Por que esse lançamento causou tanto furor? Porque, com processadores maiores, o custo cai drasticamente”, diz Luciano. “Não é preciso incorrer nos esforços de miniaturização.”
Como a Cerebras é uma companhia fechada, não se percebe o salto em sua valorização. De qualquer modo, na mais recente rodada de investimentos, em novembro de 2021, a startup arrecadou 250 milhões de dólares, projetando-lhe um valor total de 4 bilhões de dólares.
Além do alto poder computacional por um preço bem inferior, a Cerebras traz outra vantagem: rapidez. “O que impressionou o pessoal do G42 é que eles conseguiram montar um supercomputador em dez dias”, comenta Luciano. Um projeto desses costuma levar meses, às vezes até anos para ser entregue.
Tempo é um fator fundamental atualmente, dada a acirrada concorrência em um mercado em plena expansão. Tempo e capacidade computacional. Por causa das tecnologias de IA, “pela primeira vez estamos vendo um grande salto nas configurações para computadores”, afirmou Ronen Dar, fundador de uma empresa israelense de modelagem para IA, ao jornal The New York Times. “Há uma enorme demanda por chips especializados, e uma corrida para assegurar acesso a eles.”
Supercomputadores são um mercado robusto desde os anos 1960, quando a Control Data Corporation construiu o primeiro deles, o CDC 6600. Nas duas décadas seguintes, o surgimento da tecnologia de computação em paralelo (graças à GPU), fez com que o poder de processamento das máquinas crescesse exponencialmente. Na década de 1990, um supercomputador da IBM conseguiu ganhar um desafio do então campeão mundial de xadrez, o russo Garry Kasparov.
Desde então, eles têm sido usados em uma ampla gama de situações, como previsão do tempo (em que minúsculas mudanças ocasionam cenários bastante diversos), exploração espacial, análise de colisão de partículas ou descoberta de drogas (simulando uma grande número de interações de moléculas com os vírus ou bactérias que devem atacar). Governos usam os supercomputadores para criptografia de material sensível.
Além do crescimento natural de todas essas aplicações, houve nos últimos anos uma demanda extra, vinda do setor automobilístico, para sustentar os veículos autônomos.
Em julho agora, por exemplo, o bilionário Elon Musk anunciou para investidores que a Tesla vai investir até 1 bilhão de dólares no desenvolvimento do Projeto Dojo, um supercomputador com características de aprendizado de máquina. O objetivo é melhorar os softwares que regulam a crescente frota de carros autônomos da companhia, com o aumento de capacidade de analisar a montanha de vídeos e dados recebidos dos sensores dos automóveis.
Embora essa demanda continue em alta (e outras companhias devam fazer investimentos semelhantes, com supercomputadores próprios ou alugados), ela foi atropelada pela avalanche de pedidos relacionados a IA.
Apreender quantidades astronômicas de fatos e dar respostas inteligíveis para as demandas do mundo real exige uma capacidade de processamento monstruosa. Os 54 milhões de núcleos do Cerebras são um senhor avanço, aponta o professor Luciano. “Isso vai chegar numa capacidade de processamento de 4 exaflops”, diz.
O Flops (Floating Point Operations per Second) é uma unidade que indica a velocidade dos cálculos de um supercomputador. Ponto flutuante é uma forma de representação numérica usada em computação, portanto o número de Flops representa quantas operações é possível fazer por segundo. Os computadores mais rápidos hoje em dia operam em exaFlops, ou seja, realizam um quintilhão de cálculos por segundo. “Se você junta máquinas, pode até falar em zettaflops, um sextilhão de cálculos por segundo”, esclarece Luciano. Estamos falando de um bilhão de trilhões de cálculos a cada segundo.
A Nvidia não deve ficar para trás, é claro. Seu mais recente projeto, anunciado no final de maio, é o Israel-1, que deve começar a operar parcialmente no final do ano e, quando estiver funcionando plenamente, terá capacidade de até 8 exaflops. Neste sistema, a Nvidia diz estar trabalhando em conjunto com 800 startups israelenses e dezenas de milhares de engenheiros de software.
Nessa briga, cada uma das gigantes do ramo — Intel, Google, Amazon, AMD, Nvidia — desenvolve suas próprias alternativas. E há ainda uma série de startups na área, ao lado da Cerebras, como a Graphcore, Groq e SambaNova.
Há espaço para tantas empresas? Aparentemente, sim. Estão surgindo muitos projetos gigantescos. A Universidade de Turku, na Finlândia, por exemplo, anunciou em meados de agosto uma colaboração com outras nove universidades europeias para desenvolver novos LLM (grandes modelos de linguagem) no supercomputador LUMI, o mais potente da Europa, usando chips da AMD. A iniciativa deriva da percepção de que a maior parte das inovações em processamento de linguagem vem de empresas americanas, com um viés para a língua inglesa.
E há a China, é claro. Mesmo sob sanções americanas contra algumas de suas empresas de tecnologia (o que dificulta o acesso a chips de última geração), o país continua produzindo supercomputadores. O mais recente, conforme relatado em meados de agosto pela conferência internacional de supercomputadores, foi construído pelo Centro Nacional de Supercomputadores em Wuxi e possui cerca de 19 milhões de núcleos.
A China já é o país com maior número de supercomputadores. Na lista das 500 maiores máquinas do mundo, ela tinha 162 no ano passado, mesmo tendo parado de fornecer dados para as entidades internacionais. Em segundo lugar vinham os Estados Unidos, com 126.
Apesar disso, o país ainda fica atrás de outras nações em aplicações industriais desses supercomputadores. Por isso o Ministério da Ciência e Tecnologia chinês realizou em abril um encontro para discutir a criação de uma “internet dos supercomputadores”. A ideia é facilitar o acesso de empresas e cientistas aos serviços das grandes máquinas.
Todo esse desenvolvimento deriva da revolução proporcionada pelas GPUs. É possível que vejamos em breve uma revolução ainda maior na área.
“As GPUs são uma das duas grandes tecnologias para trabalhar com IA”, explica Luciano, do Insper. Elas são constituídas por chips manicore, mais dedicados a tarefas específicas, em oposição aos chips multicore — mais genéricos e com um número menor de núcleos (conhecidos como CPUs, unidades de processamento central). “Os chips multicore que a gente vê normalmente são quadricore, octacore etc. Ou seja, quatro, oito núcleos. Em uma placa normal da Nvidia, os chips têm 4.000 núcleos, só que muito mais especializados”, diz Luciano.
Há também as TPUs, unidades de processamento tensorial, em alguns casos uma alternativa às GPUs. “Elas trabalham com tensores, uma expansão do conceito de vetor”, aponta Luciano. A TPU é um circuito integrado desenhado pelo Google para processar um alto volume de tarefas de baixa precisão. São chips altamente especializados para aprendizado de máquina, mas por enquanto só podem ser usados numa plataforma do Google (em sua versão light em algum hardware, em sua versão mais poderosa na nuvem da empresa).
A grande aposta para o futuro, porém, é na segunda tecnologia capaz de lidar com a IA: o QPU, unidade de processamento quântico. O Q, de quântico, é a sensação do reino da computação, com capacidade de processamento exponencialmente maior do que a GPU. Entretanto, é um ramo ainda controverso, complexo, propenso a erros. A expectativa de cientistas é que os computadores quânticos não estarão aptos a competir com os supercomputadores “clássicos” antes de pelo menos dez anos.
“O grande problema da computação quântica é que não se pode tê-la num notebook, por exemplo. Você depende de acessar a infraestrutura de um provedor”, afirma Luciano. “Como uma grande parte das máquinas trabalha com base em criogenia para atingir os estados quânticos necessários ao seu funcionamento, o computador precisa estar em temperaturas muito baixas, cerca de 275 ºC negativos.”
Os computadores quânticos se baseiam nas interações esquisitas que acontecem no nível atômico em determinadas condições. Enquanto os computadores tradicionais operam com bits, que podem ter dois estados (zero ou um, ligado ou desligado), os computadores quânticos operam com bits quânticos, ou qubits, que podem existir nos dois estados simultaneamente. Isso aumenta exponencialmente a capacidade de processamento — fora outras propriedades estranhas, como emaranhamento (você muda o estado de um bit e seu par muda imediatamente, não importa a distância entre eles).
Apesar dessas propriedades promissoras, os estados quânticos são muito delicados e mantê-los (produzindo o que se chama de coerência quântica) é uma dificuldade. Qualquer pequeno distúrbio no ambiente pode fazer com que os qubits percam seu estado, o que leva a erros na computação.
É esse tipo de dificuldade que grandes empresas estão tentando ultrapassar. Em junho, a Microsoft anunciou os planos de construção do seu próprio computador quântico. A companhia diz que já deu início à primeira fase no ano passado, quando seu programa Azure Quantum desenvolveu máquinas capazes de gerar as propriedades quânticas — de acordo com ela, o maior volume de quantum da indústria.
A segunda fase seria conseguir manter os qubit ativos pelo tempo necessário para cálculos. A terceira seria obter a escala necessária para a construção de supercomputadores capazes de resolver problemas intratáveis para os computadores atuais.
O Google também reportou avanços significativos no início de agosto: seu processador quântico Sycamore agora é capaz de gerar 70 qubits, um salto significativo em relação aos 53 qubits da versão anterior. Esses 17 qubits extras tornam o processador aproximadamente 241 milhões de vezes mais potente que o modelo prévio, disse a companhia.
Em paralelo a esses avanços há os estudos para melhorar o uso dos computadores quânticos que já existem agora. Exemplo disso é um estudo de pesquisadores da IBM Quantum, de Nova York, com colaboração da Universidade da Califórnia e do Laboratório Nacional de Berkeley, também de agosto.
Em vez de tentar fazer o computador quântico cometer menos erros, os cientistas adotaram a estratégia de compensar os erros. Uma das táticas usadas foi aumentar os distúrbios que provocam erros, de forma controlada, para que os erros ficassem ainda maiores. A partir daí, usaram extrapolações para estimar qual teria sido a resposta se não houvesse erro nenhum.