Realizar busca
test

Computação heterogênea: o que é e como ela aumenta o desempenho das máquinas

O uso de sistemas computacionais que combina diferentes tipos de processadores é uma tendência que permite ampliar a capacidade de processar dados

O uso de sistemas computacionais que combina diferentes tipos de processadores é uma tendência que permite ampliar a capacidade de processar dados

 

Tiago Cordeiro

 

Desenvolvida nas décadas de 40 e 50, a primeira geração de computadores utilizava válvulas eletrônicas. Os transistores entraram em cena na sequência, enquanto os circuitos integrados foram inaugurados em 1964, com o lançamento do IBM 360. Em 1971, teve início a quarta geração, com o lançamento do primeiro processador de uso comercial do mundo, o Intel 4004.

Esta era não foi superada até hoje, ainda que o desempenho tenha aumentado exponencialmente e o uso desses produtos tenha se popularizado, especialmente desde o lançamento do chip Intel 386, em 1988.

À medida que os transistores foram diminuindo de tamanho e se tornando mais numerosos, começaram a surgir limitações físicas aos processadores, como o superaquecimento. Foi para superar essa restrição técnica que surgiram os modelos com núcleos múltiplos, capazes de desenvolver diferentes tarefas simultaneamente e atuando em frequência menor. O primeiro modelo do gênero a chegar ao mercado foi o Pentium D, em 2005.

Mais recentemente, os processadores passaram ao próximo estágio de evolução. É a chamada computação heterogênea. “A ideia básica é utilizar a CPU [Unidade Central de Processamento] tradicional para realizar as tarefas básicas e a computação quântica para solucionar problemas mais complexos”, diz Luciano Silva, professor da disciplina Teoria da Computação e Linguagens Formais do novo curso de Ciência da Computação do Insper.

Como apontam Herman Lam e David Ojika, da Universidade da Flórida em Gainesville, nos Estados Unidos, “análises de dados complexos, que antes demoravam muito tempo e demandavam um grande esforço manual, agora são realizadas utilizando inteligência artificial e técnicas de deep learnig, com precisão sem precedentes”.

No entanto, como apontam os pesquisadores, a computação tradicional não dá conta do desafio. “A computação heterogênea oferece capacidades únicas para rodar as redes neurais convolucionais alimentadas por machine learning, que se mostram ideais para essas tarefas que se utilizam de dados de forma intensiva.” Redes neurais convolucionais são um tipo de rede neural no processamento e análise imagens digitais.

 

Evolução acelerada

Foi dentro das instalações da Universidade Harvard, em 2003, que o conceito de computação heterogênea surgiu e deu início a uma corrida. Até o fim da primeira década do século 21, duas gigantes da tecnologia, a Nvidia e a Apple, já tinham seus próprios sistemas de computação híbrida.

Os resultados são expressivos: ao combinar diferentes processadores, os pesquisadores da Universidade da Califórnia em San Diego Ashish Venkat e Dean M. Tullsen identificaram um desempenho 21% maior, com 23% de economia de energia — resultado do uso dos processadores mais tradicionais, que costumam demandar menos eletricidade, com modelos mais avançados, que proporcionam maior desempenho.

“A computação híbrida começou com a combinação entre CPU e GPU, as placas de vídeo. A Nvidia percebeu que poderia colocar as GPU para rodar softwares que não têm uso apenas para vídeo. Foi quando começou o uso da GPU com o objetivo de realizar atividades como mineração de bitcoin e pesquisas médicas”, diz Luciano Silva.

“Com o tempo, a possibilidade de combinar o melhor de diferentes tipos de processadores estimulou o mercado a desenvolver modelos mais diversificados, próprios para atividades específicas”. É o caso das TPU, ou unidades de processamento de tensor, desenhadas pelo Google e lançadas em 2016. São utilizadas com redes neurais e em projetos de aprendizado de máquina.

De fato, melhor desempenho, com menores custos, são um diferencial fundamental num cenário em que a capacidade de processar quantidades cada dia maiores de dados, coletados por dezenas de modalidades de aparelhos e acessados a partir de qualquer lugar, representa um diferencial para pesquisadores, corporações e instituições governamentais. Quando se concilia processadores comuns com TPUs, por exemplo, os benefícios são evidentes, especialmente na área de machine learning.

Há também um outro uso: a computação heterogênea utilizando máquinas quânticas.

 

Acesso democratizado

A computação quântica ainda apresenta algumas limitações de uso. Uma delas é a necessidade de operar próximo da temperatura de zero grau Kelvin, ou -273,15°C. A outra é o preço: nem sempre compensa adquirir esses equipamentos quando o uso é eventual. O professor do Insper lembra que a computação híbrida oferece uma solução razoável para o problema: a possibilidade de acessar máquinas quânticas a distância, pagando sob demanda, enquanto a CPU tradicional funciona como uma espécie de base de controle.

“Manter um parque tecnológico, com todas as opções avançadas que têm surgido, não é barato”, avalia. “Mas hoje já é possível, por exemplo, acessar pela nuvem, pagando aluguel, para utilizar um computador quântico, ou mesmo uma GPU ou uma TPU. É uma forma de democratizar o acesso e facilitar, inclusive, o trabalho colaborativo, realizado a partir de qualquer lugar do planeta, seja para localizar novos planetas, para desenvolver modelos de monitoramento do mercado financeiro ou para identificar novas mutações do coronavírus.” São trabalhos que demandam alta capacidade computacional.

Ou seja: as pessoas podem não perceber, mas suas vidas já são impactadas, diariamente, pela computação heterogênea.

 

Este website usa Cookies

Saiba como o Insper trata os seus dados pessoais em nosso Aviso de Privacidade, disponível no Portal da Privacidade.

Aviso de Privacidade

Definições Cookies

Uso de Cookies

Saiba como o Insper trata os seus dados pessoais em nosso Aviso de Privacidade, disponível no Portal da Privacidade.

Aviso de Privacidade