Especialmente voltada para o combate a fraudes financeiras, nova máquina de grande porte e alto desempenho da americana IBM tenta desafiar as nuvens
David Cohen
Quando Thomas Watson, o primeiro presidente da IBM, previu em 1943 que só haveria mercado para “uns cinco” computadores mainframes no mundo inteiro, ele estava se referindo a máquinas que utilizavam válvulas (cinco anos antes da invenção dos transistores), eram capazes de resolver apenas contas simples e ocupavam uma sala inteira. Seu próprio filho, Thomas Watson Jr., levou a IBM aos píncaros da glória corporativa basicamente provando que a profecia estava errada (e fez isso seguindo a estratégia do pai). Ainda assim, é comum encarar os mainframes como máquinas do passado, que perderam a corrida tecnológica primeiro para os microcomputadores pessoais e, numa segunda rodada de avanços, para a computação em nuvem.
No início de abril, a IBM tratou de lembrar que os mainframes vão muito bem, obrigado. Anunciou a fabricação do z16, capaz, de acordo com a empresa, de processar 300 bilhões de transações financeiras por dia com uma latência de apenas 1 milissegundo (ms). Isso significa uma resposta 20 vezes mais rápida que a de um típico servidor de computação em nuvem, com latência média de 60 ms. Segundo Patrick Moorhead, fundador e analista chefe da Moor Insights & Strategy, em artigo no site da revista Forbes, é o suficiente para “virar o jogo” em favor dos mainframes.
A grande vantagem anunciada pela IBM é que o z16 será tão rápido que poderá detectar fraudes durante uma transação financeira — evitando sua finalização. Hoje, as operadoras de cartão de crédito, por exemplo, precisam fazer uma escolha difícil. Quando um cliente passa o cartão numa máquina para fazer uma compra, seu sistema precisa definir se essa operação é válida ou fraudulenta. Se aceitar o cartão, mas a transação for fraudulenta, a operadora terá de arcar com o prejuízo; se rejeitar o cartão, mas a transação for legítima, o cliente pode passar o cartão de uma concorrente (e ela perde a comissão).
Para ajudar nessa decisão, as empresas financeiras utilizam algoritmos que vão sendo aprimorados com o tempo: cruzam informações do local onde o cliente mora com o local da compra, analisam se aquela compra está dentro dos hábitos do cliente e por aí vai. Esses algoritmos vão sendo aprimorados pelos próprios computadores, no que se costuma chamar de inteligência artificial, mas que é mais apropriadamente definido como uma das grandes áreas da inteligência artificial, o aprendizado de máquinas (machine learning).
O problema é que o tempo de resposta dos computadores (latência) não é pequeno o suficiente para dar conta das milhões de transações que acontecem a cada dia. A solução é rodar as checagens em uma parte das operações. Isso, por enquanto. A se confirmar a capacidade anunciada do z16, pode ser possível checar todas as transações no momento em que elas estão ocorrendo — permitir que sejam concluídas as que passem nos testes e bloquear as suspeitas.
Essa evolução pode soar como apenas mais um passo na longa história dos ganhos de velocidade de processamento. “A introdução de unidades de processamento neural dentro do processador, como aconteceu com o processador Telum do z16, permite trazer recursos de aprendizado de máquina mais próximo dos núcleos de processamento geral de uma CPU e permite reduzir a latência de integração entre coisas gerais como as transações e suas verificações via redes neurais”, diz Luciano Silva, professor de Ciência da Computação e Engenharia de Computação do Insper.
Em termos econômicos, porém, o avanço é bastante significativo. De acordo com um relatório do governo americano de 2020, as fraudes a consumidores nos Estados Unidos foram da ordem de 3,3 bilhões de dólares. No Brasil, a Confederação Nacional de Dirigentes Lojistas e o Serviço de Proteção ao Crédito (SPC) estimaram as perdas em 2,7 bilhões de reais nos 12 meses até agosto de 2021, enquanto a empresa de tecnologia antifraude ClearSale calculou os prejuízos por fraudes em comércio eletrônico, vendas diretas, serviços financeiros e de telecomunicações em 5,8 bilhões de reais em 2020.
Prevenir essas perdas — ainda que elas não sejam zeradas — mais do que justificaria o investimento num mainframe desses. Que também não é barato, diga-se. O preço começa em 100.000 dólares, mas, com as customizações, pode atingir várias vezes esse valor.
O z16 é o primeiro computador a utilizar o processador Telum, que a IBM anunciou em meados do ano passado. É graças a ele que se alcançou essa eficiência anunciada.
A grande diferença do Telum, desenvolvido em conjunto com a coreana Samsung, que o fabrica, é que ele possui um coprocessador (também chamado de acelerador) específico para aprendizado de máquina dentro do próprio chip. Os oito núcleos do processador têm memória local, o cache, privada. E o acelerador pode acessar essa memória de forma independente. Isso lhe dá uma velocidade muito maior.
“Ninguém aplicou inteligência artificial do modo como nós o fizemos nesse sistema”, afirmou Ross Mauri, gerente geral do sistema Z da IBM, a um jornal de Poughkeepsie, localidade onde a empresa fabrica seus mainframes. Normalmente, o acelerador fica instalado na GPU, uma unidade de processamento gráfico, em outro lugar da placa-mãe. A distância que a corrente precisa percorrer provoca a latência.
“Quando o processador tem um coprocessador integrado, ele pode fazer as duas coisas ao mesmo tempo”, diz Luciano Silva. O processador realiza a função original (no caso de uma compra com cartão, a comunicação com o banco, a baixa do valor etc.), enquanto o coprocessador roda as rotinas de aprendizado de máquina que darão sinal verde (ou vermelho) para a transação.
Essa rotina não é eficaz apenas para checagem de fraudes. Ela pode ser usada para detectar fraudes fiscais ou roubos no comércio, gerenciar pagamentos em tempo real ou aumentar a segurança nas transações com criptomoedas. “Em qualquer sistema baseado em transações, com algum modelo de decisão no meio, ele pode ser útil para setores de negócios que dependam de agilidade em análises”, afirma Silva.
Ele cita alguns outros exemplos de uso, como checar os registros médicos de uma pessoa para averiguar se ela pode submeter a um tratamento; sistemas de previsão de tráfego, que sofrem com uma lenta alimentação de dados; ou o trading de alta frequência, em que o processador acompanha o comportamento de uma ação e ao mesmo tempo roda o algoritmo de aprendizado de máquina para definir o que fazer.
Além do acelerador integrado, o z16 virá também com uma ferramenta nova, o SQL Data Insights. A promessa aqui é usar as características do novo processador para descobrir relações camufladas entre diversas operações. Assim, por exemplo, se um banco identificou uma conta envolvida em lavagem de dinheiro, o Data Insights pode mostrar outras contas que fizeram transações similares às daquela e que, portanto, passam a ser suspeitas do mesmo delito.
E se não houver nenhum modelo de tomada de decisões para aplicar ao acelerador? Nesse caso, ele pode se unir ao processador e realizar outras tarefas.
A IBM também afirma que o z16 é o primeiro computador equipado com criptografia pós-quântica. A criptografia que usamos hoje é baseada na decomposição de um número em números primos (aqueles que só são divisíveis por si próprios e pelo número 1). É uma fórmula fantástica porque, para números grandes, é praticamente impossível descobrir quais primos lhe deram origem. Pelo menos não com o poder dos computadores atuais.
A promessa dos computadores quânticos muda o cenário. Em tese, eles seriam rápidos o suficiente para quebrar os códigos atuais. Ninguém sabe quando chegarão — se é que chegarão — esses computadores. Há quem diga que nos próximos cinco anos já será possível desvendar as chaves criptografadas, uma ameaça a todas as transações do planeta.
A solução mais avançada para substituir os códigos baseados em números primos é a criptografia em malhas, ou treliças (LBC, na sigla em inglês). É mais ou menos como espalhar um grande número de agulhas em vários montes de palha. Sem um bom mapa, não há poder computacional que desvende o problema. É isso que a IBM embutiu no z16.
Só que um sistema de criptografia, para funcionar a contento, precisa ser usado por todos. Porque, afinal de contas, a proteção é para dados que serão comunicados. Como diz o jornalista Rupert Goodwins, do site de notícias sobre tecnologia The Register, “nós não estamos usando criptografia pós-quântica por três motivos: não há padronização, não há padronização e não há padronização”.
O que a IBM parece ter feito de positivo foi colocar proteções extras para evitar que malfeitores roubem códigos que não conseguem decifrar agora, mas que guardam para um futuro em que terão mais poder computacional à mão. O resto soa mais como marketing.
Não há dúvida que a IBM está entusiasmada com seu lançamento. “O centro do universo vai permanecer aqui”, afirmou Mauri, o responsável pelo sistema Z, ao jornal de Poughkeepsie. Um exagero ufanista, é claro. Mas, dados os avanços do z16, é possível dizer que os mainframes voltaram ao topo?
Mais ou menos. A rigor, os mainframes jamais saíram do jogo. É verdade que, ali pelos anos 1990, não faltavam previsões de que eles desapareceriam. Era tão comum referir-se a eles como “dinossauros da tecnologia”, rumando para a extinção, que a própria IBM batizou sua linha de grandes computadores de T-Rex (o tiranossauro, na época considerado o maior dinossauro que habitou o planeta).
Desde a década de 1980 os mainframes vinham sendo substituídos por “sistemas distribuídos”, os computadores menores (e muito mais baratos) que dividiam tarefas e se comunicavam em rede. Mas àquela altura muitas grandes empresas tinham programas tão arraigados às máquinas grandes que não conseguiram fazer a transição. Grandes bancos, por exemplo, rodam sistemas privativos há décadas para gerir as contas de seus clientes. Reescrever os programas seria custoso demais, em tempo e em dinheiro.
Esse mercado cativo permitiu à IBM, líder inconteste dos mainframes, manter uma equipe técnica de primeira linha e investir na modernização das máquinas. Com a popularização da internet e a explosiva multiplicação de conteúdo digital, além das preocupações com segurança para informações mais sensíveis, a demanda por mainframes voltou a subir.
Uma estimativa usual é que haja 10.000 mainframes em uso no mundo. Mas há quem calcule o número em cerca de 40.000. De acordo com a própria IBM, dois terços das 100 maiores companhias dos Estados Unidos, 45 dos 50 maiores bancos do mundo, oito das dez principais seguradoras, sete dos dez maiores varejistas do planeta e oito das dez maiores empresas de telecomunicações usam mainframes (a maioria da IBM). Segundo a consultoria de tecnologia Gartner, entre 85% e 90% de todas as transações de cartão de crédito no mundo passam por um mainframe em algum momento.
É até difícil vislumbrar a fronteira de negócios dos mainframes. Em si, eles representam um pedaço da divisão de infraestrutura da IBM, responsável por cerca de 25% da receita. Mas cada mainframe vendido leva a outras receitas com software e manutenção.
Da mesma forma, não é muito preciso falar na disputa entre mainframes e nuvem. O mundo caminha para soluções mistas. “Basicamente há três possibilidades”, diz Silva, do Insper. “Você pode comprar o mainframe e levar para a sua empresa, construir uma nuvem privada. Terá custos de manutenção, de pessoal dedicado, do espaço. Outra alternativa é alugar alguma instância dessa máquina numa nuvem, sublocar o mainframe. Finalmente, você pode partir para um sistema híbrido: parte dos seus programas está na nuvem, parte em mainframes, na sua própria empresa ou em outro local.”
Como disse Ric Lewis, vice-presidente sênior da divisão de sistemas da IBM: “Houve um tempo em que as pessoas falavam que tudo iria para a nuvem. Acho que agora estamos vendo as pessoas acreditarem que a informação está em todo lugar. Não vai ficar tudo na nuvem. E a evolução do cenário dos computadores está mais na infraestrutura especializada.”
Com uma boa dose de certeza, é possível decretar, portanto, que o mainframe tem ainda um longo tempo de vida pela frente e a previsão de Thomas Watson seguirá sendo um dos maiores equívocos da história da tecnologia.
Porém, se em vez de máquinas ele tivesse dito que no futuro haveria não mais do que cinco fabricantes de mainframe… aí ele estaria provavelmente correto. Em fevereiro, dois meses antes do lançamento do z16, a japonesa Fujitsu, uma das maiores rivais da IBM na produção de mainframes, anunciou que vai parar de vender essas máquinas em abril de 2031 — e deixar de dar suporte aos compradores cinco anos depois.
Para a IBM, ao contrário, a previsão é de aumento nas vendas. No ano passado, a venda de mainframes declinou 6%, mas é provável que, além de possíveis efeitos da pandemia, isso tenha ocorrido justamente porque as empresas estavam esperando o anúncio da nova máquina (o z16 está saindo três anos depois do z15).
Todo o otimismo, no entanto, precisa ser mantido na condicional. “É preciso olhar com cuidado, o z16 ainda necessita de testes efetivos em campo”, adverte o professor Silva. Não custa lembrar que há dez anos, em 2012, a revista inglesa The Economist relatava o lançamento do modelo de mainframe z12, que vinha com o que a IBM chamava de “análise embutida” — uma arquitetura capaz de absorver quantidades extraordinárias de informação para detectar, já adivinhou?, isso mesmo: atividades fraudulentas durante as transações.