As dificuldades da americana Tesla com seu sistema de assistência de direção Autopilot ilustram os obstáculos para um futuro de veículos sem motoristas
David A. Cohen
É crescente o temor de que as máquinas equipadas com inteligência artificial ocupem o espaço de todos os humanos no mercado de trabalho. Não é à toa. Os avanços nessa área têm sido muito mais rápidos do que a maioria de nós esperava — com uma grande exceção: os carros autônomos. Pense pelo lado positivo. Quem sabe se, quando todos os empregos forem tomados pelas máquinas, não nos sobre pelo menos a profissão de motorista?
O ritmo aquém do esperado no desenvolvimento de carros autônomos não ocorre por falta de recursos. Desde 2010, foram investidos mais de 10 bilhões de dólares no desenvolvimento de tecnologias para que os carros se movam sozinhos, segundo cálculos da consultoria McKinsey. Na segunda metade da década imperava o otimismo: a General Motors prometia a produção em massa de veículos autônomos para 2019; a empresa de caronas pagas Lyft projetou que grande parte dos carros viajaria sem motorista em 2021; a Ford profetizou que distribuiria carros completamente autônomos também a partir de 2021.
Não só as previsões não se concretizaram como as empresas envolvidas, digamos, tiraram o pé do acelerador. Algumas inclusive pisaram no freio. Em 2020, a Uber vendeu sua divisão dedicada a carros autônomos, depois de ter sido levada aos tribunais pela Alphabet por se apropriar de segredos industriais relativos à sua tecnologia. Mais recentemente, em novembro passado, a Ford e a Volkswagen interromperam seus investimentos na Argo AI, sua iniciativa conjunta para competir nesse mercado.
O único a manter suas promessas de entregar um carro autônomo em breve foi Elon Musk, da pioneira de veículos elétricos de luxo Tesla. Manter suas promessas, porém, não significa que ele as tenha cumprido; significa que ele continua prometendo. A cada ano, desde o final de 2015, Musk vem dizendo que seus carros poderão se guiar sozinhos “daqui a dois anos”. Em 2021, no entanto, mesmo ele trocou o prazo definido por um mais conveniente “o mais breve possível”.
“Musk é conhecido por prometer mais do que cumpre”, diz Carlos Caldeira, professor de estratégia e coordenador do Centro de Estudos em Negócios (CENeg) do Insper. “Mas também entrega produtos fantásticos, como os carros que passou a lançar desde 2017. Talvez essas promessas exageradas sejam um método”, diz. Seria uma forma de obter financiamento para conseguir levar a cabo seus planos ousados — e com isso embicar a indústria numa nova direção.
O otimismo e a ousadia da Tesla, no entanto, levam a outro tipo de problema: junto com os genuínos avanços da tecnologia vêm os logros. Em janeiro, um diretor de software da Tesla admitiu que um vídeo de 2016, em que a empresa demonstrava a eficiência de seu sistema Autopilot, foi forjado. O depoimento confirmou uma reportagem do New York Times, que em 2021 já revelara a fraude.
No vídeo, o automóvel obedecia a sinais de trânsito, evitava obstáculos, se movia, parava e estacionava. A pessoa no banco de motorista não fazia nada e estava ali “apenas por motivos legais”, de acordo com Musk. O que a companhia não disse foi que, em vez de guiar a si próprio sozinho, o carro utilizava informações adicionais, como um mapa prévio dos obstáculos que encontraria. Também deixou de fora do vídeo a parte em que o carro bateu numa barreira e teve de ser reparado, afirmou o New York Times.
Segundo o engenheiro que admitiu o logro, Ashok Elluswamy, o vídeo seria divulgado como uma demonstração do que o carro “poderia fazer um dia”. Mas foi anunciado como evidência de aonde a tecnologia já havia chegado.
“Um dos pontos de desconfiança em relação aos carros autônomos é que a indústria automotiva tem um histórico de escândalos”, avalia Caldeira. “Basta lembrar do caso das emissões da Volkswagen.” Acreditava-se que a empresa alemã havia dominado tecnologias que permitiam conter a quantidade de gases poluentes sem sacrificar a potência dos motores, mas se descobriu que ela apenas recorria a fraudes nos testes de emissões.
“Ou pense na Takata, a empresa de autopeças cujos airbags defeituosos foram responsáveis por uma série de mortes a partir de 2013.” Após o maior recall da história, de marcas como Honda, BMW, Volkswagen, Ford, Mazda, Nissan e Toyota; um acordo de 1 bilhão de dólares em uma ação movida nos Estados Unidos por pelo menos 16 mortes ligadas às falhas nos airbags; e a descoberta de que a empresa havia falsificado dados relativos a testes de segurança, a Takata pediu falência e acabou vendida.
Com um histórico desses na indústria, entendem-se as desconfianças em relação à Tesla. A confissão de fraude na demonstração do sistema de Autopilot, aliás, foi feita no contexto de um processo movido pela família de um motorista morto em 2018, quando seu Model X colidiu contra uma barreira apesar de estar com o sistema ligado.
Os problemas podem estar ligados a uma decisão intempestiva de Musk. No início do desenvolvimento do sistema de autonomia, a empresa apostava em câmeras, radares e sensores sonoros para detectar e evitar obstáculos. Mas Musk passou a defender que, assim como nós coletamos informações basicamente com os olhos para dirigir, também seu Autopilot deveria funcionar simplesmente com câmeras.
Houve uma certa reação dos engenheiros da Tesla, que vinham não só desenvolvendo o uso de radares como também explorando o sistema lidar, que mede distâncias pelo uso de raios laser. Mas a palavra de Musk prevaleceu por volta de 2014.
Dois anos depois, após um acidente fatal com um Tesla, a empresa voltou a investir em radares, chegando a iniciar a construção de seus próprios equipamentos, em vez de comprar de terceiros. Isso durou cerca de um ano e meio, quando o especialista contratado para desenvolver radares deixou a empresa, bem como boa parte de sua equipe.
Todas essas escolhas em relação à segurança dos carros autônomos estão sendo investigadas pela Administração Nacional de Segurança do Tráfego nas Estradas (NHTSA, na sigla em inglês), o departamento de trânsito dos Estados Unidos, na sequência de diversos acidentes envolvendo carros autônomos.
A Tesla também enfrenta ações judiciais de famílias de vítimas e de consumidores em geral por exagerar as aptidões do Autopilot e do sistema complementar Full Self Driving (o Autopilot é indicado para estradas, sendo capaz de manter o carro alinhado em sua pista, enquanto o FSD é supostamente apto a controlar o carro nas condições mais difíceis da cidade, podendo mudar de faixa, estacionar e, de modo geral, guiar o carro até um local apontado no mapa).
No final de fevereiro, também acionistas entraram com processo contra a Tesla, acusando a companhia de tê-los fraudado durante pelo menos quatro anos, com declarações hiperbólicas sobre sua tecnologia. Os riscos de que o valor das ações despenque, portanto, segundo os querelantes, são muito maiores do que se poderia calcular pelas informações que a Tesla divulgava.
Este argumento parece ser senso comum, pelo menos entre autoridades e especialistas. Em meados de março, o secretário dos Transportes dos Estados Unidos, Pete Buttigieg, afirmou que o nome do sistema, Autopilot, “não está de acordo com o senso comum”. Em entrevista à Bloomberg, Buttigieg disse: “Eu não chamaria algo de ‘autopilot’ se o manual diz explicitamente que você tem que manter as mãos no volante e os olhos na estrada o tempo todo”.
De fato, a primeira ideia de nome para o sistema da Tesla era “assistência avançada ao motorista”, mas convenhamos que Autopilot é bem mais chamativo. E Musk insistiu na mudança, de acordo com fontes consultadas pelo New York Times.
Não é apenas uma questão de nomenclatura. O modelo de negócios da Tesla inclui a noção de sistemas autônomos — ou tão autônomos quanto a lei permita. E comunicar isso aos potenciais clientes se traduz em… lucro. O FSD, uma atualização de software que estende para dentro das cidades a capacidade de o carro prescindir do motorista, é vendido para os donos de Teslas antigos por 15.000 dólares, pagos em parcelas mensais de 200 dólares. Quer dizer, não apenas os carros elétricos de luxo trazem uma receita compatível (ou exorbitante, segundo alguns), a promessa de poder não guiá-los permite criar uma receita recorrente dentro do modelo de assinatura — uma receita autônoma, que se dirige sozinha ao caixa da empresa.
Por outro lado, um dos eixos de investigações sobre os sistemas da Tesla — tanto do NHTSA quanto recentemente do Departamento de Justiça do país — é determinar se a propaganda faz com que os motoristas se tornem relapsos por excessiva confiança em uma tecnologia incensada para além de seu alcance.
Uma das principais justificativas para a adoção dos sistemas de direção autônomos em larga escala é que eles são (ou serão) mais seguros do que a direção humana. Já em 2016 Musk declarou à publicação de tecnologia Recode que a direção automática era basicamente “um problema resolvido” e que seus Teslas já eram capazes de dirigir de forma mais segura que os humanos.
A Tesla inclusive publica regularmente um “relatório de segurança”, mostrando que os acidentes com seus carros são menos frequentes quando o Autopilot está sendo usado. No entanto, pesquisadores afirmam que as estatísticas apresentadas são enganosas, por uma série de razões.
Em primeiro lugar, o Autopilot é preponderantemente usado nas estradas, que são duas vezes mais seguras que as ruas das cidades, segundo dados do Departamento de Transporte americano. Além disso, conforme um estudo do pesquisador Noah J. Goodall, da Universidade de Virgínia, “Normalizing Crash Risk of Partially Automated Vehicles under Sparse Data” (normalizando o risco de batidas de veículos parcialmente automatizados com dados esparsos), os índices de acidentes são reportados em geral pelos próprios fabricantes, com métricas próprias e limitadas fontes de informações.
Graças a esses obstáculos, ou talvez pela teimosia de Musk em se apoiar apenas nas câmeras, ou ainda por ele ter se distraído com outras prioridades (como as viagens espaciais de sua empresa Space X ou a novela que envolveu a compra do Twitter), o fato é que o sistema autônomo da Tesla tem avançado pouco, pelo menos desde o lançamento do FSD, há três anos.
“A Tesla dormiu no ponto”, diz Caldeira, do Insper. “Estava na crista da onda em 2017. Depois, por problemas industriais, de atraso nas entregas, quase quebrou; aí deslanchou. Mas não lança nada novo há tempos. Então os concorrentes chegaram.”
O primeiro fabricante a ultrapassar a Tesla de alguma forma foi a Honda. Em 2021, a empresa lançou um sistema nível 3 de autonomia. É um passo e tanto. A autonomia costuma ser medida em uma escala que vai de 0 a 5, sendo 0 nenhuma automação; o nível 1 um controle compartilhado com exigência de mãos ao volante; o nível 2 já sem a exigência das mãos ao volante, porém com supervisão do motorista o tempo todo; o nível 3 com a possibilidade de o motorista desviar o olhar do caminho; o nível com o motorista completamente distraído; e o nível 5 um carro que já nem tem mais volante.
Os carros da Tesla estão no nível 2: você pode deixar o sistema guiar sozinho, mas tem de estar o tempo todo alerta.
Para chegar ao nível 3, o sistema da Honda utiliza cinco sensores lidar, cinco unidades de radar, duas câmeras e um sistema de navegação por satélite global. Com tudo isso, seu uso é extremamente limitado, conforme reportagem da Automotive News de janeiro do ano passado.
O sistema só pode ser acionado quando o carro atinge 30 km/h. A partir daí, pode assumir a direção com qualquer velocidade entre 0 e 50 km/h. Durante um teste de uma hora e meia nas estradas de Tóquio, “as condições nunca eram adequadas para o sistema operar”, diz a reportagem. “Por um breve momento ele foi acionado, mas logo a velocidade ultrapassou os 50 km/h e o controle foi devolvido ao motorista.”
A tecnologia parece apropriada apenas para o anda-e-para do tráfego na cidade. Mas, se o caminho tiver curvas muito acentuadas, o sistema se exime do controle. E, embora seja anunciado como uma tecnologia para reduzir o estresse do motorista, a exigência de que ele assuma o controle em dez segundos caso haja necessidade cria um estresse que pode ser pior do que dirigir desde o início, de acordo com a Automotive News.
Um pouco mais prático é o sistema da Mercedes-Benz, que no início deste ano se tornou a primeira fabricante a obter permissão para lançar um carro nível 3 nos Estados Unidos, no estado de Nevada. Da mesma forma, porém, o ser humano ao volante tem de estar preparado para tomar o controle do veículo a qualquer momento.
De acordo com o site de notícias automobilísticas The Drive, o motorista pode virar a cabeça para conversar com o carona ou até jogar um game na tela do console do carro, mas deve manter a face sempre visível para as câmeras internas que o vigiam para garantir que ele esteja pronto para assumir o controle se necessário.
Assim como a Honda, o Drive Pilot da Mercedes só poderá ser usado em velocidades até 65 km/h (um pouco acima da competidora) e em situações de “alta densidade de tráfego”, ou seja, quando o trânsito estiver naquele anda-e-para.
Uma potencial ameaça para sistemas assim é que o momento de passagem do relaxamento para a atenção oferece perigo, de acordo com estudos. “Quando as pessoas estão desconectadas por um certo período, tendem a reagir exageradamente ao tomar o controle em uma situação de emergência”, afirma a revista The Verge.
A evolução seria ter um sistema capaz de se manter em controle durante mais tempo. É algo assim que promete a Honda, para o fim desta década, estendendo a autonomia do veículo para qualquer velocidade abaixo da máxima permitida por lei nas estradas. “Acreditamos que podemos ajudar a reduzir o número de acidentes com a tecnologia nível 3”, disse à agência de notícias Reuters o engenheiro Mahito Shikama, da Honda.
Várias empresas têm perseguido esta condição, entre elas Audi, BMW e Volvo. Não é de espantar. O mercado mundial de veículos autônomos tem um potencial extraordinário — de acordo com uma projeção da Intel, seu tamanho seria de algo como 7 trilhões de dólares.
O caminho, porém, é árduo. “A tecnologia pode fazer coisas impressionantes, mas dominar todas as situações com que um motorista humano lida é complicado”, escreveu Matt McFaland, na CNN Business. “Surpresas são, por definição, eventos raros, mas a variedade de situações fora do normal encontradas por milhões de motoristas mundo afora significa que encontrar um evento raro é bastante comum.”
Por isso faz tanto sentido um ditado do mundo do software, conhecido como a regra 90-90: “uma vez que 90% do trabalho esteja feito, só falta 90% do caminho”. O diabo mora nos detalhes.
Uma forma de driblar essas dificuldades é a estratégia usada por companhias como a Waymo (subsidiária da Alphabet), a Zoox (da Amazon) e a Cruise (da General Motors). Elas estão investindo em carros já completamente autônomos, níveis 4 e 5. E como conseguem? Fazem o que a Tesla fez em seu vídeo fake: os carros trafegam em rotas previamente estudadas, e apenas nelas.
Mesmo aí há problemas inesperados. Na segunda semana de abril, a revista Wired revelou que vídeos de câmeras instaladas em veículos de transporte público mostram diversos problemas de trânsito provocados pelos carros autônomos — como atrasos ou bloqueios de ônibus, trens e outros carros. Num dos incidentes, por exemplo, um Cruise permaneceu parado por 16 minutos depois que o sinal ficou verde, atrasando um bonde em São Francisco.
Essa estratégia também tem seus limites financeiros. Embora já haja uma receita de táxis robôs, ela é pequena demais para arcar com os bilhões de dólares de investimentos.
Por essas e outras, muitos especialistas apostam no caminho em que a Ford decidiu focar: avançar na tecnologia de assistência aos motoristas, sem necessariamente substituí-los.