Todo mundo está aguardando ansiosamente pelo dia em que carros autônomos circularão pelas ruas de todas as cidades, no mundo inteiro (talvez nem todo mundo, mas você não pode negar que ia ser uma baita mão na roda, sem trocadilhos). 

A promessa é de mais segurança e conforto. As pessoas poderão utilizar o tempo que passam dentro do trânsito de forma mais útil — quem sabe lendo um livro ou vendo um filme.

Mas a grande questão por trás de todo esse novo mundo não é o desenvolvimento de tecnologias que ainda precisam ser descobertas ou melhoradas. Nada disso. O real desafio será lidar com hackers, muito antes de resolver questões como colisões ou navegação segura.

“Esses veículos terão de antecipar e se defender contra um espectro completo de atacantes mal-intencionados, que usam ataques cibernéticos tradicionais e uma nova geração de ataques baseados no chamado aprendizado da máquina adversária”, comenta Simson Garfinkel, cientista e pesquisador de segurança, em coluna publicada no MIT Technology Review.

O especialista lembra que ainda não há pesquisas falando sobre hackers hostis que tenham como principal alvo carros autônomos. No entanto, sabemos que esse tipo de ataque é possível. Quem se lembra em 2015, quando analistas de segurança invadiram um Jeep Cherokee?  que não é exatamente um carro autônomo, mas é um veículo conectado. Seu sistema foi invadido em um teste por um time formado por Charlie Miller, engenheiro de segurança do Twitter, e Chris Valasek, engenheiro da empresa de consultoria de segurança IOActive. Eles conseguiram, de forma remota, girar o volante, bloquear as travas de segurança e desativar os freios do carro.

Claro que as montadoras podem responder nesse sentido, solicitando um recall para todos os carros afetados, para que possam atualizar o firmware e deixar o ambiente seguro novamente  na teoria.

Mas Garfinkel lembra que, nos anos 1990, também não havia esse tipo de ataque contra plataformas de ecommerce. Quando, um tempo depois, esse tipo de nicho começou a se tornar interessante para hackers, Bill Gates tomou a dianteira e escreveu um memorando à Microsoft, solicitando que mais fosse feito pela segurança.

Apesar de todos os problemas que o sistema operacional apresenta (afinal, por ser amplamente utilizado no mundo, ele também acaba sendo largamente visado por cibercriminosos que sempre buscam brechas para atingir usuários), a empresa hoje possui uma divisão especializada em segurança, com profissionais de ponta e com gastos da ordem de US$ 1 bilhão. Mesmo assim, estamos falando de uma luta contra invasores que acontece todos os dias. 

Esse é o tipo de problema em que empresas terão de trabalhar arduamente se quiserem um sistema de fato seguro para carros autônomos. Especialmente porque muitos dos sistemas de visão computacional e prevenção de colisões atualmente em desenvolvimento “dependem de algoritmos de aprendizado de máquina complexos, que não são bem compreendidos nem mesmo pelas empresas que dependem deles”, afirma o cientista.

Garfinkel cita, ainda, dois exemplos para apoiar essa afirmação. O primeiro deles é um experimento realizado por pesquisadores da Carnegie Mellon University, que conseguiram demonstrar com sucesso como burlar um sistema de reconhecimento de face baseado em algoritmos de última geração. Ao usar óculos com um determinado padrão impresso nas lentes, o algoritmo simplesmente baixou a guarda e acabou identificando algo que não estava, de fato, ali.

O segundo caso foi proveniente de um trabalho em conjunto desenvolvido pela Universidade da Carolina do Norte, pela chinesa Zhejiang University e pela empresa de segurança Qihoo 360. Os pesquisadores conseguiram burlar o sistema de sensores do Tesla S, fazendo com que objetos não fossem identificados pelo sistema de navegação do carro  um ponto cego que poderia causar um acidente.

Elon Musk, CEO da empresa, adora falar sobre como a inteligência artificial pode ser perigosa para a humanidade, mas há um risco bem mais próximo dele que continua a amedrontar seus engenheiros — um dos ex-especialistas que faziam parte do programa Autopilot da Tesla chegou a renunciar ao cargo devido a “tomada de decisões imprudentes que potencialmente ameaça a vida dos clientes”, disse ele, na época, em entrevista ao Wall Street Journal.

Tudo isso para mostrar que, por mais seguro que pareça, ainda pode haver uma brecha que, nesse caso, pode resultar em fatalidades.

Por sim, Garfinkel questiona (e responde) por que alguém iria querer causar um acidente invadindo o sistema de algum carro autônomo? “Um dos motivos é que a implantação generalizada de veículos autônomos vai resultar em muitos desempregados, e alguns deles estarão irritados”, sugere o pesquisador. Ou, quem sabe, alguns adolescentes entediados que não medem as consequências dos seus atos e poderiam querer testar a segurança desses veículos.

Como aponta a porta-voz do Uber, Sarah Abboud, “à medida que a tecnologia autônoma evolui, o modelo de ameaça faz o mesmo, o que significa que alguns dos problemas de segurança de hoje provavelmente serão diferentes dos abordados em um ambiente verdadeiramente autônomo”. É isso. A tecnologia autônoma está muito perto de acontecer e, ao mesmo tempo, pode trazer ameaças que ainda nem foram exploradas.