Elon Musk ‘matou’ o carro autônomo da Tesla e levou perigo às ruas

Decisões do bilionário tiveram impacto negativo sobre sistema de direção autônoma dos veículos

PUBLICIDADE

Por Faiz Siddiqui

THE WASHINGTON POST - Bem antes de se tornar o chefão do Twitter, Elon Musk tinha uma obsessão diferente: fazer os carros da Tesla serem conduzidos por conta própria, sem humanos ao volante. A tecnologia era cara e, há dois anos, quando a cadeia de suprimentos estava passando por maus bocados, Musk decidiu reduzir os gastos.

PUBLICIDADE

Ele focou em um alvo: os sensores de radar dos automóveis, que são projetados para detectar perigos a grandes distâncias e evitar que os veículos colidam com outros carros no trânsito. As carrocerias elegantes dos carros já estavam equipadas com oito câmeras projetadas para ver a estrada e detectar perigos em cada direção. Isso, segundo Musk, deveria ser suficiente.

Alguns engenheiros da Tesla ficaram horrorizados, disseram ex-funcionários ao The Washington Post. Eles entraram em contato com um ex-executivo de confiança para pedir conselhos sobre como fazer Musk mudar de ideia. Sem os sensores, os carros da Tesla estariam suscetíveis a erros básicos de percepção se as câmeras fossem encobertas por gotas de chuva ou até mesmo ofuscadas por luz solar intensa - problemas que poderiam levar a acidentes.

No entanto, Musk não foi convencido e ignorou seus engenheiros. Em maio de 2021, a Tesla anunciou que estava eliminando o radar nos novos veículos. Pouco tempo depois, a empresa começou a desativar o recurso nos carros que já estavam circulando pelas ruas. O resultado foi um aumento nos acidentes, nos quase acidentes e de outras falhas constrangedoras cometidas pelos veículos.

Recentemente, a Tesla fez o recall e suspendeu o lançamento da tecnologia para veículos elegíveis em meio a preocupações de que seus carros pudessem desobedecer ao limite de velocidade e não identificar placas de “pare”, de acordo com autoridades federais. As queixas dos clientes têm aumentado, incluindo uma ação judicial movida em um tribunal federal, alegando que Musk exagerou nas capacidades da tecnologia. E os reguladores e funcionários do governo estão examinando minuciosamente o sistema da Tesla.

Modelos autônomos da Tesla apresentaram problemas que podem ser impactantes na segurança das pessoas Foto: Mike Blake/REUTERS

Em entrevistas, ex-funcionários da companhia, que trabalharam no software de assistência de direção da montadora, atribuíram os problemas da empresa ao ritmo acelerado de desenvolvimento, medidas de corte de custos (como a decisão de Musk de eliminar o radar) e outros problemas exclusivos da montadora.

Eles disseram que o estilo de liderança imprevisível de Musk também contribuiu, forçando-os a trabalhar num ritmo alucinante para desenvolver a tecnologia e lançá-la precipitadamente para o público antes de ela estar pronta. Alguns afirmaram estar preocupados que, mesmo hoje, o software não seja seguro para ser usado em vias públicas. A maioria falou sob a condição de anonimato por medo de retaliação.

Publicidade

“O sistema estava avançando lentamente dentro da empresa”, mas “o público queria um produto em suas mãos”, disse John Bernal, ex-operador de teste da Tesla que trabalhou no departamento do Autopilot. Ele foi demitido em fevereiro de 2022 quando a empresa alegou uso impróprio da tecnologia após ele postar vídeos do recurso de direção totalmente autônoma em ação.

Enquanto isso, Musk arrastou dezenas de engenheiros da Tesla para trabalhar com código no Twitter. No início de março, depois de a Tesla não anunciar nenhum novo produto no dia do investidor, as ações da empresa caíram 6%. Então, Musk defendeu as ações da empresa como apostas de longo prazo - e a Tesla afirmou que os seus veículos no modo de direção totalmente autônoma colidiam a uma taxa pelo menos cinco vezes menor do que os veículos sendo conduzidos de forma convencional.

Tesla tem problema tecnológico

No entanto, a história da direção totalmente autônoma oferece um exemplo nítido de como o homem mais rica do mundo complicou uma de suas maiores apostas devido a tomada de decisões imprudentes, uma insistência teimosa em fazer as coisas de forma diferente e uma confiança inabalável num conceito ainda não comprovado.

Em abril de 2019, em uma apresentação apelidada de “Dia do Investidor de Autonomia”, Musk fez sua previsão mais ousada como CEO da Tesla. “Em meados do próximo ano, teremos mais de um milhão de carros da Tesla circulando com o hardware de direção totalmente autônoma”, disse. O software é atualizado automaticamente sem a necessidade de fios, e a direção totalmente autônoma seria tão confiável, disse ele, que o motorista “poderia dormir”.

PUBLICIDADE

Os investidores foram convencidos. No ano seguinte, o preço das ações da Tesla disparou, tornando-a a montadora com maior avaliação de mercado e ajudando Musk a se tornar a pessoa mais rica do mundo. O modo de direção totalmente autônoma veio depois do Autopilot, que foi lançado em 2014 e permitia que os carros circulassem em rodovias, mantendo o veículo nas faixas e mudando entre elas, além de ajustar a velocidade. A direção totalmente autônoma tinha como objetivo levar esses recursos para a cidade e as ruas com o trânsito do dia a dia, uma tarefa bem mais difícil.

Os carros dependem da combinação do hardware com o software para conseguir fazer isso. Oito câmeras capturam as imagens em tempo real da atividade em torno do veículo, permitindo que ele avalie perigos como pedestres ou ciclistas e faça manobras conforme o necessário.

Um Tesla Model 3 com o sistema de direção totalmente autônoma ativado  Foto: Mike Blake/Reuters

Para cumprir sua promessa, Musk montou uma equipe com os melhores engenheiros dispostos a trabalhar por longos expedientes mas faltou uma estratégia de desenvolvimento coerente. Enquanto concorrentes como a Waymo, da Alphabet (holding do Google), adotavam protocolos de testes rigorosos que limitavam onde o software de direção autônoma poderia funcionar, a Tesla acabou lançando precipitadamente a direção totalmente autônoma para 360 mil proprietários – que pagaram até US$ 15 mil para se candidatarem ao recurso.

Publicidade

A filosofia da Tesla é simples: a quanto mais dados (neste caso, a condução) a inteligência artificial (IA) que guia o carro for exposta, mais rápido ela vai aprender. Na prática, a Tesla escolheu permitir que o software aprendesse por conta própria, desenvolvendo sensibilidades semelhantes às de um cérebro por meio de uma tecnologia chamada de redes neurais. Embora isso tenha o potencial de acelerar o processo, no fundo é basicamente um método de tentativa e erro.

Rivais na Waymo e na Apple adotaram estratégias diferentes para a autonomia, definindo regras e lidando com quaisquer falhas se essas restrições fossem desrespeitadas. As empresas desenvolvendo a direção autônoma também costumam usar sistemas sofisticados de LiDAR e radar que ajudam o software a mapear o entorno de forma detalhada.

O método da Tesla revelou-se problemático. Dois anos atrás, um youtuber americano capturou imagens do software tendo dificuldades para circular na sinuosa Lombard Street, em São Francisco. Por isso, os engenheiros da Tesla construíram barreiras invisíveis no software – semelhantes às canaletas que impedem as bolas de boliche de invadir as pistas vizinhas – para ajudar os carros a permanecerem na estrada.

Isso fez Bernal refletir sobre o tema. Como era um motorista de testes da empresa que conduzia o veículo naquele trecho da rodovia, estava claro que aquela estava longe de ser a experiência habitual em vias públicas em outros lugares.

O radar costumava desempenhar um papel importante no design dos veículos e do software da Tesla, complementando as câmeras ao oferecer uma verificação da realidade do que estava ao redor, principalmente se a visão estivesse encoberta. A Tesla também usava sensores ultrassônicos, dispositivos de menor alcance que detectam obstáculos a poucos centímetros do carro (a empresa anunciou no ano passado que iria eliminá-los).

Eu só sabia que colocar aquele software nas ruas não seria seguro. Você não pode prever o que o carro vai fazer

Ex-engenheiro do Autopilot da Tesla

Mesmo com o radar, os carros da Tesla eram menos sofisticados do que os veículos equipados com LiDAR. “Uma das principais vantagens do LiDAR é que ele nunca deixará de ver um trem ou um caminhão, mesmo que não saiba o que é”, disse Brad Templeton, desenvolvedor e consultor de automóveis autônomos. “Ele sabe que há um objeto adiante e o veículo consegue parar sem ter mais informações do que isso.”

Já as câmeras precisam entender o que veem para serem eficientes, dependendo dos trabalhadores da Tesla que identificam as imagens registradas pelos veículos - isso inclui placas de “pare” e trens.

Publicidade

Musk defendeu a estratégia de remover o radar e depender apenas das câmeras como mais simples, mais barata e mais intuitiva. “O sistema rodoviário é projetado para câmeras (olhos) e redes neurais (cérebros)”, ele tuitou em fevereiro de 2022.

Algumas das pessoas que conversaram com o Post disseram que a estratégia trazia riscos. “Eu só sabia que colocar aquele software nas ruas não seria seguro”, disse um ex-engenheiro do Autopilot da Tesla. “Você não pode prever o que o carro vai fazer.”

Tesla tem aumento no número de acidentes

Depois de a Tesla anunciar que estava deixando de usar os sensores de radar em maio de 2021, os problemas ficaram evidentes. Esse período coincidiu com a expansão do programa de testes da direção totalmente autônoma de milhares para dezenas de milhares de motoristas. De repente, os carros estavam supostamente parando por perigos imaginários, interpretando de forma equivocada os sinais de trânsito e não detectando obstáculos como ambulâncias, segundo as denúncias apresentadas nas agências reguladoras.

Algumas das fontes atribuíram o súbito aumento de “frenagem fantasma” nos relatórios da Tesla – nos quais os carros desaceleram de altas velocidades bruscamente – à ausência do sensor de radar. O Post analisou dados da Administração Nacional de Segurança Rodoviária (NHTSA, na sigla em inglês) para comprovar que os incidentes tinham aumentado no ano passado, o que levou a uma investigação regulatória federal.

Os dados mostravam que os relatórios de “frenagem fantasma” aumentaram de apenas 34, nos 22 meses anteriores, para 107 queixas ao longo de três meses. Depois que o Post chamou a atenção para o problema, a NHTSA recebeu cerca de 250 queixas relacionadas com o tema em um intervalo de duas semanas. Segundo a agência, ela abriu uma investigação depois de receber 354 queixas relacionadas com o problema durante um período de nove meses.

O número de acidentes envolvendo carros da Tesla aumentou muito Foto: David Paul Morris / Bloomberg

Meses antes, a NHTSA tinha iniciado uma investigação sobre o Autopilot por conta de aproximadamente uma dúzia de relatos de Teslas colidindo com ambulâncias estacionadas. O exemplo mais recente veio à tona em março, quando a agência confirmou estar investigando um acidente fatal em fevereiro envolvendo um Tesla e um caminhão de bombeiros.

Musk, como o principal testador da tecnologia, também solicitava correções frequentes de bugs no software, exigindo que os engenheiros dessem um jeito e corrigissem o código. A resistência de Musk às sugestões levou a uma cultura de submissão, disseram ex-funcionários. A Tesla demitia os funcionários que rejeitavam sua estratégia.

Publicidade

A empresa também estava lançando de forma precipitada tantas atualizações de seu software que, no final de 2021, a NHTSA repreendeu publicamente a Tesla por divulgar correções sem um aviso formal de recall.

No ano passado, Musk decidiu comprar o Twitter, algo que se tornou uma distração. Depois de assumir o comando da rede social, ele levou dezenas de engenheiros – inclusive alguns daqueles envolvidos no Autopilot e no projeto de direção totalmente autônoma – para trabalhar na plataforma, atrasando ainda mais a Tesla. As atualizações de software, que antes eram divulgadas a cada duas semanas, passaram a ser espaçadas entre meses, conforme a Tesla analisava bugs e tentava alcançar metas mais ambiciosas.

Futuro do carro autônomo da Tesla é incerto

Os engenheiros da Tesla estão ficando exaustos, pedindo demissão e procurando por empregos em outros lugares. Andrej Karpathy, diretor de IA da Tesla, tirou um período sabático no ano passado antes de deixar a empresa e passar a trabalhar na OpenAI, startup por trás do ChatGPT.

Ashok Elluswamy, diretor do Autopilot da Tesla, começou a trabalhar no Twitter, segundo funcionários e documentos verificados pelo Post. Posteriormente, Elluswamy deixou a empresa para ir trabalhar na Waymo.

O Departamento de Justiça dos EUA solicitou documentos relacionados com o projeto de direção totalmente autônoma como parte de uma investigação em curso. Já a Comissão de Valores Mobiliários dos EUA está analisando o papel de Musk na promoção das alegações de direção autônoma da Tesla como parte de uma investigação maior, segundo a Bloomberg News.

O processo aberto em fevereiro alega que a Tesla fez declarações “falsas e enganosas”, argumentando que a montadora “exagerou significativamente” sobre a segurança e o desempenho do Autopilot e da direção totalmente autônoma.

Ele se soma às duas investigações da NHTSA sobre o Autopilot, uma delas analisa os incidentes envolvendo veículos com luzes piscantes. Essa investigação foi atualizada para uma fase mais avançada: uma análise de engenharia. A outra, a respeito dos relatórios de “frenagem fantasma”, está em curso.

Publicidade

Em uma apresentação para investidores em março, Musk apareceu ao lado de mais de uma dúzia de funcionários da Tesla no palco. Mas a empresa não anunciou nenhum grande avanço na direção totalmente autônoma, apesar de ter dedicado um trecho da apresentação à tecnologia. /TRADUÇÃO ROMINA CÁCIA

Comentários

Os comentários são exclusivos para assinantes do Estadão.