Anterior responsável pelo Uber de condução autónoma testemunha acidente com Tesla FSD: Estava a conduzir e de repente colidiu, a criança estava no banco de trás

robot
Geração de resumo em curso

O IT之家, 18 de março, noticiou que a 17 de março, o CTO da Mozilla e antigo responsável pela divisão de veículos autónomos na Uber, Raffi Krikorian, publicou um artigo longo na “The Atlantic”, descrevendo um grave acidente ocorrido quando conduzia um Tesla Model X (modo FSD) e analisando, de uma perspetiva profissional, os problemas centrais do Tesla FSD.

Krikorian já liderou a equipa de condução autónoma da Uber, sendo responsável por treinar condutores de segurança para intervirem de forma atempada e correta quando o sistema falhasse. Durante os dois anos em que esteve à frente daquela divisão, os primeiros projetos piloto da Uber mantiveram um registo de zero feridos.

O acidente ocorreu num domingo de deslocação habitual. Krikorian conduzia o filho para uma atividade de escutismo, circulando nas ruas de uma zona residencial na Baía, uma estrada que já percorrera centenas de vezes. Na altura, o Tesla estava em modo FSD; o sistema conduzia de forma estável até o imprevisto acontecer.

Quando o Model X entrou numa curva, o FSD pareceu perder subitamente o rumo. O volante começou a tremer violentamente, sem qualquer aviso prévio, e o veículo começou a abrandar. Krikorian agarrou imediatamente o volante, mas já era tarde demais para evitar. De seguida, o veículo embateu numa parede de betão, ficando completamente inutilizado. Krikorian sofreu uma concussão e rigidez no pescoço; a dor de cabeça manteve-se durante vários dias. Por sorte, as crianças no banco traseiro saíram ilesas.

Apesar de ter uma formação profissional de topo, o FSD “armou-lhe uma armadilha”. Krikorian escreveu que, inicialmente, só utilizava o FSD nas autoestradas, porque as marcas da faixa eram bem definidas e os padrões de trânsito eram previsíveis. Depois, ao familiarizar-se, passou a usá-lo também em estradas comuns, verificando que o desempenho era bom, acabando por se tornar um hábito.

Antes do acidente, as suas mãos estiveram sempre sobre o volante, seguindo as exigências da Tesla para manter a atenção. Ele apontou que o FSD, na realidade, “o treinou a confiar nele”. Após o acidente, o nome que aparece no relatório de seguro era o dele, e não o da Tesla. No quadro legal atual, este é igualmente o ponto comum de todos os acidentes do FSD: o sistema FSD da Tesla é classificado como Level2, pelo que o condutor tem sempre de assumir toda a responsabilidade.

Krikorian levantou ainda uma questão pertinente e incisiva sobre a forma como a Tesla processa dados. O veículo regista continuamente a posição das mãos do condutor, o tempo de reação e as trajetórias do olhar. Depois do acidente, a Tesla costuma usar esses dados para transferir a responsabilidade para o condutor. No entanto, os condutores que exigem obter os seus próprios dados tendem a receber apenas informações fragmentadas. Num processo de homicídio culposo histórico na Florida, a parte autora foi obrigada a contratar um pirata informático externo para recuperar provas-chave dos chips do veículo acidentado, enquanto a Tesla alegou que não foi possível encontrar os dados.

Krikorian analisou igualmente falhas fundamentais da condução autónoma “supervisionada”. O argumento central dele é o seguinte: a Tesla exige que um ser humano supervisione um sistema especificamente concebido para tornar essa supervisão sem sentido. Como ele afirmou, uma máquina pouco fiável mantém as pessoas em alerta; uma máquina perfeita não precisa de supervisão; mas uma máquina quase perfeita, ao contrário, acaba por criar uma armadilha — fazendo com que o condutor confie nela até ao ponto de ignorar a supervisão. Esta é também a característica comum da maioria dos acidentes com veículos de apoio à condução Level2 atualmente — insistindo em considerar que as funções de condução assistida são perfeitamente fiáveis, mesmo antes de o acidente acontecer de facto consigo, chegando até a conduzir e a adormecer.

Os psicólogos chamam a este fenómeno de “diminuição da vigilância”: supervisionar durante muito tempo um sistema quase perfeito torna-se desgastante, e o cansaço leva a divagações/à falta de atenção. Quando o sistema de condução assistida é desligado, os condutores necessitam frequentemente de 5~8 segundos para voltarem a concentrar-se, e em situações de emergência, nem sequer há tempo para reagir e assumir o controlo.

Krikorian cita um estudo da American Automobile Association (AAA) sobre segurança rodoviária: após apenas um mês de utilização de controlo de cruzeiro adaptativo, a possibilidade de os condutores olharem para o telemóvel aumenta mais do que seis vezes. Embora a Tesla avise os utilizadores do FSD para não se acomodarem (acharem-se demasiado confiantes), em 99% dos cenários, o desempenho fluido acaba, na prática, por provocar esse sentimento de complacência.

Ele também cita dois acidentes amplamente conhecidos para demonstrar essa “falta de fiabilidade”. No acidente de Mountain View, em 2018, o Tesla conduzido pelo engenheiro da Apple Walter. Huang teve um aviso prévio de 6 segundos antes de se aproximar da barreira de isolamento de betão, mas ele nunca tocou no volante. No acidente da Uber em Tempe, no Arizona, no mesmo ano, os sensores detetaram um peão com 5,6 segundos de antecedência, mas o condutor de condução segura só olhou para cima nos últimos menos de 1 segundo.

Neste acidente, Krikorian de facto tomou medidas, mas teria de conseguir, no último segundo, ultrapassar a inércia de confiança adquirida ao longo de muito tempo e mudar instantaneamente do estado de passageiro de volta para o estado de condutor; pode-se dizer que é quase impossível concretizar. Os registos do veículo acidentado também confirmam que ele acionou o volante, mas ainda assim não conseguiu inverter a situação dentro do 1 segundo antes do acidente.

De acordo com a descrição de Krikorian: a Tesla primeiro faz com que o condutor crie empatia pelo FSD, depois enfraquece a vigilância ao longo de vários meses com um desempenho fluido, levando o condutor a desenvolver dependência psicológica de uma “função de condução assistida que, na realidade, não é 100% fiável”; por fim, quando surge um problema, transfere a responsabilidade para o condutor invocando os termos de serviço — quando o FSD não tem problemas, a Tesla recebe elogios; quando surgem problemas, o condutor é totalmente responsável.

Krikorian também escolheu fazer questão de dar o exemplo da BYD (002594). Em julho de 2025, a BYD anunciou que iria cobrir, em caso de necessidade, os acidentes causados pela sua função de estacionamento automático — sem requerer indemnização de seguro e sem afetar o registo do condutor. Embora os casos sejam limitados, isto mostra que a forma como as empresas automóveis e os condutores repartem a responsabilidade é uma opção e que não é impossível.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar