前 Uber 自動運転責任者が体験したテスラ FSD 事故:運転していると突然衝突、子供が後部座席にいた

robot
概要作成中

IT之家3月18日消息、Mozillaのチーフテクノロジーオフィサーであり、前Uberの自動運転車部門責任者であるラフィ・クリコリアン(Raffi Krikorian)が3月17日に『大西洋月刊』に長文を寄稿し、彼がテスラModel X(FSDモード)を運転している際に起きた重大な自動車事故について記述し、専門的な観点からテスラFSDの核心的な問題を分析した。

クリコリアンはかつてUberの自動運転チームを率いており、システムが故障した際に安全運転者が適時かつ正確に介入できるよう訓練することを担当していた。彼がその部門を率いていた2年間、Uberの初期パイロットプロジェクトでは負傷者ゼロの記録を維持していた。

今回の事故は、平凡な日曜日の外出中に発生した。クリコリアンは車で息子をボーイスカウトの活動に送っており、湾区の住宅街の道路を走行していた。しかも、その道は彼がすでに数百回通ったことのある道だった。当時、テスラはFSDモードで走行しており、システムは安定した運転を続けていたが、突如として事故が起きた。

Model Xがカーブに差し掛かったとき、FSDは突然進行方向を見失ったように見え、ステアリングホイールが前触れもなく激しく振動し、車は減速し始めた。クリコリアンはすぐにステアリングを掴んだが、もはや挽回できる状況ではなかった。車はそのままコンクリートの壁に衝突し、その場で全損となった。クリコリアンは脳震盪と首のこわばりを負い、頭痛は数日間続いた。幸いだったのは、後部座席の子どもが無事だったことである。

一流の専門的経歴を持つ彼でも、FSDには「裏切られた」。クリコリアンは、最初は高速道路だけでFSDを使っていたと記している。車線の線が明確で交通パターンも予測可能だったからだ。慣れてからは一般道路でも使い始め、効果が良いと感じて次第に習慣になった。

事故が起きる前、彼は常に手をステアリングに置き、テスラの要求通り警戒を続けていた。彼は、FSDは実際には「彼にそれを信じさせるために訓練された」と指摘した。事故後、保険報告書に記載された名前はテスラではなく彼自身だった。現行の法的枠組みでは、これはすべてのFSD事故に共通する点である。テスラのFSDシステムはレベル2に分類されており、運転者が常に全責任を負う必要がある。

クリコリアンはさらに、テスラのデータ処理の方法に関する鋭い問題も提起した。車両は継続して運転者の手の位置、反応時間、視線の軌跡を記録し、事故後、しばしばこれらのデータを利用して責任を運転者側に転嫁している。しかし、自身のデータ取得を求める運転者は、しばしば断片的な情報しか受け取れない。フロリダ州の画期的な過失致死事件では、原告側は第三者のハッカーを雇い、事故車のチップから重要な証拠を復元した。一方、テスラはデータが見つからないと主張した。

クリコリアンはまた、「監視型」自動運転の根本的な欠陥についても分析した。彼の核心的な主張は、テスラが人間に「監視」を求めながら、その「監視」が無意味に見えるように設計されたシステムを用意している点だ。彼の言う通り、不信頼な機械は人を警戒させるが、完璧な機械は監視を必要としない。しかし、ほぼ完璧な機械は罠を作り出す——運転者が監視を無視できるほど信頼させるのだ。これが、現在ほぼすべてのレベル2の運転支援車両の事故に共通する点でもある。事故が実際に自分の身に降りかかるまで、運転支援機能は完璧に信頼できると考え続け、さらには運転中に居眠りさえする。

心理学者はこの現象を「警戒性の減衰」と呼ぶ。長期間、ほぼ完璧なシステムを監視し続けることは退屈だが、その退屈さは注意散漫や注意不足につながる。運転支援システムが終了した後、運転者はしばしば5〜8秒間精神を再集中させるのに時間がかかる。緊急時には間に合わず、引き継ぎもできない。

クリコリアンは米国道路交通安全保険協会の研究を引用している。適応型クルーズコントロールを使い始めてわずか1か月後、運転者がスマホを見る可能性は6倍以上に増加するという。テスラはFSDユーザーに対し、自信過剰にならないよう警告しているが、99%のシナリオでは、そのスムーズな挙動が逆に過信を引き起こす。

彼はまた、この「信頼できなさ」を示すために、よく知られた2つの事故例を挙げている。2018年のサンマテオ(山景城)事故では、アップルのエンジニアであるウォルター・黄(ウォルター・ウォン)が運転していたテスラが、コンクリートの分離帯に突入する6秒前に警告を受けていたが、彼は一度もステアリングに触れなかった。同年のアリゾナ州テンペのUber事故では、センサーが歩行者を5.6秒前に検知していたが、安全運転者は最後の1秒未満で顔を上げた。

この事故において、クリコリアン自身も行動を起こしたが、長年の訓練による「信じてしまう」慣性を最後の1秒で克服し、乗客の状態から一瞬で運転者の状態に切り替えるのはほぼ不可能だった。事故車のログも、彼がステアリングを切ったことを証明しているが、それでも事故前の1秒の間に逆転できなかった。

クリコリアンの説明によると、テスラはまず運転者にFSDへの好意を抱かせ、数か月にわたるスムーズな挙動で警戒心を弱め、その結果、「実際には100%信頼できない運転支援機能」に対して心理的依存を生じさせる。そして最後に、問題が起きたときにサービス規約を持ち出し、責任を運転者に押し付ける——FSDが問題を起こさないときはテスラが称賛され、問題が起きたときは運転者が全面的に責任を負う。

クリコリアンはまた、ビッドバイディ(002594)を例に挙げた。2025年7月、ビッドバイディは自動駐車機能による事故に対し、保険補償を行うと発表した——保険請求は不要で、運転記録にも影響しない。事例は少ないが、これは自動車メーカーと運転者が責任を分担する選択肢が存在し得ることを示している。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン