Колишній керівник Uber з автоматичного водіння особисто був свідком аварії Tesla FSD: їхав і раптом зіткнувся, дитина була на задньому сидінні

robot
Генерація анотацій у процесі

IT之家 3月18日消息,Mozilla головний технічний директор і колишній керівник підрозділу автоматизованих автомобілів Uber Раффі. Крікоріан (Raffi Krikorian) 17 березня опублікував в «The Atlantic» (Атлантичний місячник) великий матеріал, у якому описав серйозну аварію, що сталася під час його керування Tesla Model X (режим FSD), і з професійної точки зору розібрав ключові проблеми FSD від Tesla.

Крікоріан раніше керував командою автоматизованого керування Uber і відповідав за навчання безпечних водіїв тому, як своєчасно та правильно втручатися у разі відмови системи. Під час його дворічного керівництва цим підрозділом ранні пілотні проєкти Uber зберігали рекорд без жодних травм.

Ця аварія сталася під час цілком буденної недільної поїздки. Крікоріан вів автомобіль, щоб відвезти сина на заняття для скаутів; він їхав в житловому районі в затоці (Bay Area), і ця дорога була йому знайома — він проїжджав її вже сотні разів. У той момент Tesla перебувала в режимі FSD, і система весь час рівно вела автомобіль, доки не сталася несподіваність.

Коли Model X увійшла в поворот, FSD, здавалося, раптом втратила орієнтацію: кермо без попередження різко затремтіло, а автомобіль почав знижувати швидкість. Крікоріан миттєво взявся за кермо, але вже було запізно. Автомобіль одразу врізався в бетонну стіну та повністю вийшов з ладу. Крікоріан отримав струс мозку, ригідність шиї та головний біль, що тривав кілька днів; на щастя, дитина на задньому сидінні не постраждала.

Попри наявність топового професійного бекграунду, FSD «підвела» його. Крікоріан написав, що спочатку він користувався FSD лише на автомагістралі, бо там чіткі розмітки смуг і передбачувані схеми руху. Після того, як звик, він почав використовувати FSD і на звичайних дорогах, і виявилося, що ефект непоганий; з часом це стало звичкою.

Перед цією аварією його рука весь час була на кермі, і він діяв відповідно до вимог Tesla, зберігаючи пильність. Він зазначив, що FSD фактично «натренувала» його довіряти їй. Після аварії в страховому звіті було вказано його ім’я, а не Tesla. У межах чинної правової рамки це також спільна риса всіх аварій із FSD: системи FSD від Tesla класифікуються як Level2, і водій має завжди нести повну відповідальність.

Крікоріан також поставив гостре питання про спосіб обробки даних Tesla. Автомобіль безперервно записує положення рук водія, час реакції та траєкторії погляду; після аварії Tesla часто використовує ці дані, щоб перекласти відповідальність на водія. Натомість водії, які намагаються отримати власні дані, зазвичай можуть отримати лише фрагментовану інформацію. У знаковій справі про спричинення смерті через необережність у Флориді позивачеві довелося найняти сторонніх хакерів, щоб відновити ключові докази з чипа автомобіля після аварії, а Tesla заявляла, що дані неможливо знайти.

Крікоріан також проаналізував фундаментальну першопричину «наглядового» автоматизованого керування. Його ключовий аргумент такий: Tesla просить людину здійснювати нагляд за системою, яка спеціально розроблена так, щоб нагляд виглядав безглуздим. Як він зазначає, ненадійна машина змушує залишатися напоготові; ідеальна машина не потребує нагляду; але машина, яка майже бездоганна, створює пастку — змушує водія довіряти їй настільки, щоб він міг ігнорувати нагляд. Це також є спільною рисою майже всіх аварій за участю автомобілів із допоміжним керуванням рівня Level2: до того, як аварія реально трапиться з ним, вони продовжують вважати функції допоміжного керування ідеально надійними, а інколи навіть засинають за кермом.

Психологи називають цю тезу «зниженням настороженості» (attenuation of vigilance): довготривалий нагляд за майже бездоганною системою виснажує, а втома призводить до відволікання / невміння концентруватися. Після виходу системи допоміжного керування з роботи водіям зазвичай потрібно 5~8 секунд, щоб знову зібратися з думками; у критичній ситуації просто не вистачає часу, щоб відреагувати й перехопити керування.

Крікоріан наводить дослідження Американської асоціації страхування безпеки дорожнього руху: після того, як адаптивний круїз-контроль було використано лише один місяць, ймовірність того, що водії дивитимуться на телефон, зростає щонайменше в шість разів. Tesla, хоча й попереджає користувачів FSD не самозаспокоюватися (не вважати себе всезнаючими), у 99% ситуацій плавна робота якраз і провокує таке самозаспокоєння.

Він також наводить дві широко відомі аварії, щоб показати, наскільки ця «ненадійність» є реальною. У аварії в Маунтін-В’ю 2018 року інженер Apple Волтер. Хуан керував Tesla, і перед тим, як автомобіль уріжеться в бетонний розділювальний бар’єр, було попередження за 6 секунд, але він так і не торкнувся керма. Того ж року в аварії Uber у Темпе, штат Аризона, сенсори виявили пішохода за 5.6 секунди, однак безпечний водій підвів голову лише менш ніж за 1 секунду.

У цій аварії Крікоріан справді вжив заходів, але йому потрібно було подолати інерцію довіри, сформовану багаторічним навчанням, і за мить перейти зі стану пасажира назад у стан водія — можна сказати, що це майже неможливо. Журнал автомобіля також підтверджує, що він повернув кермо, але йому все одно не вдалося завершити таке переналаштування в межах 1 секунди до аварії.

Згідно з описом Крікоріана: Tesla спочатку дає водіям відчути прихильність до FSD, потім, використовуючи кілька місяців плавної роботи, послаблює їхню пильність, що призводить до психологічної залежності водія від цієї «фактично не на 100% надійної» функції допоміжного керування; а коли стає проблемно, компанія піднімає умови обслуговування, перекладаючи відповідальність на водія — коли з FSD усе гаразд, Tesla отримує похвалу, а коли стається збій, водій несе всю відповідальність.

Крікоріан також спеціально навів приклад BYD (002594). У липні 2025 року BYD оголосила, що братиме на себе «запасне покриття» для аварій, спричинених її функцією автоматизованого паркування — без необхідності страхових виплат і без впливу на запис водія. Хоч прикладів мало, але це показує: розподіл відповідальності між автовиробником і водієм є одним із варіантів, і він не є неможливим.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити