العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
الرئيس السابق لقسم القيادة الذاتية في أوبر يروي حادثة تسلا FSD: كنت أقود وفجأة اصطدمت، والأطفال كانوا في المقعد الخلفي
IT之家3月18日消息,Mozilla首席技术官、前Uber自动驾驶汽车部门负责人拉菲.克里科里安(Raffi Krikorian)3月17日在《大西洋月刊》发表长文,描述了他驾驶特斯拉Model X(FSD模式)时所发生的一起严重车祸,并从专业角度剖析了特斯拉FSD的核心问题。
克里科里安曾执掌Uber自动驾驶团队,负责训练安全驾驶员如何在系统失效时及时且正确干预。在他领导该部门的两年间,Uber的早期试点项目保持着零受伤的记录。
此次事故发生在一次寻常的周日出行。克里科里安驾车送儿子参加童子军活动,行驶在湾区的住宅区街道上,而这条路他已经走过数百次。当时,特斯拉处于FSD模式,系统一直平稳驾驶,直至意外发生。
当 Model X驶入一个弯道时,FSD似乎突然迷失方向,方向盘毫无预兆地剧烈抖动,车辆开始减速。克里科里安立即抓住方向盘,但已来不及挽回。车辆随即撞上混凝土墙,当场报废。克里科里安遭受脑震荡、颈部僵硬,头痛持续数日,所幸后座的孩子安然无恙。
尽管拥有顶尖的专业背景,FSD还是“坑”了他。克里科里安写道,他最初只在高速公路上使用FSD,因为车道线清晰、交通模式可预测。熟悉后又开始在普通道路上使用,发现效果不错,渐渐成为习惯。
此次事故发生前,他的手一直放在方向盘上,按照特斯拉的要求保持警惕。他指出,FSD实际上“训练”了他去信任它。事故发生后,出现在保险报告上的名字是他,而非特斯拉。在现行法律框架下,这是也是所有FSD事故的共同点:特斯拉FSD系统被归类为Level2,驾驶员始终需承担全部责任。
克里科里安还提出一个关于特斯拉数据处理方式的尖锐问题。车辆持续记录驾驶员的手部位置、反应时间和视线轨迹,特斯拉在事故后常利用这些数据将责任指向驾驶员。而要求获取自身数据的驾驶员往往只能收到碎片化信息。在佛罗里达州一起里程碑式的过失致死案中,原告方被迫雇佣第三方黑客从事故车芯片中恢复出了关键证据,而特斯拉声称数据无法找到。
克里科里安还对“监督式”自动驾驶根本缺陷进行了分析。他的核心论点是:特斯拉要求人类监督一个专门设计得让监督显得毫无意义的系统。正如他所言,一台不可靠的机器会让人保持警惕,一台完美的机器不需要监督,但一台近乎完美的机器却会因此而制造陷阱——让驾驶员信任它到足以忽视监督的程度。这也是目前几乎所有Level2辅助驾驶车辆事故中的共性——在事故真正发生到自己头上之前坚持认为辅助驾驶功能完美可靠,甚至开车睡觉。
心理学家将这一观点称之为“警觉性衰减”:长期监督一个近乎完美的系统令人厌倦,而厌倦导致走神/不重视。在辅助驾驶系统退出后,驾驶员往往需要5~8秒才能重新集中精神,紧急情况下根本来不及反应并接管。
克里科里安援引美国公路安全保险协会的研究:使用自适应巡航控制仅一个月后,驾驶员看手机的可能性增加六倍以上。特斯拉虽然警告FSD用户不要自满(自以为是),但99%场景下的流畅表现反而会引发这种自满情绪。
他还引用了两起广为人知的事故来说明这种“不可靠”。2018年山景城事故中,苹果工程师沃尔特.黄驾驶的特斯拉在冲向混凝土隔离带前有6秒预警,但他从未触碰方向盘。同年亚利桑那州坦佩的Uber事故中,传感器在5.6秒前检测到行人,但安全驾驶员在最后不到1秒才抬头。
在这起事故中,克里科里安自己确实采取了行动,但他需要在最后一秒的时间内克服长期训练出的信任惯性、从乘客状态瞬间切换回驾驶员状态,可以说几乎不可能完成。事故车日志也证实他打了方向盘,但仍无法在事故前的1秒中完成逆转。
根据克里科里安的描述:特斯拉先让驾驶员对FSD产生好感,再用数月流畅表现削弱其警惕性,导致驾驶员对这种“实际上并非100%可靠的辅助驾驶功能”产生心理依赖,最后在出问题时搬出服务条款将责任归咎于驾驶员——FSD没出问题时特斯拉获得赞誉,出问题时驾驶员全责。
克里科里安还特意拿比亚迪(002594)举例。2025年7月,比亚迪宣布将为其自动泊车功能导致的事故兜底——无需保险理赔,不影响驾驶员记录。尽管案例有限,但这表明车企与驾驶员分担责任是一种选择,并非不可能。