Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Mantan Kepala Pengemudi Otonom Uber secara langsung mengalami kecelakaan FSD Tesla: Saat mengemudi, tiba-tiba menabrak, anak ada di kursi belakang
IT之家,18 Maret, melaporkan bahwa Mozilla Chief Technology Officer, Raffi Krikorian (Raffi Krikorian), mantan pemimpin divisi kendaraan otonom otomatis Uber, pada 17 Maret menulis artikel panjang di The Atlantic, yang menggambarkan kecelakaan serius yang terjadi saat ia mengemudikan Tesla Model X (mode FSD) serta membedah masalah inti Tesla FSD dari sudut pandang profesional.
Krikorian pernah memimpin tim kendaraan otonom Uber, bertanggung jawab untuk melatih pengemudi keselamatan agar dapat melakukan intervensi yang tepat dan tepat waktu ketika sistem mengalami kegagalan. Selama dua tahun memimpin divisi tersebut, program pilot awal Uber mencatat rekor nol korban cedera.
Kali ini, kecelakaan terjadi pada perjalanan hari Minggu yang biasa saja. Krikorian mengemudikan mobil untuk mengantar anaknya mengikuti kegiatan pramuka, melintasi jalan-jalan di kawasan perumahan di Bay Area, tempat jalan itu telah ia lalui ratusan kali. Saat itu, Tesla berada dalam mode FSD, dan sistem terus mengemudi dengan stabil hingga kejadian tak terduga itu berlangsung.
Saat Model X masuk ke sebuah tikungan, FSD tampaknya tiba-tiba kehilangan arah; setir bergetar hebat tanpa peringatan sebelumnya, dan kendaraan mulai melambat. Krikorian langsung menggenggam setir, tetapi sudah terlambat untuk memulihkan situasinya. Kendaraan kemudian menabrak dinding beton, langsung total. Krikorian mengalami gegar otak, leher kaku, sakit kepala yang berlangsung selama beberapa hari; untungnya, anak-anak di kursi belakang tidak mengalami apa pun.
Meski memiliki latar belakang profesional kelas atas, FSD tetap “menjebaknya”. Krikorian menulis bahwa pada awalnya ia hanya menggunakan FSD di jalan tol, karena marka jalur jelas dan pola lalu lintas dapat diprediksi. Setelah mengenalinya, ia mulai menggunakannya di jalan biasa, dan mendapati hasilnya bagus; kemudian perlahan menjadi kebiasaan.
Sebelum kecelakaan ini terjadi, tangannya selalu berada di setir, mengikuti instruksi Tesla untuk tetap waspada. Ia menunjukkan bahwa FSD sebenarnya “melatih” dirinya untuk mempercayainya. Setelah kecelakaan terjadi, nama yang muncul dalam laporan asuransi adalah dirinya, bukan Tesla. Dalam kerangka hukum yang berlaku saat ini, ini juga menjadi kesamaan dari semua kecelakaan FSD: sistem Tesla FSD diklasifikasikan sebagai Level2, dan pengemudi harus selalu memikul tanggung jawab penuh.
Krikorian juga mengajukan pertanyaan tajam mengenai cara pengolahan data oleh Tesla. Kendaraan terus mencatat posisi tangan pengemudi, waktu respons, dan jejak garis pandang. Setelah kecelakaan, Tesla sering menggunakan data-data ini untuk mengalihkan tanggung jawab kepada pengemudi. Namun, pengemudi yang diminta untuk mendapatkan data mereka sendiri umumnya hanya menerima informasi yang terfragmentasi. Dalam kasus mercu suar kelalaian mematikan di Florida, pihak penggugat terpaksa mempekerjakan peretas pihak ketiga untuk memulihkan bukti kunci dari chip mobil kecelakaan, sementara Tesla mengklaim bahwa data tidak dapat ditemukan.
Krikorian juga menganalisis cacat mendasar dari “pengawasan” sistem mengemudi otomatis. Poin intinya adalah: Tesla meminta manusia untuk mengawasi sebuah sistem yang secara khusus dirancang sehingga terlihat bahwa pengawasan menjadi tidak berarti. Seperti yang ia katakan, mesin yang tidak dapat diandalkan akan membuat orang tetap waspada, mesin yang sempurna tidak memerlukan pengawasan, tetapi mesin yang hampir sempurna justru akan membuat jebakan—membuat pengemudi mempercayainya hingga tingkat yang cukup untuk mengabaikan pengawasan. Inilah kesamaan yang terjadi pada hampir semua kecelakaan kendaraan bantuan mengemudi Level2 saat ini—sebelum kecelakaan benar-benar menimpa diri sendiri, mereka tetap menganggap fitur bantuan mengemudi sempurna dan andal, bahkan sampai mengemudi sambil tidur.
Psikolog menyebut pandangan ini sebagai “penurunan kewaspadaan”: mengawasi sistem yang hampir sempurna dalam jangka panjang menjadi membosankan, dan kebosanan menyebabkan seseorang melamun/tidak memperhatikan. Setelah sistem mengemudi bantuan keluar, pengemudi sering kali memerlukan 5~8 detik untuk kembali memusatkan perhatian, dan dalam situasi darurat, tidak ada waktu untuk bereaksi dan mengambil alih kendali.
Krikorian mengutip penelitian dari American Road Safety Insurance Association: setelah menggunakan adaptive cruise control hanya satu bulan, kemungkinan pengemudi melihat ponsel meningkat lebih dari enam kali. Tesla, meski telah memperingatkan pengguna FSD agar tidak menjadi puas diri (merasa terlalu yakin), justru performa yang lancar di 99% skenario dapat memicu perasaan puas diri tersebut.
Ia juga mengutip dua kecelakaan yang terkenal untuk menunjukkan ketidakandalan ini. Pada kecelakaan Mountain View 2018, Tesla yang dikemudikan oleh insinyur Apple Walter. Huang memiliki peringatan 6 detik sebelum menabrak pembatas beton pemisah, tetapi ia tidak pernah menyentuh setir. Pada kecelakaan Uber di Tempe, Arizona pada tahun yang sama, sensor mendeteksi pejalan kaki 5,6 detik sebelumnya, tetapi pengemudi keselamatan baru menoleh ke atas pada waktu kurang dari 1 detik.
Dalam kecelakaan ini, Krikorian sendiri memang mengambil tindakan, tetapi ia perlu mengatasi “inertia kepercayaan” yang terbentuk dari pelatihan jangka panjang dalam waktu satu detik terakhir, beralih seketika dari status penumpang kembali menjadi pengemudi—dapat dikatakan hampir mustahil untuk menyelesaikannya. Log kendaraan kecelakaan juga membuktikan bahwa ia memutar setir, namun tetap tidak dapat melakukan pembalikan dalam 1 detik sebelum kecelakaan terjadi.
Menurut deskripsi Krikorian: Tesla terlebih dahulu membuat pengemudi merasa nyaman dengan FSD, lalu melemahkan kewaspadaan mereka selama berbulan-bulan melalui performa yang lancar, sehingga pengemudi mengembangkan ketergantungan psikologis pada “fungsi mengemudi bantuan yang nyatanya tidak 100% andal”; pada akhirnya saat terjadi masalah, Tesla menggunakan ketentuan layanan untuk mengalihkan tanggung jawab kepada pengemudi—ketika FSD tidak bermasalah Tesla mendapat pujian, ketika ada masalah pengemudi memikul tanggung jawab penuh.
Krikorian juga sengaja memberikan contoh dari BYD (002594). Pada Juli 2025, BYD mengumumkan bahwa mereka akan menanggung kasus atas kecelakaan yang disebabkan oleh fitur parkir otomatis mereka—tanpa pengajuan klaim asuransi, dan tidak memengaruhi catatan pengemudi. Meski kasusnya terbatas, ini menunjukkan bahwa pembagian tanggung jawab antara perusahaan mobil dan pengemudi adalah sebuah pilihan, dan hal itu tidak mustahil.