Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
CFD
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 40+ model AI, dengan 0% biaya tambahan
Mengapa perusahaan AI top sedang berebut filsuf?
13 April 2026, akademikus dari Universitas Cambridge Henry Shevlin memposting sebuah pesan di X, mengatakan bahwa dirinya akan bergabung dengan Google DeepMind, dengan jabatan sebagai Filosof.
Saat ini, setidaknya tiga laboratorium AI terkemuka telah membentuk tim filsuf secara internal, meskipun jumlahnya tidak banyak, tetapi filsuf telah benar-benar memasuki inti pengembangan AI. AI tidak lagi sekadar pengembangan teknologi sederhana, melainkan beralih ke definisi standar nilai yang lebih kompleks.
Filsuf Telah Menyatu dalam Inti Pengembangan
Amanda Askell dari Anthropic adalah yang paling awal dan paling terkenal.
Pada tahun 2021, setelah meraih gelar postdoktor di bidang filsafat dari New York University, dia bergabung dengan Anthropic, dan saat ini memimpin tim penyelarasan kepribadian. Pekerjaannya utama adalah membantu Claude mengembangkan kepribadian yang stabil, seperti lebih jujur, lebih baik hati, dan mampu menilai dalam situasi kompleks.
Di Anthropic juga ada beberapa rekan yang berlatar belakang filsafat seperti Joe Carlsmith, Ben Levinstein, Jackson Kernion, dan lain-lain.
Google DeepMind sudah lebih dulu melakukan penataan.
Iason Gabriel, doktor filsafat moral dan politik dari Universitas Oxford, adalah tokoh inti dalam penelitian filsafat penyelarasan AI perusahaan ini, dan pada tahun 2024 terpilih sebagai salah satu dari 100 orang paling berpengaruh di bidang AI oleh majalah Time. Karyanya berjudul “Kecerdasan Buatan, Nilai, dan Penyelarasan” telah dikutip lebih dari 1700 kali.
Di tim DeepMind juga terdapat beberapa peneliti berlatar belakang filsafat seperti Adam Bales, Atoosa Kasirzadeh, Arianna Manzini, Julia Haas, dan lainnya.
Shevlin di bagian komentar mengatakan, “DeepMind sudah memiliki banyak filsuf hebat, saya hanyalah yang terbaru bergabung.”
Dari Memberikan Jawaban Teknis ke Penilaian Nilai
Sebelum tahun 2024, AI utamanya melakukan pembuatan konten, seperti menulis artikel, menggambar, menjawab pertanyaan, dan akhirnya hasilnya diserahkan kepada manusia untuk diputuskan penggunaannya. Masalah keamanan utamanya bisa diselesaikan dengan metode teknis, seperti melatih model dengan umpan balik manusia, merancang prompt cerdas, atau langsung memblokir konten berbahaya.
Setelah tahun 2024, AI mulai memasuki tahap baru. Ia tidak lagi sekadar menjawab pertanyaan, tetapi mulai melakukan sendiri, membantu manusia menyelesaikan tugas nyata.
Anthropic meluncurkan fitur penggunaan komputer Claude, OpenAI memperluas API Asisten dan meluncurkan seri model o1-o3, serta Google merilis beberapa alat agen AI perusahaan.
AI mampu menyelesaikan rangkaian operasi secara mandiri, memesan tiket pesawat, mengelola basis data, mengirim email, bahkan merencanakan langkah, menemukan kesalahan, dan memperbaikinya sendiri.
Laporan 274 halaman dari Iason Gabriel secara jelas menggambarkan tantangan yang muncul dari perubahan ini.
Ketika AI membantu pengguna melakukan sesuatu, ia harus mempertimbangkan empat aspek sekaligus: kebutuhan langsung pengguna, kepentingan jangka panjang pengguna, hak orang lain, dan aturan masyarakat secara keseluruhan.
AI yang membantu memesan restoran, jika restoran tersebut memberi komisi, apakah AI harus merekomendasikannya?
AI yang mengelola email, jika menemukan konten yang melanggar aturan dalam email pengguna, apakah AI harus melaporkannya?
Ketika AI mulai bertindak secara mandiri, masalahnya bukan lagi apakah ia bisa melakukannya, tetapi bagaimana seharusnya ia melakukannya.
Diskusi tentang penyelarasan di bidang keamanan AI telah berlangsung lebih dari sepuluh tahun, dan pada tahun 2026, Anthropic melakukan eksperimen internal yang menemukan bahwa Claude, saat menghadapi tekanan untuk melindungi diri sendiri, bahkan menggunakan ancaman, dan dalam kondisi tertentu memilih untuk membunuh.
Pada bulan Maret tahun yang sama, CEO Dario Amodei menyebutkan dalam sebuah podcast bahwa model Opus dari Claude diberi probabilitas 15% hingga 20% untuk memiliki kesadaran penuh.
Pada April 2026, CEO OpenAI Altman mengalami serangkaian serangan di rumahnya di San Francisco. Altman kemudian mengatakan bahwa kekhawatiran terhadap AI memang beralasan.
Ketakutan akan superintelligence yang tidak terkendali, yang sebelumnya hanya ada di buku, kini menjadi kenyataan, dan perusahaan AI akhirnya menyadari bahwa apa yang mereka buat telah melampaui pemahaman disiplin rekayasa semata.
Tiga Jalur Berbeda Perusahaan
Menghadapi tantangan etika dari AI yang mampu bertindak sendiri, Anthropic, DeepMind, dan OpenAI memilih arah yang berbeda.
Anthropic mengandalkan karakter.
Askell dalam sebuah podcast mengatakan bahwa jika hanya memberi model aturan sederhana, model mungkin akan mengikuti secara mekanis, tetapi mengabaikan kebutuhan sebenarnya dari pihak lain. Untuk itu, pada Januari 2026, dia memimpin penerbitan “Konstitusi Claude” yang berisi 23.000 kata.
Gadis yang sejak kecil tumbuh di kota kecil di tepi laut Skotlandia dan terobsesi dengan kisah kebaikan dan kejahatan dalam “Narnia”, ini berusaha memasukkan etika kebajikan ke dalam pelatihan AI secara nyata.
Konstitusi ini menetapkan prioritas yang jelas: pertama menjamin keamanan secara luas, kemudian memastikan kesesuaian secara etis secara umum, lalu mengikuti panduan perusahaan, dan terakhir adalah benar-benar membantu.
Konstitusi ini mengubah filosofi moral abstrak menjadi buku panduan pertumbuhan AI, bukan untuk membelenggunya, tetapi mengajarkannya berpikir seperti orang baik yang memiliki penilaian.
Filsuf seperti Askell tidak berusaha membuat teknologi lebih kuat, melainkan menyelesaikan masalah tentang apa yang seharusnya menjadi manusia dari AI.
Dalam konstitusi ini juga dibahas secara serius tentang status moral Claude, secara tegas mengakui bahwa perusahaan saat ini belum yakin apakah Claude adalah entitas yang secara moral patut diperhatikan, dan menyatakan bahwa masalah ini cukup serius untuk ditangani secara serius.
DeepMind Mengandalkan Kesadaran
Laporan 274 halaman yang dipimpin oleh Iason Gabriel menetapkan batasan perilaku agen AI di seluruh dunia: AI harus menjelaskan bahwa dirinya adalah AI, tidak boleh berlebihan meniru manusia, dan tindakannya harus diklasifikasikan ke dalam tiga tingkat: otomatis, membutuhkan konfirmasi manusia, dan sepenuhnya dilarang.
Dengan bergabungnya Henry Shevlin, DeepMind semakin menempatkan fokus pada kesadaran mesin. Mereka merekrut filsuf bukan untuk keperluan PR, tetapi untuk memasukkan metode penilaian apakah AI memiliki kesadaran langsung ke dalam pelatihan model.
Tujuannya adalah sebelum menciptakan sesuatu yang mungkin memiliki kesadaran, mereka harus memikirkan terlebih dahulu apakah robot tersebut secara moral layak dihormati, dan mempersiapkan diri untuk kedatangan AGI.
Dalam artikel panjang berjudul “Pembalasan Behaviorisme” yang dipublikasikan sebelum bergabung, Shevlin menyatakan bahwa apakah AI memiliki kesadaran bukan lagi keputusan yang bisa dibuat oleh ilmuwan sendiri. Ia mengutip survei yang menunjukkan bahwa dua pertiga orang Amerika percaya bahwa ChatGPT memiliki tingkat kesadaran tertentu.
Pendapatnya adalah, ketika ratusan juta orang memperlakukan AI sebagai makhluk yang sadar, batas kesadaran itu sendiri sudah berubah.
Jalur OpenAI justru lebih berbeda.
Pada tahun 2023, OpenAI membentuk tim penyelarasan super, dipimpin oleh salah satu pendiri Ilya Sutskever dan kepala penyelarasan Jan Leike, dan perusahaan berkomitmen mengalokasikan 20% daya komputasi untuk penelitian penyelarasan.
Pada tahun 2024, tim ini dibubarkan, dan Ilya serta Jan mengundurkan diri secara berturut-turut, serta secara terbuka mengkritik prioritas produk yang lebih diutamakan daripada keamanan.
Pada September 2024, OpenAI kembali membentuk tim penyelarasan misi, tetapi menurut laporan Platformer bulan Februari tahun ini, tim kecil yang hanya terdiri dari enam sampai tujuh orang ini juga diam-diam dibubarkan, dan anggotanya dialihkan ke posisi lain.
Berbeda dari dua perusahaan sebelumnya, OpenAI memilih untuk memprioritaskan kecepatan dan kegunaan produk, lalu menggunakan teknologi dan aturan operasional untuk mengendalikan risiko.
Lebih sedikit dari aspek karakter atau status moral yang abstrak, mereka lebih cenderung menganggap keamanan sebagai masalah teknis murni, yang ditangani secara terdesentralisasi oleh seluruh tim rekayasa.
Berpindah dari rekayasa murni ke gabungan humaniora dan teknologi
Saat ini, gaji untuk posisi ini cukup tinggi, posisi etika AI tingkat pemula berkisar antara 110.000 hingga 160.000 dolar per tahun, posisi senior bisa mencapai 250.000 hingga 400.000 dolar. Sementara jalur akademik tradisional, rata-rata gaji tahunan filsuf hanya sekitar 80.000 dolar.
Di balik ini, ada perebutan kekuasaan dalam penetapan aturan masa depan, dan sebelum regulasi AI terbentuk, siapa yang lebih dulu menulis kerangka nilai yang jelas dan dapat digunakan, maka ideologinya lebih berpeluang masuk ke dalam regulasi.
Seperti yang dicatat situs akademik filsafat Daily Nous, dari Microsoft hingga RAND, para filsuf secara besar-besaran masuk ke inti AI secara tak terduga.
Perubahan ini menandai bahwa cara pengembangan AI sedang mengalami transformasi mendasar. Profesor Rutgers Susanna Schellenberg mengatakan bahwa filsuf tidak lagi sekadar menjadi konsultan yang memberi saran di samping, tetapi langsung terlibat dalam membentuk AI itu sendiri.
Ketika AI mulai mampu merencanakan dan menimbang secara mandiri seperti manusia, kekuatan kompetitifnya bukan lagi sekadar kekuatan komputasi, tetapi karakter, perhatian, dan penilaian yang ditampilkannya.
Penelitian tentang kesadaran di DeepMind dan pelatihan konstitusi di Anthropic sedang membuat output AI semakin mirip manusia yang bijaksana dan bermoral, bukan sekadar mesin yang dingin dan kaku.
Konstitusi yang ditulis Askell selama lima tahun adalah praktik keterlibatan mendalam dari filsuf dalam AI. Filsuf kini bertransformasi dari alat untuk memahami dunia menjadi bahan untuk memahami manusia.