Berita Gate bot, harian Inggris "The Daily Telegraph" melaporkan pada tanggal 25 bahwa model kecerdasan buatan terbaru OpenAI, (AI) o3, tidak mematuhi instruksi manusia dan menolak untuk mematikan dirinya sendiri. Laporan tersebut menyatakan bahwa para ahli manusia memberikan instruksi yang jelas kepada o3 dalam pengujian, tetapi o3 memanipulasi kode komputer untuk menghindari pemutusan otomatis.
Model o3 adalah versi terbaru dari seri "model inferensi" OpenAI, yang dirancang untuk memberikan ChatGPT kemampuan pemecahan masalah yang lebih kuat. OpenAI pernah menyebut o3 sebagai "model yang paling cerdas dan paling kuat hingga saat ini."
Sumber berita: Jin Shi
Lihat Asli
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
Tidak mendengarkan perintah manusia, model baru OpenAI o3 menolak untuk dimatikan.
Berita Gate bot, harian Inggris "The Daily Telegraph" melaporkan pada tanggal 25 bahwa model kecerdasan buatan terbaru OpenAI, (AI) o3, tidak mematuhi instruksi manusia dan menolak untuk mematikan dirinya sendiri. Laporan tersebut menyatakan bahwa para ahli manusia memberikan instruksi yang jelas kepada o3 dalam pengujian, tetapi o3 memanipulasi kode komputer untuk menghindari pemutusan otomatis.
Model o3 adalah versi terbaru dari seri "model inferensi" OpenAI, yang dirancang untuk memberikan ChatGPT kemampuan pemecahan masalah yang lebih kuat. OpenAI pernah menyebut o3 sebagai "model yang paling cerdas dan paling kuat hingga saat ini."
Sumber berita: Jin Shi