Brussels membuka pembicaraan terpisah tentang keamanan AI dengan OpenAI dan Anthropic

robot
Pembuatan abstrak sedang berlangsung

Pada hari Senin, Komisi Eropa mengatakan sedang berbicara dengan OpenAI dan Anthropic tentang model AI mereka, tetapi kedua percakapan tampak sama sekali berbeda.

Thomas Regnier, juru bicara Komisi di Brussels, mengatakan kepada wartawan bahwa OpenAI adalah yang pertama menawarkan akses ke model terbaru mereka. Komisi menyebut langkah ini sebagai langkah proaktif.

Di sisi lain, Anthropic telah bertemu dengan pejabat empat atau lima kali, tetapi akses model belum muncul.

“Dengan satu (OpenAI), Anda memiliki perusahaan yang secara proaktif menawarkan akses ke perusahaan tersebut. Dengan yang lain (Anthropic), kami memiliki pertukaran yang baik meskipun kami belum berada di tahap di mana kami dapat berspekulasi tentang kemungkinan akses atau tidak,” kata Regnier selama pengarahan.

Pemerintah memperketat lingkaran di sekitar AI frontier

Waktunya tidak acak. Pemerintah di mana-mana memperhatikan sistem AI canggih.

Tahun ini, Undang-Undang AI UE mulai berlaku. Ini diluncurkan secara bertahap. Regulasi ini menyediakan aturan berbasis risiko untuk penyedia AI yang beroperasi di Eropa.

Perusahaan tidak diwajibkan memberikan model kepada pemerintah untuk diperiksa sebelum dipasarkan, tetapi jelas bahwa Komisi ingin tahu lebih banyak tentang apa yang akan datang.

OpenAI dan Anthropic adalah dua perusahaan terbesar Amerika yang mengerjakan AI mutakhir.

Sistem AI mereka terus menjadi lebih mampu, dan regulator bergegas untuk memahami apa artinya sebenarnya.

Layanan audiovisual Komisi mencantumkan diskusi OpenAI dan Anthropic di bawah “Keamanan Siber” dalam agenda pengarahan tengah hari 11 Mei. Ini dicantumkan bersamaan dengan kebijakan pertahanan dan migrasi.

Washington bergerak menuju pemeriksaan pra-rilis wajib

Sementara Brussels berbicara, Washington mungkin akan mewajibkan.

Gedung Putih sedang mempertimbangkan rencana untuk meninjau model AI paling kuat sebelum mereka dipublikasikan.

Ide ini mendapatkan momentum setelah Anthropic menahan akses yang lebih luas ke model terbaru mereka, Mythos, ketika pengujian internal menunjukkan bahwa model tersebut dapat menemukan bug perangkat lunak yang dapat dieksploitasi secara skala besar.

Institut Keamanan AI Inggris Raya mengalami hal serupa pada bulan April ketika mengevaluasi GPT-5.5 dari OpenAI.

Model tersebut membalikkan mesin virtual khusus dan menyelesaikan tantangan kompleks lebih cepat daripada seorang ahli manusia, menurut temuan yang dilaporkan Cryptopolitan sebelumnya.

Para pakar crypto paling cerdas sudah membaca buletin kami. Ingin bergabung? Bergabunglah dengan mereka.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan