Administrasi Trump akan meninjau model AI dari Google, Microsoft, xAI menjelang rilis publik

tutup

 video

Pasar baru mulai sedikit berbeda di tengah konflik Iran, kata Josh Schafer

Editor newsletter Barrons Roundtable, Josh Schafer, membahas pasar saham dan harga minyak di tengah konflik di Timur Tengah di Varney & Co.

Administrasi Trump pada hari Selasa mengumumkan bahwa mereka telah mencapai kesepakatan baru dengan Microsoft, Google DeepMind, dan xAI milik Elon Musk untuk memperluas kolaborasi dengan perusahaan Teknologi Besar dalam penelitian kecerdasan buatan (AI) dan keamanan.

Pusat Standar dan Inovasi AI (CAISI), yang merupakan bagian dari Institut Standar dan Teknologi Departemen Perdagangan, akan bekerja sama dengan perusahaan AI dalam evaluasi pra-penyebaran serta penelitian terarah tentang kemampuan AI frontier dan keamanan AI.

Kesepakatan baru ini membangun dasar dari kemitraan yang telah diumumkan sebelumnya antara CAISI dan perusahaan-perusahaan tersebut, mendukung berbagi informasi, mendorong peningkatan produk secara sukarela, dan memastikan pemahaman yang jelas di pemerintah tentang kemampuan AI dan keadaan kompetisi AI internasional.

“Pengukuran ilmiah yang independen dan ketat sangat penting untuk memahami AI frontier dan implikasi keamanannya secara nasional,” kata Direktur CAISI, Chris Fall. “Kerjasama industri yang diperluas ini membantu kami memperbesar pekerjaan kami demi kepentingan publik di saat yang krusial.”

BAGAIMANA PAPARAN AI MENGUBAH PEKERJAAN DI BIDANG KREATIF

Administrasi Trump mengumumkan kesepakatan AI melalui CAISI dengan beberapa perusahaan teknologi terkemuka. (Win McNamee/Getty Images)

Pengembang sering kali memberikan model kepada CAISI yang telah mengurangi atau menghilangkan perlindungan untuk mengevaluasi kemampuan dan risiko terkait keamanan nasional.

Evaluator dari berbagai lembaga pemerintah dapat berpartisipasi dalam evaluasi dan secara rutin memberikan umpan balik melalui Kelompok Tugas TRAINS, yang merupakan kelompok ahli antar lembaga yang fokus pada kekhawatiran keamanan nasional AI.

Kesepakatan CAISI mendukung pengujian di lingkungan rahasia dan dirancang dengan fleksibilitas untuk merespons kemajuan berkelanjutan dalam AI.

ZUCKERBERG MENGATAKAN PHK META TERKAIT PENGELUARAN AI, TIDAK MENUTUP KEMUNGKINAN PEMOTONGAN DI MASA DEPAN

Microsoft mengatakan kemitraan CAISI diperlukan untuk membangun kepercayaan dan keyakinan dalam sistem AI tingkat lanjut. (Cesc Maymo / Getty Images)

Kepala AI yang bertanggung jawab di Microsoft, Natasha Crampton, mengatakan dalam sebuah rilis bahwa kesepakatan ini akan “mempromosikan ilmu pengujian dan evaluasi AI, termasuk melalui kerja sama untuk menguji model frontier Microsoft, menilai perlindungan, dan membantu mengurangi risiko keamanan nasional serta risiko keselamatan masyarakat secara besar-besaran.”

Crampton mengatakan bahwa “pengujian yang terus-menerus dan ketat sangat penting untuk membangun kepercayaan dan keyakinan dalam sistem AI tingkat lanjut.”

ELON MUSK MENGATAKAN DIA ADALAH ‘BODOH’ KARNA MENDANAI OPENAI: LAPORAN

Unit DeepMind dari Google juga menandatangani kesepakatan baru dengan CAISI. (Marlena Sloss/Bloomberg via Getty Images)

“Pengujian yang dirancang dengan baik membantu kami memahami apakah sistem kami bekerja sesuai yang diharapkan dan memberikan manfaat yang dirancang. Pengujian juga membantu kami tetap di depan risiko, seperti serangan siber yang didorong AI dan penyalahgunaan kriminal lainnya terhadap sistem AI, yang dapat muncul setelah sistem AI tingkat lanjut diterapkan di dunia,” jelas Crampton.

Microsoft juga mengumumkan kesepakatan serupa dengan Institute Keamanan AI Inggris (AISI) untuk mengatur pengujian dan evaluasi AI.

DAPATKAN FOX BUSINESS DI PERGIAN DENGAN KLIK DI SINI

XAI0,62%
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan