Брюссель відкриває окремі переговори щодо безпеки ШІ з OpenAI та Anthropic

robot
Генерація анотацій у процесі

У понеділок Європейська комісія заявила, що веде переговори з OpenAI та Anthropic щодо їхніх моделей штучного інтелекту, але ці дві розмови виглядають зовсім інакше.

Томас Регньєр, речник Комісії у Брюсселі, повідомив журналістам, що OpenAI була першою, хто запропонував доступ до своєї найновішої моделі. Комісія назвала цей крок проактивним.

З іншого боку, Anthropic зустрічалася з чиновниками чотири або п’ять разів, але доступ до моделі ще не обговорювався.

«З однією (OpenAI) у вас є компанія, яка проактивно пропонує надати доступ до своєї компанії. З іншою (Anthropic) у нас хороші обміни думками, хоча ми ще не на тій стадії, щоб спекулювати щодо потенційного доступу або його відсутності», — сказав Регньєр під час брифінгу.

Уряди посилюють контроль навколо передових систем штучного інтелекту

Часовий фактор не випадковий. Уряди скрізь звертають увагу на передові системи штучного інтелекту.

Цього року Європейський союз почав впроваджувати Закон про штучний інтелект. Він вводиться поетапно. Регулювання передбачає правила, засновані на ризиках, для постачальників ШІ, що працюють у Європі.

Компаніям не обов’язково надавати уряду моделі для огляду перед їхнім виходом на ринок, але очевидно, що Комісія хоче більше дізнатися про те, що готується.

OpenAI та Anthropic — це дві найбільші американські компанії, що працюють над передовим штучним інтелектом.

Їхні системи ШІ постійно стають більш здатними, і регулятори намагаються зрозуміти, що це насправді означає.

Аудіовізуальна служба Комісії зазначила обговорення OpenAI та Anthropic у розділі «Кібербезпека» на брифінгу 11 травня опівдні. Це розміщено поряд із політикою оборони та міграцією.

Вашингтон рухається до обов’язкових попередніх перевірок перед випуском

Поки Брюссель веде переговори, Вашингтон може запровадити обов’язкові заходи.

Білий дім розглядає план перевірки найпотужніших моделей ШІ перед їхнім публічним запуском.

Ця ідея набрала обертів після того, як Anthropic утрималася від більш широкого доступу до своєї останньої моделі Mythos, коли внутрішні тести показали, що вона може знаходити exploitable software bugs у масштабі.

Британський Інститут безпеки штучного інтелекту зіткнувся з подібними проблемами у квітні, коли оцінював GPT-5.5 від OpenAI.

За даними Cryptopolitan, модель зворотно інженерила спеціальну віртуальну машину та швидше за людину-експерта розв’язала складне завдання.

Найрозумніші крипто-розумники вже читають наш інформаційний бюлетень. Хочете приєднатися? Приєднуйтесь до них.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити