Altman опублікував п’ять принципів OpenAI, що натякає на можливе обмеження здатностей моделей у майбутньому для безпеки

robot
Генерація анотацій у процесі

Звіт з CoinWorld, генеральний директор OpenAI Сам Альтман підписався під п’ятьма операційними принципами компанії. Він у статті попереджає, що у майбутньому OpenAI може посилювати обмеження доступу користувачів до моделей з міркувань безпеки, називаючи це часами, коли «потрібно пожертвувати частиною повноважень для досягнення більшої стійкості». Альтман зазначає, що ключові рішення щодо ШІ мають прийматися через демократичні процеси, а не лише рішеннями лабораторій штучного інтелекту. Він захищає недавні масштабні закупівлі обчислювальних потужностей, створення дата-центрів по всьому світу та вертикальну інтеграцію, стверджуючи, що мета — знизити вартість ШІ до рівня, доступного кожному, і що урядам можливо доведеться досліджувати нові економічні моделі для забезпечення розподілу цінностей. Він також згадує конкретний сценарій ризику: надзвичайно потужні моделі можуть знизити поріг для створення нових патогенів, що вимагає відповідних заходів на рівні всього суспільства. Альтман згадує про свою колишню нерішучість щодо публічного розкриття ваг GPT-2, називаючи це зайвими побоюваннями, але зазначає, що це сприяло розвитку ітеративної стратегії розгортання OpenAI, яка застосовується й досі.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити