Дослідження, яке подав Anthropic у суді проти уряду, демонструє досить цікаву ситуацію. Компанія стверджує, що її внесли до чорного списку Міністерством оборони і втратили федеральні контракти. А чому? Офіційна причина — «ризик ланцюга постачання», але Anthropic заперечує, що це справжня причина.



Захист компанії полягає в тому, що їх карають за відмову вводити етичні обмеження у свої технології. Тобто через незастосування обмежень безпеки вони втрачають кредит довіри і потрапляють до чорного списку. Anthropic вважає це правом, захищеним Першою поправкою — тобто вони мають право самі вирішувати, як розвивати свої технології.

Цікавою особливістю цієї справи є те, що одна технологічна компанія стверджує, що введення етичних обмежень не повинно призводити до втрати федеральних контрактів. Іншими словами, їх карають через власні стандарти безпеки.

Ця ситуація може стати важливим прецедентом для індустрії штучного інтелекту. Якщо Anthropic виграє, інші AI-компанії зможуть легше уникнути потрапляння до чорного списку у подібних випадках. Якщо ж програє, з’явиться нова точка відліку щодо того, наскільки уряд може контролювати технологічні компанії.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити