Anthropic апеляцію програв, мітка "ризик ланцюга постачання" у Пентагоні залишилась без змін

robot
Генерація анотацій у процесі

Повідомлення Deep Tide TechFlow, 09 квітня, як повідомляє CoinTelegraph, Апеляційний суд Сполучених Штатів у окрузі Колумбія відхилив невідкладне клопотання компанії зі штучного інтелекту Anthropic, залишивши в силі висновок Міністерства оборони про її «ризики безпеки національних ланцюгів постачання». Троє суддів вважають, що під час військового конфлікту інтереси уряду в контролі над технологіями ШІ мають перевагу над можливими фінансовими й репутаційними втратами, яких може зазнати Anthropic. Цей ярлик раніше ніколи не застосовувався до компаній у США, що призведе до того, що підрядники Пентагону не зможуть використовувати моделі Claude від Anthropic.

Подія бере початок із контракту, який сторони уклали в липні 2025 року: переговори зірвалися в лютому 2026 року. Уряд вимагав, щоб Anthropic дозволила військове без обмежень використання Claude, тоді як та наполягала на запереченні використання цього для смертельної автономної зброї та для внутрішнього широкомасштабного нагляду. Після цього Трамп віддав наказ федеральним органам повністю припинити використання продуктів Anthropic; Anthropic у березні подала позов. Наразі справа й досі паралельно просувається двома судовими треками — у федеральному окружному суді в Каліфорнії та в окрузі Колумбія.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити