Аналіз: Anthropic та OpenAI послідовно повідомляють про вразливості безпеки, безпека моделей ШІ викликає занепокоєння

robot
Генерація анотацій у процесі

Odaily星球日报訊 ,Anthropic та OpenAI послідовно зіткнулися з інцидентами безпеки, що викликало занепокоєння на ринку щодо безпеки самих моделей ШІ. Наразі Anthropic проводить розслідування можливого несанкціонованого доступу користувачів до своєї моделі Claude Mythos. Майже одночасно, OpenAI також повідомили про випадки випадкового відкриття кількох ще не випущених моделей у своєму застосунку Codex.

Аналіз показує, що такі інциденти підкреслюють, що навіть провайдери моделей ШІ, орієнтованих на кібербезпеку, стикаються з значними викликами безпеки. У міру того, як ШІ поступово використовується для захисту від кібератак, питання безпеки платформи та контролю доступу також стають ключовими ризиками.

Галузеві експерти зазначають, що ці вразливості посилюють необхідність оцінки здатності компаній ШІ до управління безпекою, а також відображають те, що у процесі швидкого розвитку сучасних технологій безпекова система все ще потребує вдосконалення. (The Information)

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити