Аналіз: Anthropic та OpenAI послідовно повідомляють про вразливості безпеки, безпека моделей ШІ викликає занепокоєння

robot
Генерація анотацій у процесі

Марс Фінанс повідомляє, згідно з інформацією від The Information, що Anthropic та OpenAI послідовно зазнали інцидентів безпеки, що викликало занепокоєння щодо безпеки самих моделей штучного інтелекту. Наразі Anthropic проводить розслідування можливого несанкціонованого доступу користувачів до своєї моделі Claude Mythos. Майже одночасно OpenAI також повідомили про випадки випадкового відкриття кількох ще не випущених моделей у своєму застосунку Codex. Галузеві експерти зазначають, що ці вразливості посилюють увагу до здатності компаній у сфері штучного інтелекту забезпечувати безпеку та управління ризиками, а також відображають те, що у процесі швидкого розвитку технологій безпека все ще потребує вдосконалення. Аналіз показує, що навіть провайдери AI-моделей, орієнтованих на кібербезпеку, стикаються з значними викликами у сфері безпеки. У міру того, як AI поступово використовується для захисту від кібератак, питання безпеки платформ та контролю доступу також стають ключовими ризиками.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити