Анализ: Anthropic и OpenAI последовательно выявляют уязвимости безопасности, безопасность моделей ИИ вызывает обеспокоенность

robot
Генерация тезисов в процессе

Odaily星球日报讯 ,Anthropic 与 OpenAI 相继出现安全事件,引发市场对 AI 模型自身安全性的关注。目前 Anthropic 正在调查其 Claude Mythos 模型可能被用户未经授权访问的情况。几乎同时,OpenAI 也被曝在其 Codex 应用中,意外开放了多款尚未发布的模型。

Аналитика показывает, что такие инциденты подчеркивают, что даже поставщики AI-моделей, ориентированные на кибербезопасность, сталкиваются с серьезными вызовами в области безопасности. Пока AI постепенно используется для защиты от кибератак, вопросы безопасности платформы и контроля доступа также становятся ключевыми рисками.

Мнения экспертов указывают, что эти уязвимости усиливают необходимость оценки возможностей безопасности AI-компаний, а также отражают то, что в процессе быстрого развития технологий AI системы безопасности все еще требуют доработки. (The Information)

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить