Анализ: Anthropic и OpenAI последовательно выявляют уязвимости безопасности, безопасность моделей ИИ вызывает обеспокоенность

robot
Генерация тезисов в процессе

Марсианские финансы сообщают, что согласно информации The Information, у Anthropic и OpenAI последовательно произошли инциденты безопасности, что вызвало обеспокоенность рынка по поводу безопасности самих моделей ИИ. В настоящее время Anthropic проводит расследование возможного несанкционированного доступа пользователей к своей модели Claude Mythos. Почти одновременно OpenAI также сообщили о случайном открытии нескольких еще не выпущенных моделей в своем приложении Codex. Мнения экспертов указывают, что эти уязвимости усиливают необходимость оценки возможностей безопасности ИИ-компаний, а также отражают то, что в процессе быстрого развития современных технологий ИИ системы безопасности все еще требуют доработки. Аналитики считают, что даже поставщики ИИ-моделей, ориентированных на кибербезопасность, сталкиваются с серьезными вызовами в области безопасности. По мере того, как ИИ все больше используется для защиты от кибератак, вопросы безопасности платформ и контроля доступа также становятся ключевыми рисками.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить