Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Приостановка разработки утечек Cybersecurity AI от Anthropic
Новости о слитом AI-модели Anthropic встряхнули индустрию кибербезопасности, отправив акции крупных компаний резко вниз. То, что изначально выглядело как потенциальный переворот, теперь поднимает неотложные вопросы: могут ли организации доверять ИИ своим самым чувствительным цифровым активам, или этот инцидент просто подчеркивает необходимость экспертной защиты?
Согласно Mint, утекший проект блога представил новый уровень AI-моделей под названием Capybara. В проекте утверждалось, что Capybara превосходит флагманскую модель Anthropic, Claude Opus 4.6, в “программировании, академическом мышлении и задачах, связанных с кибербезопасностью.” Также отмечалось, что обучение на Claude Mythos — модели, которую Anthropic описывает как свою самую продвинутую на сегодняшний день — завершено.
Почему это утекло?
Хотя Anthropic объяснил утечку “человеческой ошибкой,” это объяснение может немного успокоить организации относительно способности компании защищать чувствительные данные. Некоторые аналитики предполагают, что могли быть и другие мотивы.
“Утечка Capybara печальна, но я почти думаю, что она была намеренно оставлена в доступном хранилище данных, чтобы подчеркнуть некоторые из возникающих киберрисков, которые постоянно развивающиеся платформы AI представляют и будут представлять,” сказала Трейси Голдберг, директор по кибербезопасности в Javelin Strategy & Research. “Сказав это, модель все еще находится на стадии тестирования, и Anthropic явно заявляет, что осведомлен о багах и рисках, которые необходимо решить, именно поэтому Anthropic лишь мягко запустил Capybara.”
Надвигающаяся угроза AI
Anthropic также подчеркнул киберриски, связанные с этими моделями, акцентируя внимание на нарастающей гонке вооружений в сфере AI между защитниками и киберпреступниками. Компания предупредила, что Capybara может стать первой в серии моделей, способных идентифицировать и эксплуатировать уязвимости гораздо быстрее, чем команды безопасности могут реагировать. Другими словами, преступники могут использовать модель для создания нового поколения угроз кибербезопасности, управляемых AI.
Инвесторы отреагировали быстро, отправив акции CrowdStrike, Datadog и Zscaler вниз более чем на 10% в начале торгов.
“Падение акций технологий на фоне новостей о утечке Capybara действительно подчеркивает отсутствие понимания, которое инвесторы имеют относительно AI в целом,” сказала Голдберг. “Мы знаем, что эти модели будут продолжать адаптироваться и будут делать это с темпом, быстрее, чем меры безопасности в отрасли смогут реагировать. Вот почему управление в сфере AI так критично.”
0
0
Теги: AIAnthropicCrowdStrikeКибербезопасностьMint