Компанія з безпеки штучного інтелекту Depthfirst виявила кілька важливих вразливостей у Інтернеті, заявивши, що їхня вартість становить лише десяту частину Mythos від Anthropic

robot
Генерація анотацій у процесі

BlockBeats Новини, 12 травня, стартап у галузі кібербезпеки AI Depthfirst оголосив, що їхня самостійно розроблена модель виявлення вразливостей AI виявила кілька високоризикових безпекових уразливостей, пропущених Anthropic Mythos, і заявив, що загальні витрати складають лише десяту частину від останнього. Генеральний директор Depthfirst Qasim Mithani зазначив, що компанія за допомогою оптимізації архітектури моделі для однієї задачі може реалізувати «завершення роботи за 1000 доларів, тоді як Mythos коштує 10 000 доларів».

Depthfirst одночасно запустила нову ініціативу під назвою «Open Defense Initiative», яка надасть усього 5 мільйонів доларів у вигляді кредиту, відкриваючи свої інструменти для виявлення вразливостей AI для підприємств та відкритих розробників для виявлення проблем безпеки коду.

У статті зазначається, що одна з ключових уразливостей, виявлених Depthfirst, існує у найпоширенішому у світі веб-сервері NGINX, ця уразливість існує з 2008 року і теоретично може вплинути на велику кількість інтернет-сайтів у світі. Відповідальний за підтримку NGINX, компанія F5 Networks, очікує випустити патч цього тижня.

Крім того, Depthfirst розкрила, що виявила високоризикову уразливість у системі Linux, яка може бути використана для віддаленого виконання шкідливого коду, і наразі вона ще не виправлена. Її модель також виявила кілька проблем безпеки у браузері Google Chrome та відкритому мультимедійному фреймворку FFmpeg, з яких уразливості, пов’язані з Chrome, вже були виправлені Google.

У повідомленні зазначається, що з посиленням здатності AI швидко виявляти уразливості, галузь кібербезпеки входить у етап «одночасної атаки та захисту з використанням AI». Раніше Anthropic повідомила, що їхня модель Claude була використана китайською хакерською організацією для кібератак, а цього тижня Google також попередила, що злочинні групи почали використовувати AI для розробки інструментів атаки «нульового дня».

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити