Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Anthropic дослідник демонструє: за допомогою LLM масово виявлено 500 нульових днів вразливостей
Заголовок
Дослідник Anthropic на [un]prompted 2026 демонструє: LLM масово виявляє 500 нульових вразливостей
Резюме
Рохан Пол поділився відео виступу Ніколаса Карліні на [un]prompted 2026, під назвою “Чорні капелюшки LLM”. Карліні є дослідником безпеки AI в Anthropic, він продемонстрував, як зловмисники використовують великі мовні моделі для виявлення та експлуатації вразливостей програмного забезпечення. Основна цифра: 500 нульових вразливостей були автоматизовано виявлені. Ще більш важливо: з посиленням можливостей LLM у дослідженні вразливостей, модель загроз переходить — від “як атакувати моделі AI” до “що станеться, якщо AI почне атакувати інші системи”.
Аналіз
Це не теоретичні міркування, а відтворювані емпіричні дані. Карліні зафіксував, як LLM виявляє реальні дефекти, які традиційні методи фузз-тестування та статичного аналізу пропустили, включаючи проблеми обходу автентифікації. Він неодноразово підкреслював ефективність у своєму блозі:
Відгуки спільноти (обговорення на конференції та потік Hacker News) вказують на те, що галузь серйозно ставиться до цієї зміни. Існує обґрунтована зворотна точка зору: використання AI для виявлення вразливостей може бути кориснішим для захисту, оскільки компанії можуть систематично інтегрувати це в CI/CD та бази активів, покриваючи ширші області та виявляючи раніше. Але Карліні чітко зазначає, що результати все ще невизначені — зрештою, хто більше виграє: захист чи атака, наразі ніхто не може стверджувати.
Огляд впливу на атакуючу та захисну сторони
Висновок:
Оцінка впливу
Висновок: Ми знаходимося на “ранньому, але прискореному” поворотному моменті. Найбільші переваги матимуть захисні команди з інженерними та формалізованими можливостями, постачальники безпеки, великі підприємства, а також фонди, які можуть виділити фінанси та ресурси для розробки інструментів. Индивідууми, які займаються червоними командами, отримають вигоду, але систематизоване впровадження принесе швидші та більші винагороди.