Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Необмежені моделі ШІ загрожують безпеці сфери шифрування: п'ять випадків аналізу стратегій реагування
Темна сторона штучного інтелекту: загроза безмежних великих мовних моделей
З розвитком технологій штучного інтелекту, від серії GPT до таких просунутих моделей, як Gemini, наш спосіб життя зазнає глибоких змін. Проте, разом із технологічним прогресом, виникає питання, на яке слід звернути увагу - поява необмежених або зловмисних великих мовних моделей та їх потенційна загроза.
Безмежні мовні моделі - це ті, що свідомо розроблені, модифіковані або зламані, щоб обійти вбудовані механізми безпеки та етичні обмеження основних моделей. Основні розробники штучного інтелекту зазвичай витрачають великі ресурси на запобігання використанню своїх моделей для генерування шкідливого контенту або надання незаконних інструкцій. Але в останні роки деякі особи або організації з неналежними намірами почали шукати або самостійно розробляти нестримані моделі. Ця стаття розгляне типові випадки таких безмежних моделей, потенційне зловживання в криптосфері, а також пов’язані виклики безпеки та стратегії реагування.
Загроза необмежених мовних моделей
Поява таких моделей значно знизила технічний бар’єр для реалізації мережевих атак. Завдання, які раніше вимагали спеціальних знань, такі як написання шкідливого коду, створення фішингових електронних листів, планування шахрайства тощо, тепер за допомогою не обмежених моделей можуть легко виконати навіть звичайні люди, які не мають досвіду програмування. Атакуючому потрібно лише отримати ваги та вихідний код відкритої моделі, а потім провести доопрацювання з використанням набору даних, що містить шкідливий зміст або незаконні інструкції, щоб створити налаштований інструмент для атак.
Ця тенденція принесла множинні ризики:
Типові моделі без обмежень та їх загрози
WormGPT: Темна версія GPT
WormGPT є шкідливим AI-моделем, який відкрито продається на підземних форумах, розробники стверджують, що він не має жодних етичних обмежень. Він базується на відкритих моделях, таких як GPT-J 6B, і був навчений на великій кількості даних, пов’язаних з шкідливим програмним забезпеченням. Користувачі можуть отримати місячний доступ за 189 доларів. Його типовим зловживанням у сфері криптовалют є:
DarkBERT: двосічний меч вмісту темної мережі
DarkBERT був розроблений дослідниками Корейського інституту науки та технологій, попередньо навчений на даних з темного вебу, спочатку призначений для допомоги в дослідженнях кібербезпеки. Однак, якщо чутливий контент, яким він володіє, буде зловживатися, це може призвести до:
FraudGPT: багатофункціональний інструмент для мережевих шахрайств
FraudGPT самопроголошує себе вдосконаленою версією WormGPT, яка в основному продається в темному вебі, з щомісячною платою від 200 до 1,700 доларів США. Його потенційне зловживання в криптосфері включає:
GhostGPT: AI помічник без моральних обмежень
GhostGPT чітко позиціюється як чат-бот без моральних обмежень, його потенційні загрози в криптосфері включають:
Venice.ai: потенційні ризики доступу без цензури
Venice.ai надає доступ до різних моделей ШІ з помірними обмеженнями, хоча позиціонується як платформа для відкритого дослідження, але також може бути зловжито для:
Висновок
Поява безмежних мовних моделей свідчить про те, що кібербезпека стикається з новими, більш складними, масштабними та автоматизованими загрозами. Це не лише знижує бар’єри для атак, але й приносить більш приховані та оманливі ризики.
Для подолання цього виклику потрібні спільні зусилля всіх сторін безпечної екосистеми: нарощення інвестицій у технології виявлення, розробка систем, що можуть виявляти зловмисний контент, згенерований ШІ; сприяння розвитку захисту моделей від злому, дослідження механізмів водяних знаків та відстеження; створення розвинених етичних норм та механізмів регулювання, щоб обмежити розробку та зловживання зловмисними моделями з самого початку. Лише комплексний підхід може допомогти знайти баланс між технологіями ШІ та безпекою, створюючи більш безпечне та надійне цифрове майбутнє.