Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Неограниченные модели ИИ угрожают безопасности в области шифрования: анализ пяти случаев и стратегии реагирования
Темная сторона искусственного интеллекта: угроза неограниченных больших языковых моделей
С быстрым развитием технологий искусственного интеллекта, от серии GPT до таких продвинутых моделей, как Gemini, наши способы жизни претерпевают глубокие изменения. Однако наряду с технологическим прогрессом возникает проблема, которая требует внимания — появление неограниченных или злонамеренных крупных языковых моделей и их потенциальная угроза.
Безограниченные языковые модели относятся к тем, которые были специально разработаны, модифицированы или взломаны, чтобы обойти встроенные механизмы безопасности и этические ограничения основных моделей. Основные разработчики ИИ обычно вкладывают значительные ресурсы в предотвращение использования своих моделей для генерации вредного контента или предоставления незаконных инструкций. Однако в последние годы некоторые лица или организации по недобрым побуждениям начали искать или разрабатывать неограниченные модели. В данной статье будет рассмотрено несколько типичных примеров таких безограниченных моделей, потенциальные злоупотребления в области криптовалюты, а также связанные с ними проблемы безопасности и стратегии реагирования.
Угрозы неограниченных языковых моделей
Появление таких моделей значительно снизило технический порог для осуществления сетевых атак. Задачи, которые раньше требовали специализированных знаний, такие как написание вредоносного кода, создание фишинговых писем, планирование мошенничества и т.д., теперь с помощью неограниченных моделей могут легко выполнять даже обычные люди без опыта программирования. Злоумышленнику достаточно получить веса и исходный код открытой модели, а затем с помощью набора данных, содержащего вредоносное содержание или незаконные команды, провести дообучение, чтобы создать индивидуализированный инструмент атаки.
Эта тенденция несет в себе множество рисков:
Типичные неограниченные языковые модели и их угрозы
WormGPT: Темная версия GPT
WormGPT — это вредоносная модель ИИ, которая продается на подпольных форумах, разработчики утверждают, что у нее нет никаких этических ограничений. Она основана на открытых моделях, таких как GPT-J 6B, и обучена на большом объеме данных, связанных с вредоносным программным обеспечением. Пользователи могут получить месячную подписку всего за 189 долларов. Типичное злоупотребление в области криптовалют включает в себя:
DarkBERT: двусторонний меч контента темной сети
DarkBERT был разработан исследователями Корейского института науки и технологий и предобучен на данных темной сети, изначально предназначенный для содействия исследованиям в области кибербезопасности. Однако, если его чувствительное содержание будет злоупотреблено, это может привести к:
FraudGPT: многофункциональный инструмент для интернет-мошенничества
FraudGPT называется обновленной версией WormGPT и в основном продается в даркнете, ежемесячная плата составляет от 200 до 1,700 долларов. Его потенциальное злоупотребление в криптовалютной сфере включает в себя:
GhostGPT: AI-помощник без моральных ограничений
GhostGPT явно позиционируется как чат-бот без моральных ограничений, его потенциальные угрозы в области криптовалюты включают:
Venice.ai: Потенциальные риски доступа без цензуры
Venice.ai предоставляет доступ к различным AI-моделям с ограничениями, хотя позиционируется как платформа для открытого исследования, она также может быть неправильно использована для:
Заключение
Появление неограниченных языковых моделей знаменует собой более сложные, масштабируемые и автоматизированные новые угрозы для кибербезопасности. Это не только снижает порог для атак, но и приносит более скрытые и обманчивые риски.
Для решения этой проблемы требуется совместные усилия всех сторон безопасной экосистемы: увеличить инвестиции в технологии обнаружения, разработать системы, способные распознавать вредоносный контент, созданный ИИ; продвигать развитие защиты моделей от взлома, исследовать механизмы водяных знаков и отслеживания; установить надежные этические нормы и механизмы регулирования, чтобы ограничить разработку и злоупотребление вредоносными моделями на исходном уровне. Только комплексный подход позволит найти баланс между технологиями ИИ и безопасностью, создав более безопасное и надежное цифровое будущее.