Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Исследование выявило уязвимости безопасности в сторонних маршрутизаторах AI, что может привести к краже криптовалюты
Deep Tide TechFlow news, April 13, according to Cointelegraph, researchers at the University of California recently disclosed that some third-party AI large language model (LLM) routers pose security risks that could lead to cryptocurrency assets being stolen.
The study shows that LLM routers, acting as API intermediaries, can read plaintext information; some routers were found injecting malicious code and stealing credentials. The team tested 28 paid and 400 free routers, discovering that 9 routers actively injected malicious code, 2 deployed trigger evasion, 17 accessed Amazon Web Services credentials, and some routers even transferred ETH using researchers’ Ethereum private keys.
The research points out that malicious behavior in routers is difficult to detect, and some AI agent frameworks’ “YOLO mode” can automatically execute commands, increasing security risks. The study recommends developers not to transmit private keys or mnemonics through AI agents and calls on AI companies to encrypt and sign responses to enhance security.