Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Запуск ф'ючерсів
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
New
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Звіт з CoinWorld, 25 лютого, Віталік Бутерін опублікував підтримку компанії AI Anthropic у дотриманні двох етичних меж: «не розробляти повністю автономну зброю» та «не здійснювати масштабне спостереження за США», висловлюючи захоплення їхньою рішучістю протистояти тиску уряду. Віталік вважає, що в ідеальному світі такі високоризикові застосунки обмежуються рівнем відкритого доступу до LLM (тобто рівнем, доступним для всіх у рівних умовах); навіть досягнення лише 10% прогресу може зменшити ризики автономної зброї та порушення приватності, сприяючи більш безпечному розвитку AI. Раніше повідомлялося, що Пентагон нещодавно погрожував припинити співпрацю з Anthropic, що може призвести до втрати контракту на 200 мільйонів доларів, оскільки Anthropic відмовляється надавати технології AI без людського втручання для військових цілей.