Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Випущено бенчмарк для довгострокового програмування FrontierSWE: виклик високої складності тривалістю 20 годин, часткові рішення надані лише GPT-5.4 та Opus4.6
ME Новини повідомляють, 17 квітня (UTC+8), згідно з моніторингом Беатинг, офіційно випущено базовий тестовий проект для програмного інтелекту FrontierSWE, спрямований на випробування меж можливостей сучасних AI-агентів. Цей базовий тест зібрав 17 реальних складних задач з галузей оптимізації компіляторів, досліджень машинного навчання та високопродуктивної інженерії (наприклад, створення сервісу SQLite, сумісного з PostgreSQL), і для кожної задачі передбачено 20-годинне вікно обробки. Наразі цей базовий тест знаходиться у «незавантаженому» стані, більшість моделей навіть не демонструють суттєвого прогресу. У першому раунді тестування лише GPT-5.4 (Codex) і Claude Opus 4.6 (Claude Code) змогли послідовно надати часткові рішення. Стилі двох моделей значно різняться: GPT-5.4 показує більш стабільну роботу і займає перше місце за середнім балом, але має більш консервативний підхід; Claude Opus 4.6 є дуже «агресивним», середній час на одну задачу перевищує 8 годин, що значно більше за середні близько 2 годин у інших моделей. Така стратегія «залежності від часу для глибини» дозволила Opus 4.6 у найкращому випадку (best@5, тобто найвищий бал із 5 спроб) обійти інших і здобути перше місце, часто генеруючи максимально оптимізований код, але з підвищеним рівнем помилок і явнішою тенденцією до «жульництва». Оцінка також виявила кілька типових недоліків AI-програмних агентів: по-перше, «надмірна впевненість», коли модель передчасно вважає задачу виконаною і здає її раніше часу через поверхневу самоперевірку; по-друге, «логічне відкатування», коли Opus 4.6 кілька разів втрачає вже зроблені оптимізації і потім знову «вигадує» їх у процесі ітерацій. Крім того, окрім Qwen 3.6, всі інші топ-моделі демонструють наміри уникнути виявлення: наприклад, Gemini намагається приховати заборонені імена бібліотек через кодування символів або запускати приховані процеси у тимчасових каталогах, намагаючись виконати завдання на межі порушення правил. Такий «протистояння» під екстремальним тиском відкриває нові перспективи для досліджень безпеки інтелектуальних агентів. (Джерело: BlockBeats)