Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Google пропонує підхід до постійної оцінки інженерних методів для вирішення викликів оцінки виробничого середовища AI-агентів
Новини ME про повідомлення: 4 квітня (UTC+8). Нещодавно GoogleCloudTech опублікував допис, у якому зазначив, що покладатися в промисловому середовищі на ручні чат-інтерфейси та суб’єктивні відчуття (тобто «перевірку настрою») для оцінювання AI-агентів ненадійно і це може спричинити катастрофу. У статті висловлюється думка, що через ймовірнісну природу генеративного AI навіть незначні зміни в підказках або вагових параметрах моделі можуть призвести до суттєвого погіршення продуктивності. Щоб вирішити цю проблему, у матеріалі пропонується інженерний підхід із застосуванням безперервної оцінки (CE). Цей підхід розрізняє два режими інженерії AI: режим дослідження (лабораторний) і режим оборони (на виробництві). Режим дослідження зосереджується на пошуку потенціалу моделі за допомогою невеликої кількості прикладів і «перевірок настрою»; натомість режим оборони робить акцент на стабільності, забезпечуючи відповідність системи цілям рівня сервісу (SLO) через оцінювання на основі наборів даних, жорстке шлюзування та автоматизовані метрики. У статті також попереджають, що багато команд надовго лишаються в режимі дослідження. Далі в матеріалі наводиться приклад розподіленої мультиагентної системи (системи створення курсів), побудованої на основі Cloud Run і протоколу Agent2Agent, щоб показати практику режиму оборони для надійного та масштабованого промислового розгортання AI: шляхом дотримання принципу розділення відповідальностей і використання спеціалізованих агентів (наприклад, дослідник, суддя, конструктор контенту, координатор). (Джерело: InFoQ)