Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 40 моделей ИИ, без дополнительных затрат (0%)
GPT-5.5 «9,7 трлн параметров» переоценен: пересмотрен до примерно 1,5 трлн
Согласно мониторингу Beating, исследователи ИИ Лоренс Чан и Бенно Стурджен опубликовали обзор статьи главного ученого Pine AI Ли Боцзе под названием «Непроницаемые знания: оценка количества параметров черных ящиков больших языковых моделей на основе емкости фактов». Исходная статья оценивала GPT-5.5 примерно в 9,7 трлн, Claude Opus — около 4,0 трлн, и o1 — примерно в 3,5 трлн, используя 1400 вопросов на эрудицию для «взвешивания» закрытых моделей. Рецензенты считают, что хотя сам подход ценен, исходные цифры были значительно завышены из-за критериев оценки и качества вопросов. Основная проблема заключается в «пороговом балле». В исходной статье вопросы делились на семь уровней сложности, и когда модель отвечала слишком много неправильно на определенном уровне, балл теоретически мог стать отрицательным; однако код фактически возвращал минимальный балл для каждого уровня к 0. Это раздувало разрыв в производительности передовых моделей на сложных вопросах и дополнительно увеличивало предполагаемое количество параметров. В статье утверждалось, что это не было так сделано, однако в коде и опубликованных результатах использовалось именно такое решение. После исключения «порогового балла» наклон аппроксимации снизился с 6,79 до 3,56. Этот наклон можно понять как «на каждое увеличение балла на одну единицу, насколько увеличивается количество параметров»; меньший наклон означает, что одинаковое различие в баллах больше не соответствует столь преувеличенному различию в параметрах. Значение R² снизилось с 0,917 до 0,815, что указывает на то, что кривая «балл — количество параметров» стала менее стабильной, чем в оригинальной статье. Интервал предсказания на 90% расширился с 3,0 до 5,7 раз, что свидетельствует о большем диапазоне ошибок и о том, что одиночные показатели не следует воспринимать всерьез. Обзор также отметил, что 131 из 1400 вопросов содержали двусмысленности или неправильные ответы, что составляет 9,4%. Проблемы в основном сосредоточены в сложных вопросах, которые использовались для различения передовых закрытых моделей, таких как GPT-5.5 и Claude Opus 4.7. Согласно их пересмотренным критериям, GPT-5.5 был снижен с 9659B до 1458B, при 90% интервале предсказания от 256B до 8311B; Claude Opus 4.7 — с 4042B до 1132B; а GPT-5 — с 4088B до 1330B. Рецензенты также подчеркнули, что 1,5 трлн не следует считать истинным количеством параметров GPT-5.5. Более точный вывод — этот «метод взвешивания по эрудиции» очень чувствителен к деталям оценки и качеству вопросов, и такие цифры, как 9,7 трлн, нельзя напрямую использовать в качестве меры веса для закрытых моделей.