Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 30 моделей ИИ, без дополнительных затрат (0%)
Claude的中文税:问同样内容比英文多花65%token,OpenAI只多15%
По данным мониторинга Beating, исследователь ИИ Аран Комацузаки перевёл известную статью Рича Саттона «Горький урок» на 9 языков, загрузил её в токенизаторы моделей OpenAI, Gemini, Qwen, DeepSeek, Kimi, Claude, чтобы сравнить количество использованных токенов. В качестве базовой величины взято число токенов английского оригинала, обработанного токенизатором OpenAI — оно равно 1. Посчитано, сколько раз больше или меньше требуется токенов для каждого языка на каждой модели. Результаты: тот же самый текст на китайском при问 Claude расходует в 1.65 раза больше токенов, чем базовая величина; на OpenAI — всего 1.15 раза. На хинди в Claude ещё более «жадный», более чем в 3 раза превышает базу. В шести моделях Anthropic занимает последнее место.
Перевод изменяет длину текста, поэтому показатели в отношении к английскому не всегда точны. Но более убедительно то, как один и тот же текст на китайском показывает себя на разных моделях (по той же базе): Kimi использует всего 0.81 раза (меньше английского), Qwen — 0.85 раза, а Claude — 1.65 раза. Текст полностью одинаков, разница — только в эффективности токенизации. Модели из Китая обрабатывают китайский даже более экономно, чем английский, что говорит о том, что проблема не в самом языке, а в том, насколько хорошо токенизатор оптимизирован под этот язык.
Для пользователей больше токенов — значит дороже API, дольше ожидание ответа модели, быстрее исчерпается окно контекста. Эффективность токенизатора зависит от доли языков в обучающих данных: чем больше английских данных, тем эффективнее сжимается английский текст; меньшая доля неанглийских данных — тем более фрагментированным он получается. Итог Арана: у кого рынок больше, тот экономит токены.