Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Малые модели сталкиваются с Terafab: вера в масштаб AI начинает шататься
Малые модели бросают вызов вере в «масштаб»
Илон Маск сначала заявил, что V15 — это следующая крупная модель xAI, затем признал, что малые модели развиваются быстрее. Этот поворот заслуживает внимания: вера в параметры масштаба начинает ослабевать.
Обратимся к хронологии: в ноябре 2025 года Grok 4.1 переключается на оптимизацию с помощью усиленного обучения, за ним следует расширение вычислительных мощностей Terafab. Источник конкурентных преимуществ смещается с «большой модели» на «быстрый вывод + координацию аппаратного и программного обеспечения».
Это не единичный случай. OpenAI с o1, Anthropic с Claude 3.5 — все ставят «качество вывода» выше «наборов параметров». Заявления Маска укрепляют тренд на приоритет эффективности затрат, создавая давление на инфраструктурные проекты с тяжелым капиталом. Инженерное сообщество также спорит, подтверждает ли это преимущество малых моделей на периферии; скептики указывают, что спецификации V15 еще никто не видел.
Тем временем, сотрудничество Terafab и Intel по созданию годовой вычислительной мощности в 1 ТВт вызывает интерес. Если xAI связать прогресс моделей с собственной аппаратной экосистемой, а с помощью кластеров Colossus расширять усиленное обучение по более низкой стоимости, позиция Nvidia может оказаться под давлением.
Рассказывают, что слишком преувеличивают одну историю: воспринимать V15 как «скорое убийство GPT». Без надежных бенчмарков все — шум. Важны показатели развертывания, а не сроки выпуска.
Terafab меняет карту вычислительных мощностей
Этот твит появился перед выпуском Terafab в апреле 2026 года и конкретизировал задержки моделей и аппаратные узкие места. Исследователи отмечают, что расширение усиленного обучения xAI (например, способность Grok 4 использовать инструменты) позволяет малым моделям догонять за счет эффективности данных, а не за счет набора параметров. В соцсетях активно обсуждаются слухи о слиянии «SpaceX + X + xAI», оценка — 1,25 триллиона долларов. Это выгодно для вертикально интегрированных игроков, но привлечет внимание регуляторов к концентрации капитала.
Рынок интерпретирует задержки xAI как слабость, скорее это «стратегическая выдержка» для согласования с аппаратным обеспечением. Это также усложняет путь Anthropic по «безопасности и масштабированию».
Выводы:
Важность: высокая
Категория: выпуск моделей, отраслевые тренды, технологические инсайты
Оценка: мы все еще на ранней стадии «эффективность + вертикальная интеграция». Самые сильные — те, кто может построить замкнутый цикл модель-данные-вычисления и кто уже переходит к низкозатратному выводу; участники, деловые покупатели, ориентированные на GPU, в невыгодной позиции.