Фьючерсы
Доступ к сотням фьючерсов
CFD
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 40 моделей ИИ, без дополнительных затрат (0%)
Недавно я читал книгу на 165 страниц. Автор Леопольд Ашенбреннер, он два года назад точно предсказал текущие тенденции развития ИИ.
В апреле 2024 года его уволили из OpenAI, а в июне он написал эту книгу «Situational Awareness», по сути, это документ для привлечения инвестиций.
В сентябре он открыл свой хедж-фонд. За год объем фонда вырос с более чем 200 миллионов долларов до 5,5 миллиардов, в 24 раза.
В первой половине 2025 года чистая прибыль составила 47%.
Читая, я начал задумываться: на чем он основывается?
На чем может держаться 22-летний парень, чтобы уже в 2024 году описывать сегодняшний мир?
Видеть будущее — потому что он стоит в комнате, где оно создается.
В его кругу в Сан-Франциско, в команде Superalignment OpenAI, он работает прямо под руководством главного ученого Ильи Сутскевера.
Эту книгу он посвятил Илье.
Каждое его слово, написанное два года назад, сегодня почти что сбывается.
Он говорит, что в краткосрочной перспективе ИИ больше всего нуждается не в алгоритмах, а в вычислительной мощности, памяти HBM, дата-центрах и электроэнергии.
Он утверждает, что настоящий узкий место — в передовой упаковке CoWoS.
Он говорит, что электросеть в США станет первой, кто застрянет.
Он предсказывает появление «триллионного кластера». Позже эти идеи стали заголовками.
OpenAI назвала этот кластер Stargate.
Но это только закуски. В книге он пишет:
«К 2027 году появится AGI (искусственный общий интеллект).»
Логика такова: за последние четыре года ИИ вырос из «дошкольника» GPT-2 в «умного старшеклассника» GPT-4.
Через четыре года, по его мнению, ИИ сможет заменить исследователей, самостоятельно обучая свои модели.
Как только ИИ сможет исследовать ИИ, десять лет алгоритмических итераций человека он пронесет за один год.
«Взрыв интеллекта» начнется именно с этого момента.
К тому времени человечество уже не сможет понять, что делает ИИ.
Код, который он пишет, решения, которые он принимает.
Как мы можем знать, что он не обманывает нас?
В книге Леопольд предлагает три рецепта.
Первое — слабый контроль. Использовать менее мощный ИИ, который человек может понять, чтобы контролировать более сильный ИИ.
Делается ставка на то, что слабый ИИ сможет распознать злоумышленные действия сильного.
Сам Леопольд — соавтор этой идеи.
Второе — дебаты между ИИ. Пусть несколько ИИ спорят, ищут ошибки друг у друга, разоблачают.
Человек — лишь спокойный судья, использующий их противоречия, чтобы выявить лжеца.
Третье — механическая объяснимость.
Во время обучения убрать опасные параметры, а потом прямо заглянуть в «мозг» ИИ, чтобы понять, что он думает.
Создать «ИИ-детектор лжи», найти его внутренний «направление истины».
Сам Леопольд признает, что это — задача уровня moonshot, очень сложная.
Когда я дошел до этого, я понял, почему он использует фотографию Оппенгеймера в конце.
Он воспринимает это как новую Мангеттенскую программу.
Он сам признается, что эти три пути — по сути, лишь «на всякий случай».
Ни один из них не решает проблему по-настоящему.
Это лишь ставка на то, что человечество сможет дотянуть до того дня, когда сложность выравнивания передастся ИИ.
Сейчас мы делаем не «мы решили проблему безопасности ИИ», а «мы надеемся, что ИИ решит ее за нас».
Звучит, как будто мы ведем не очень здоровые отношения?
Зная, что что-то не так, все равно надеемся, что он изменится.
Возвращаясь к инвестициям. Самая ценная часть этой книги — не конкретный год «2027 AGI».
Погрешность очень велика: может быть чуть позже или чуть раньше.
Самое ценное — это четко объяснить все уровни узких мест в индустрии ИИ за эти десять лет:
Электроэнергия > Передовая упаковка / HBM > Вычислительная мощность > Алгоритмы > Применение.
Чем выше по цепочке, тем более редкое и ценное.
Чем ниже — тем больше конкуренции.
Леопольд сам лично проверил это на практике, вложившись в рынок.
Когда я закрыл книгу, я подумал:
Некоторые книги, прочитанные на год раньше, могут стать судьбоносными.
К счастью, сейчас не поздно.
«Увидимся в пустыне, друг.»