Недавно я читал книгу на 165 страниц. Автор Леопольд Ашенбреннер, он два года назад точно предсказал текущие тенденции развития ИИ.


В апреле 2024 года его уволили из OpenAI, а в июне он написал эту книгу «Situational Awareness», по сути, это документ для привлечения инвестиций.
В сентябре он открыл свой хедж-фонд. За год его фонд вырос с более чем 200 миллионов долларов до 5,5 миллиардов, в 24 раза.
В первой половине 2025 года чистая прибыль составила 47%.
Читая, я начал задумываться: на чем он основывается?
На чем может быть основано, что 22-летний парень уже в 2024 году может описать сегодняшний мир?
Видеть будущее — потому что он стоит в комнате, где оно создается.
В его круге в Сан-Франциско, в команде Superalignment OpenAI, он работает прямо под руководством главного ученого Ильи Сутскевера.
Эту книгу он посвятил Илье.
Каждое его слово, написанное два года назад, сегодня почти что сбывается.
Он говорит, что в краткосрочной перспективе ИИ больше всего нуждается не в алгоритмах, а в вычислительных мощностях, HBM-памяти, дата-центрах и электроэнергии.
Он утверждает, что истинный узкий место — в передовой упаковке CoWoS.
Он говорит, что электросеть в США станет первой, кто застрянет.
Он предсказывает появление «триллионного кластера». Позже эти идеи стали заголовками.
OpenAI назвал этот кластер Stargate.
Во второй половине 2025 года он тихо вложился в майнинговые фермы для биткоинов.
Не потому, что верит в рост курса, а потому что он увидел, что у майнинговых заводов уже есть готовые электросоглашения, готовые площадки для дата-центров, и мощное охлаждение.
В эпоху ИИ все самое дефицитное — это то, что есть у биткоин-майнинга.
Майнеры станут арендодателями вычислительных мощностей для ИИ.
Его логика:
Первый уровень — в ИИ не хватает электроэнергии.
Второй — у тех, кто контролирует электроэнергию, самая большая редкость.
Третий — те, кто уже владеют электроэнергией и при этом недооценены рынком, — это золотая жила.
Но это все еще лишь закуска. В книге он пишет:
«К 2027 году появится AGI (общий искусственный интеллект).»
Логика такова: за последние четыре года ИИ вырос из «дошкольника» GPT-2 в «умного старшеклассника» GPT-4.
Через четыре года, по его словам, ИИ сможет заменять исследователей, самостоятельно обучая свои модели.
Как только ИИ сможет заниматься исследованием ИИ, за год он пройдёт все алгоритмические итерации, на которые у человека уйдут десять лет.
«Взрыв интеллекта» начнется именно с этого момента.
К тому времени человечество уже не сможет понять, что делает ИИ.
Код, который он пишет, решения, которые принимает — как мы можем знать, что он не обманывает нас?
В книге Леопольд предлагает три «лекарства».
Первое — слабый контроль. Использовать менее мощный ИИ, который человек может понять, чтобы контролировать сверхмощный ИИ.
Он делает ставку на то, что слабый ИИ сможет распознать злоумышленные действия сильного.
Сам Леопольд — соавтор этой идеи.
Второе — дебаты между ИИ. Пусть несколько ИИ спорят, ищут ошибки друг у друга, разоблачают ложь.
Человечество выступает в роли спокойного судьи, используя их противоречия, чтобы выявить лжеца.
Третье — механическая объяснимость.
На этапе обучения убрать опасные параметры, а потом прямо заглянуть в «мозг» ИИ, чтобы понять, что он думает.
Создать «ИИ-детектор лжи», найти его внутренний «направление истины».
Сам Леопольд признает, что это — задача уровня moonshot, очень сложная.
Когда я дошел до этого, я понял, почему он завершает книгу фотографией Оппенгеймера.
Он воспринимает это как новую Манхэттенскую программу.
Он сам признается, что все три пути — по сути, лишь «заглушки», чтобы «протянуть время».
Ни один из них не решает проблему по-настоящему.
Это лишь ставка на то, что человечество сможет дотянуть до того дня, когда вопрос выравнивания ИИ будет решен, и он сам станет заниматься этим.
Сейчас мы делаем не «мы решили проблему безопасности ИИ», а «мы надеемся, что ИИ решит ее за нас».
Звучит, как будто мы ведем не очень здоровые отношения?
Зная, что что-то не так, все равно надеемся, что он изменится.
Возвращаясь к инвестициям, самое ценное в этой книге — не конкретный год «2027 AGI».
Погрешность очень велика: может быть, чуть позже, чуть раньше.
Самое ценное — это четкое описание узких мест всей индустрии ИИ на ближайшее десятилетие:
Электроэнергия > Передовая упаковка / HBM > Вычислительные мощности > Алгоритмы > Применения.
Чем выше по цепочке, тем дефицитнее; чем ниже — тем больше конкуренции.
Леопольд сам лично, на реальных рынках, проверил это на практике.
Когда я закрыл книгу, я подумал:
Некоторые книги, прочитанные на год раньше, могут стать судьбоносными.
К счастью, сейчас не поздно.
«Увидимся в пустыне, друг.»
BTC-1,29%
Посмотреть Оригинал
post-image
post-image
post-image
post-image
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 1
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
GateUser-e7da0219
· 1ч назад
Ого
Посмотреть ОригиналОтветить0
  • Закрепить