Недавно я читал книгу на 165 страниц. Автор Леопольд Ашенбреннер, он два года назад точно предсказал текущие тенденции развития ИИ.


В апреле 2024 года его уволили из OpenAI, а в июне он написал эту книгу «Situational Awareness», по сути, это документ для привлечения инвестиций.
В сентябре он открыл свой хедж-фонд. За год объем фонда вырос с более чем 200 миллионов долларов до 5,5 миллиардов, в 24 раза.
В первой половине 2025 года чистая прибыль составила 47%.
Читая, я начал задумываться: на чем он основывается?
На чем может держаться 22-летний парень, чтобы уже в 2024 году описывать сегодняшний мир?
Видеть будущее — потому что он стоит в комнате, где оно создается.
В его кругу в Сан-Франциско, в команде Superalignment OpenAI, он работает прямо под руководством главного ученого Ильи Сутскевера.
Эту книгу он посвятил Илье.
Каждое его слово, написанное два года назад, сегодня почти что сбывается.
Он говорит, что в краткосрочной перспективе ИИ больше всего нуждается не в алгоритмах, а в вычислительной мощности, памяти HBM, дата-центрах и электроэнергии.
Он утверждает, что настоящий узкий место — в передовой упаковке CoWoS.
Он говорит, что электросеть в США станет первой, кто застрянет.
Он предсказывает появление «триллионного кластера». Позже эти идеи стали заголовками.
OpenAI назвала этот кластер Stargate.
Но это только закуски. В книге он пишет:
«К 2027 году появится AGI (искусственный общий интеллект).»
Логика такова: за последние четыре года ИИ вырос из «дошкольника» GPT-2 в «умного старшеклассника» GPT-4.
Через четыре года, по его мнению, ИИ сможет заменить исследователей, самостоятельно обучая свои модели.
Как только ИИ сможет исследовать ИИ, десять лет алгоритмических итераций человека он пронесет за один год.
«Взрыв интеллекта» начнется именно с этого момента.
К тому времени человечество уже не сможет понять, что делает ИИ.
Код, который он пишет, решения, которые он принимает.
Как мы можем знать, что он не обманывает нас?
В книге Леопольд предлагает три рецепта.
Первое — слабый контроль. Использовать менее мощный ИИ, который человек может понять, чтобы контролировать более сильный ИИ.
Делается ставка на то, что слабый ИИ сможет распознать злоумышленные действия сильного.
Сам Леопольд — соавтор этой идеи.
Второе — дебаты между ИИ. Пусть несколько ИИ спорят, ищут ошибки друг у друга, разоблачают.
Человек — лишь спокойный судья, использующий их противоречия, чтобы выявить лжеца.
Третье — механическая объяснимость.
Во время обучения убрать опасные параметры, а потом прямо заглянуть в «мозг» ИИ, чтобы понять, что он думает.
Создать «ИИ-детектор лжи», найти его внутренний «направление истины».
Сам Леопольд признает, что это — задача уровня moonshot, очень сложная.
Когда я дошел до этого, я понял, почему он использует фотографию Оппенгеймера в конце.
Он воспринимает это как новую Мангеттенскую программу.
Он сам признается, что эти три пути — по сути, лишь «на всякий случай».
Ни один из них не решает проблему по-настоящему.
Это лишь ставка на то, что человечество сможет дотянуть до того дня, когда сложность выравнивания передастся ИИ.
Сейчас мы делаем не «мы решили проблему безопасности ИИ», а «мы надеемся, что ИИ решит ее за нас».
Звучит, как будто мы ведем не очень здоровые отношения?
Зная, что что-то не так, все равно надеемся, что он изменится.
Возвращаясь к инвестициям. Самая ценная часть этой книги — не конкретный год «2027 AGI».
Погрешность очень велика: может быть чуть позже или чуть раньше.
Самое ценное — это четко объяснить все уровни узких мест в индустрии ИИ за эти десять лет:
Электроэнергия > Передовая упаковка / HBM > Вычислительная мощность > Алгоритмы > Применение.
Чем выше по цепочке, тем более редкое и ценное.
Чем ниже — тем больше конкуренции.
Леопольд сам лично проверил это на практике, вложившись в рынок.
Когда я закрыл книгу, я подумал:
Некоторые книги, прочитанные на год раньше, могут стать судьбоносными.
К счастью, сейчас не поздно.
«Увидимся в пустыне, друг.»
Посмотреть Оригинал
post-image
post-image
post-image
post-image
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить