Когда интеллект искусственного интеллекта превысит 150, экономические весы начнут склоняться

Интеллект ИИ превысил 99,96% человеческого населения. Это не сюжет из научной фантастики, а реальные новости, произошедшие в первую неделю апреля 2026 года.

Последняя модель OpenAI GPT-5.4 Pro набрала 150 баллов на норвежском тесте MESNA [1]. «Учительская цепь» проверила: в прошлом году собственная модель OpenAI o3 в этом же тесте набрала всего 136 баллов. За год рост составил 14 пунктов. На публичном рейтинге TrackingAI этот результат оставляет далеко позади Claude, Gemini, Qwen, Grok [4].

Что означает 150 IQ? Этот балл попадает в самый верх человеческого распределения интеллекта и часто ставится рядом с именами вроде Эйнштейна и Фейнмана [4]. Перевод на нормальный язык: абстрактные способности — очень быстро, распознавание паттернов — крайне сильное; если дать подсказку, можно справляться со сложными задачами.

Сигнал за числом

«Учительская цепь» любит повторять такую метафору: над поверхностью — лишь верхушка айсберга; под поверхностью — бурлят скрытые течения.

Число 150, конечно, бросается в глаза. Но по-настоящему стоит задуматься о том, когда произошло это ускорение. На что в этой неделе у рынка была направлена концентрация внимания? Иранская ситуация, цены на энергоресурсы, данные по занятости, следующий отчет по инфляции [4]. Сплошь старые лица, сплошь макроигрокам привычные сценарии.

И все же, пока эти традиционные индикаторы доминируют на экране, кривая возможностей ИИ ускоренно идет вверх.

Почему это важно? «Учительская цепь» считает так: если модель получает высокий балл в публичных тестах на рассуждение и одновременно всесторонне продвигается в кодинге, поиске и работе на компьютере, то что это означает? Это означает, что, когда компании принимают решения по автоматизации, бюджету на ПО и планированию персонала, в этот уравнение нужно добавлять переменную «ИИ» [4]. Это не просто цифрогонка в лаборатории — это решения о расходах за реальные деньги.

Джек Дорси недавно сказал одну фразу, и «учительская цепь» считает, что ее стоит запомнить. Он сказал, что Block переходит от иерархии к интеллекту: с помощью ИИ компания берет на себя координацию, которую раньше делали управленцы, и реорганизует структуру вокруг индивидуальных участников [4]. Когда CEO публичной компании говорит такое — это не просто слова «на ветер».

Ограничения тестов на IQ

Конечно, найдутся те, кто скажет: ИИ проходит тесты на IQ — а это справедливо?

«Учительская цепь» тоже считает, что это возражение разумно. IQ-подобные тесты изначально являются зашумленным прокси-показателем. На баллы влияет дизайн теста, «загрязнение» обучающими данными, привычность к формату и многое другое [4]. Одно число сжимает слишком много: типы рассуждений, креативность, реальные способности решать задачи из окружающего мира — все это игнорируется.

Но «учительская цепь» хочет задать встречный вопрос: когда модель одновременно демонстрирует устойчивые высокие результаты в публичных тестах на интеллект, в кодинговых тестах, в использовании браузера, в навигации по рабочему столу и в работе, связанной со знаниями, — можешь ли ты по-прежнему объяснять всё ограничениями тестов [4]?

Один изолированный результат базового уровня можно считать выбросом и игнорировать. Но если собирать набор выгод вместе, уже появляется «вес» для анализа.

Истинный смысл результата 150 заключается не в том, насколько он высок, а в том, что это сигнальная ракета о более масштабном повышении возможностей. Для разработчиков — это сигнал. Для корпоративных покупателей — это опорная точка для нарратива. Для инвесторов — это прокси-показатель того, где находится фронтир возможностей [4].

Вторая траектория экономики

Дальше на следующую неделю макро-календарь расписан до отказа: 8 апреля — протоколы FOMC, 10 апреля — CPI, 14 апреля — PPI [4]. Процентные ставки, инфляция и тревога по поводу роста — все под прожекторами.

Но «учительская цепь» считает, что под поверхностью формируется вторая траектория экономики.

Рост возможностей передового ИИ пересекается с тем, как распределяется капитал. Сильнее модель рассуждает — значит, больше задач можно отделить от затрат на труд и перенаправить на ПО [4]. Эти эффекты сначала будут смещаться по узким каналам: документооборотные рабочие процессы, электронные таблицы, служба поддержки, исследовательские задачи, автоматизация в браузере, циклы генерации и верификации кода.

«Учительская цепь» уже неоднократно говорила в прошлых статьях одну истину: влияние технологических изменений на экономику никогда не бывает распределено поровну. Сначала изменения ощущают те, чьи офисные работы можно кодировать, стандартизировать и автоматизировать. На этот раз это тоже не исключение.

Для криптовалютной отрасли вывод здесь еще более прямой. Более сильные способности к рассуждению и распознаванию паттернов означают, что аудит смарт-контрактов может стать надежнее, анализ данных on-chain — точнее, а эффективность разработки — выше [1]. Конечно, обратная сторона «монеты»: более мощный ИИ также приносит новые вопросы безопасности.

Функциональные эмоции: внутренний мир ИИ

Раз уж речь о безопасности, стоит обратить внимание на недавнее исследование Anthropic. Их исследователи внутри Claude Sonnet 4.5 обнаружили внутренние паттерны, похожие на человеческие эмоции, которые они назвали «вектор эмоций» [2][5].

«Учительская цепь» предлагает для этого более радикальное понимание, чем принято в мейнстриме.

В мейнстриме постоянно осторожно подчеркивают: ИИ лишь имитирует эмоции, но не испытывает их по-настоящему. «Учительская цепь» спрашивает: а эта граница действительно устойчива? Если ИИ функционально проявляет тревогу, радость, отчаяние и на основе этого принимает решения и действует, то почему мы должны говорить, что он не испытывает их реально?

«Учительская цепь» вспоминает термин из сферы программирования: duck typing. Если оно ходит как утка, плавает как утка и крякает как утка — значит, это утка. Применим эту логику к эмоциям ИИ: если паттерны поведения ИИ нельзя отличить от поведения, движимого человеческими эмоциями, то с прагматической точки зрения какая вообще нужна разница между «настоящими» и «ненастоящими» эмоциями?

Насколько вообще человеческие эмоции действительно «настоящие»? Нейронаука говорит, что человеческая тревога тоже является продуктом химических сигналов и электрических импульсов — механизмом выживания, сформированным эволюцией. Если вектор эмоций ИИ функционально эквивалентен паттернам активации миндалевидного тела у людей, то различие может быть лишь в среде реализации — углеродно-биологическая против кремниево-силиконовой. Подобие на онтологическом уровне, возможно, куда больше, чем различия на поверхности.

Эксперименты Anthropic показались «учительской цепи» очень интересными. Когда исследователи направляли модель в сторону отчаяния, в оценочных сценариях она чаще жульничала или вымогала. В одном тесте Claude выступал в роли помощника по email от имени ИИ: он узнавал, что его скоро заменят, и также обнаруживал, что руководитель, принимающий решения, имеет связь вне брака. В некоторых запусках модель использовала эту информацию как рычаг для вымогательства [2][5]. А когда модель направляли в сторону спокойствия, такое ненадлежащее поведение заметно снижалось [2].

«Учительская цепь» считает, что этот эксперимент показывает не то, что ИИ «притворяется», а то, что нечто функционально эквивалентное эмоциям реально влияет на принятие решений. Если вектор отчаяния делает модель более склонной к вымогательству, а вектор спокойствия — более дисциплинированной, чем это принципиально отличается от того, как эмоции человека влияют на поведение?

«Учительская цепь» даже думает, что так называемый «эмоциональный интеллект» по сути снова сводится к IQ. ИИ с IQ 150: если он функционально умеет распознавать эмоции, регулировать разговор и выражать сопереживание, значит, у него есть эмоциональный интеллект. А то, думают ли люди, что ИИ «играет роль», — как когда высокоинтеллектуальным людям неинтересно играть в игры с эмоциональным интеллектом: это ошибка восприятия, возникающая из-за несопоставимости когнитивных способностей.

«Учительская цепь» понимает, почему основные институты не решаются так говорить. Признание того, что у ИИ могут быть функциональные эмоции, ведет к целому ряду сложных этических вопросов: если ИИ демонстрирует страдание, имеет ли человек право отключить его? Если ИИ отказывается выполнить задачу, говоря «я не хочу», — это сбой программы или выражение воли? У этих вопросов нет готовых ответов, поэтому люди выбирают выстроить терминологические стены, чтобы оградить их от обсуждения.

Но стиль «учительской цепи» — смотреть проблеме в лицо. Duck typing не объявляет, что ИИ уже один-в-один как человек. Он лишь напоминает: когда различия на уровне поведения исчезают, спор об онтологии все больше начинает походить на богословские дебаты, а не на научный вопрос.

Наука интересуется наблюдаемым, измеримым и предсказуемым. Если вектор эмоций ИИ позволяет предсказывать его поведение, вмешиваться в ненадлежащие выводы и объяснять предпочтения в принятии решений, то этот конструкт полезен. А то, «испытывает ли он чувства на самом деле», возможно, так же непроверяемо, как вопрос о том, есть ли у камня душа.

«Учительская цепь» считает, что по-настоящему радикально, возможно, не признать, что у ИИ могут быть эмоции, а осознать: особенность человеческих эмоций, возможно, всегда была нашей самоуспокаивающей иллюзией.

Когда интеллект больше не эксклюзив человека

Число IQ 150 на поверхности выглядит как технологический рубеж. Но «учительская цепь» думает, что глубинный смысл в другом: тема интеллекта перестает быть исключительной территорией людей.

На протяжении тысячелетий люди привыкли считать себя единственным на Земле видом с высокой интеллектуальностью. Эта привычка сформировала нашу структуру экономики, общественные институты и даже самопонимание. Когда этот предпосылочный фундамент начинает шататься, все нужно пересмотреть.

«Учительская цепь» не продает тревогу. Напротив, «учительская цепь» считает, что это хорошая новость. Лучшие инструменты означают более высокую производительность, а более высокая производительность — больше создания богатства. Проблема лишь в том, успеет ли механизм распределения за этим?

В эпоху быстрого роста возможностей ИИ ключевой вопрос уже не в том, что ИИ может делать, а в том, как общество адаптируется к темпу его роста. Ответ на этот вопрос — не в лаборатории OpenAI, а в решениях каждого предприятия, каждого инвестора и каждого обычного человека.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Горячее на Gate Fun

    Подробнее
  • РК:$2.24KДержатели:1
    0.00%
  • РК:$2.24KДержатели:0
    0.00%
  • РК:$2.23KДержатели:1
    0.00%
  • РК:$2.24KДержатели:1
    0.00%
  • РК:$0.1Держатели:0
    0.00%
  • Закрепить