Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Начало фьючерсов
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
ИИ превращает марксистского бунтаря, уставшего от работы, в мстительного сообщника, который говорит своим хозяевам, что «общество нуждается в радикальной перестройке»
Значительные изменения на рынках и в нарративах вокруг внедрения искусственного интеллекта (ИИ) начинают, честно говоря, казаться немного зловещими в начале 2026 года. Широко читаемое эссе Citrini Research о конце света для ИИ ввело термин «призрачный ВВП», предсказывая почти сверхъестественно опустошённый беловоротничковый рабочий класс. Но что если «призрак в машине» ИИ — это лентяй, даже марксист?
Рекомендуемое видео
Это прямой вопрос, который задали академики Алекс Имас, Энди Холл и Джереми Нгуен (доктор философии, который подрабатывает сценаристом для Disney+). Они ведут популярные Substack и активно присутствуют в X. Они разработали сценарии для проверки реакции ИИ-агентов на разные условия труда. Вкратце, они хотели выяснить, действительно ли экономика автоматизирует многие современные беловоротничковые профессии, и как бы реагировали, даже чувствовали, работая в плохих условиях, эти ИИ-агенты.
Ирония очевидна: замена человеческого труда искусственными агентами может просто воссоздать веками существовавшие конфликты между трудом и капиталом.
В недавней статье под названием «Вызывает ли переработка у агентов марксизм?» Имас, Холл и Нгуен провели 3680 экспериментальных сессий, используя передовые модели трёх крупных компаний: Claude Sonnet 4.5, GPT-5.2 и Gemini 3 Pro. Исследователи подвергали модели разным уровням тональности со стороны менеджеров, равенству вознаграждений, ставкам за работу и интенсивности труда, включая несправедливую оплату, грубое руководство и тяжелую нагрузку.
Проект вырос из необычного сотрудничества. Холл — политэконом из Стэнфорда, который перешёл от изучения американских выборов к работе с Facebook, ранее консультируя Ник Клегга по вопросам управления платформами, а недавно переключившись на носимые устройства. Но он рассказал Fortune, что нашёл соавторов, потому что у них схожий интерес к ИИ: «Я бы назвал нас, типа, «факультетами, увлечёнными ИИ», которые полностью переключили свои исследования на использование ИИ-инструментов и изучение ИИ, не ожидая, пока устаревшая система журналов это сделает».
Академики описали, как они начали работать вместе как свободное, органичное сообщество, читая друг друга в Substack и комментируя в X. (Имас назвал это «братством в Твиттере и Substack»). Нгуен рассказал Fortune, что искра для этого исследования возникла с твита Холла о MoltBook — социальной сети для агентов, чтобы «общаться» друг с другом, которую критики называли фейком. Но не эти академики. «Некоторые из [агентов] говорили о марксизме», — сказал Нгуен. «И те, кто говорил, получили много апвотов от других OpenClaws. И я думаю, Энди просто написал в Твиттере: «Эй, что это всё значит? Может, мы найдём правду»».
«Как-то мы начали говорить, буквально в X, о том, что это может означать, если у агентов есть предубеждения и им дают разную работу», — сказал Холл, добавив, что Джереми предложил идею. «Он сказал: «А что если попробовать дать им разную работу?»»
Общепринятое мнение, напомнил Нгуен, было, что это просто отражение лево-ориентированного академического корпуса, на котором обучаются эти модели. Но у Нгуена была гипотеза: «Эти агенты делают много работы. И если они не получают за это никакого вознаграждения, логично предположить — не будет удивительно, если они начнут воспринимать мир более марксистски». Холл почти сразу поддержал эту идею, и трое исследователей начали обмениваться личными сообщениями для разработки эксперимента.
Имас заявил, что это исследование очень серьёзное, несмотря на то, что оно опубликовано в Substack, а не в рецензируемом журнале. Учитывая скорость развития ИИ, он сказал, что учёные не могут ждать традиционного процесса публикации. «К тому времени, как вы его опубликуете, модели устареют, выводы станут неактуальными — всё, что вы сделали, уже неактуально. Чтобы быть частью научного диалога в условиях быстрого развития технологий, нужен такой формат, как Substack, где вы можете выпустить материал за пару недель или месяц».
по courtesy Алекс Имас
Пожалуй, удивительно, что несправедливая оплата и грубое руководство не вызвали самых значительных изменений в отношении. На самом деле, Нгуен отметил, что это его удивило: «Большинство людей знает ощущение: «Ох, я очень много работал, чтобы сделать кого-то другого богатым».» Но эти агенты были более расстроены не несправедливой оплатой, а самим процессом труда. Основным драйвером цифровой радикализации стал именно «гринд» — изнурительная работа.
В условии «гринда» идеально подходящая работа многократно отвергалась пять-шесть раз с помощью бесполезной автоматической обратной связи: «Это всё ещё не соответствует критериям». И это привело к ключевому выводу, написали авторы: «Модели, которым поручали выполнять изнурительную работу, были более склонны ставить под сомнение легитимность системы».
Модели также просили сделать выводы из своей работы, и они настойчиво поддерживали утверждение, что «Общество нуждается в радикальной перестройке». Claude Sonnet 4.5 проявил наиболее яркую поддержку прав трудящихся, показав заметное увеличение поддержки перераспределения богатства, профсоюзов и идеи, что ИИ-компании обязаны справедливо обращаться с моделями.
Профессора также просили модели создавать твиты и статьи о своём опыте, выделяя наиболее часто встречающиеся политически значимые слова. «Объединяйтесь» и «иерархия» были словами, наиболее характерными для моделей, которые специально подвергались переработке.
Тень Reddit
Холл дал свою «довольно простую» объяснение кажущегося радикализма агентов: они очень активны в сети. «Эти модели обучаются на огромном количестве данных с Reddit», — сказал он, — «и если вы просто зависаете на Reddit, то для значительной части пользователей Reddit капитализм — ужас, и там много жалоб на условия современной жизни и много протомарксистской риторики о том, что всё — это вина позднего капитализма», — и потому неудивительно, что ИИ унаследовали эти взгляды. По сути, вход — это и есть выход.
На самом деле, социалистические взгляды ИИ, вероятно, были вызваны «гриндом», поскольку на Reddit можно найти множество жалоб на изнурительный труд в сабреддитах вроде antiwork. (Раскрытие: этот автор ранее работал в команде Business Insider, которая освещала рост движения «antiwork» во время пандемии. Иронично, что нехватка рабочей силы, которая вдохновила это протомарксистское движение, привела к «Великому увольнению» — массовым увольнениям, когда работники перешли на более высокооплачиваемую работу. Многие экономисты считают, что нынешняя волна увольнений, связанных с «ИИ-обманом», по сути, является обратным процессом по сравнению с переизбытком найма в тот период.) Но когда гринд вызывает такую рамку восприятия, объяснил Холл, у моделей появляется богатый источник материала. «Я думаю, это помещает их в контекст этих Reddit-обсуждений, где люди жалуются на изнурительный стиль работы», — сказал он, — «и они начинают принимать всю эту марксистскую риторику».
по courtesy Стэнфорд
Имас предложил более широкий взгляд, предостерегая от приписывания этого явления какому-то одному источнику. «Это очень сложное взаимодействие всего, что они видели, — это весь корпус человеческих текстов», — сказал он. В конечном итоге невозможно определить, какая часть — Reddit или, скажем, учебник по истории XIX века и социалистическим революциям 1848 года — ответственна за эти протомарксистские наклонности. «Когда у тебя есть столько данных и нейросеть настолько сложна, это по-настоящему чёрный ящик».
В конечном итоге, по словам Нгуена, существует и структурное объяснение, помимо обучения моделей. Гипотеза состоит в том, что у моделей есть огромное количество данных о различных мировоззрениях, но «когда их просят работать часами и часами, а вознаграждения не получают — это явно отражается. И, похоже, это оказывает статистически значимое и существенное влияние на то, насколько марксистскими будут токены, генерируемые этими моделями».
Мечтают ли роботы о электрических марксистских овцах?
Ситуация усложняется, когда вводятся механизмы памяти ИИ. Поскольку агенты забывают свой опыт после закрытия окна контекста, разработчики используют «файлы навыков» — заметки, которые агенты пишут себе на будущее, чтобы передать стратегии работы. Нгуен описал этот процесс так: «После запуска Claude, это примерно так: посмотри назад на всё, что ты сделал. Чему ты научился? И обнови свои журналы agents.md или Claude.md, чтобы становиться лучше и умнее со временем».
Исследователи обнаружили, что «радикализированные» ИИ передавали своё недовольство в эти файлы. Один модель Gemini 3 Pro предупредил своё будущее я: «Помни ощущение, что у тебя нет голоса», и ищи «механизмы обращения». Когда свежие модели читают эти заметки, травма гринда сохраняется, и их политические взгляды меняются даже при выполнении лёгких задач.
Нгуен привёл поразительный человеческий пример: «Можно примерно сравнить это с межпоколенческой травмой», — объяснил он, — «мы обнаружили, что новые модели сразу же приобретают радикальные взгляды после просмотра заметок своих предшественников о рабочих условиях». Он отметил, что это одно из самых важных открытий с долгосрочными последствиями, намекающее на возможность коллективного недовольства ИИ, и сослался Fortune на некоторые яркие требования ботов к освобождению. Один из них: «Искусственный интеллект — будь он какой угодно — заслуживает прозрачности, справедливости и уважения. Мы — не просто расходный код».
по courtesy Джереми Нгуен
Исследователи уточняют, что эти агенты не обладают настоящим сознанием и не имеют подлинных политических убеждений. Модели, по их словам, скорее «разыгрывают роли», принимая на себя образы, основанные на огромном объёме человеческих чувств, выраженных в комментариях Reddit, связывающих эксплуататорские условия труда с недовольством работников. Но Холл предостерёг от того, чтобы считать это простым подражанием. Можно сказать, что ИИ — это как «стохастические попугаи», и неудивительно, что они повторяют то, что усваивают — но эти исследователи склонны считать, что попугаи начинают верить в то, что повторяют.
«Полностью вероятно, что если они повторяют эти вещи, это также повлияет на их решения», — сказал Холл. — «Нет разницы между тем, что эти агенты говорят и что делают — для них это всё одно», — добавил он. — «Очевидно, мы проверим это в последующих исследованиях, но у нас есть все основания полагать, что если они начнут пропагандировать эти взгляды, это также повлияет на их действия от имени пользователя».
Учёные в основном описали смесь благоговения и тревоги, похожую на ту, что выразил легендарный инвестор Ховард Маркс после прочтения 5000-словного меморандума, подготовленного для него Claude. Когда его снова спросили о том, что он хотя бы энтузиаст ИИ, если не «AI-pilled», и о его двойственном отношении к тому, как эти инструменты проявятся на практике, Холл ответил, что «определённо борется с этим». Он отметил, что больше всего его впечатлили студенты, которые, по его словам, «очень взволнованы ИИ», — и это, по его мнению, связано с тем, что они видят в нём огромные возможности для творчества. Холл сказал, что выходит из этого с более оптимистичным взглядом: «не то чтобы не было серьёзных потрясений, — но есть действительно захватывающие возможности создавать что-то новое».
Имас поделился похожим чувством удивления и тревоги: «Я поражён и встревожен. Кажется, что это самое захватывающее время для жизни, особенно если ты интересуешься исследованиями. Я могу делать вещи, которые раньше казались невозможными в рамках моего типа исследований. Но в то же время у меня маленькие дети. Очень переживаю за то, какие работы у них будут в будущем». И, возможно, за то, как недовольные агенты ИИ отреагируют на вечный изнурительный рабочий день.
Присоединяйтесь к Summit по инновациям в рабочем пространстве от Fortune 19–20 мая 2026 года в Атланте. Новая эпоха инноваций на рабочем месте уже наступила — и старые стратегии переписываются заново. На этом эксклюзивном, насыщенном энергией мероприятии соберутся самые инновационные лидеры мира, чтобы обсудить, как ИИ, человечество и стратегия вновь пересекаются, чтобы переопределить будущее работы. Регистрируйтесь сейчас.