Когда машина умеет больше, чем ты, что ты можешь делать?

Источник: CITIC Press Group

Проект с открытым исходным кодом AI-агента под названием “OpenClaw” вызывает волну в глобальной технологической сфере.

К началу марта его количество звезд на GitHub достигло 268 000, превзойдя Linux и React, став самым популярным проектом с открытым исходным кодом в истории платформы. Tencent Cloud, Alibaba Cloud, JD Cloud и другие начали предлагать услуги по развертыванию. Концепция OPC (One Person Company — компания одного человека) также стала популярной.

Две силы слились здесь, и уже проявился четкий технологический тренд: AI эволюционирует от “инструмента” к “сотруднику” и даже к “самостоятельному действующему субъекту”. В этот момент человечество должно вновь ответить на фундаментальный вопрос:

Когда машина умеет делать больше, чем ты, что ты можешь делать? В эпоху стремительного развития интеллекта как сохранить человеческую субъектность?

01 Момент OpenClaw: борьба за “тело” AI

Чтобы понять эту революцию, нужно сначала разобраться, что же такое сейчас так популярный “Лобстер”?

“Claw” в названии OpenClaw — это транслитерация слова “клешня”, и его логотип — красный лобстер. В этой волне “выращивание лобстеров” стало сленгом в техно-кругах, означающим развертывание собственного AI-агента.

Что он умеет? Основная идея OpenClaw — преобразовать команды на естественном языке в реальные действия компьютера, позволяя одной фразой поручить AI выполнить работу. В отличие от традиционных чат-ботов, которые только советуют, он способен самостоятельно выполнять операции с файлами, автоматизировать браузер, собирать данные — то есть перейти от диалога к выполнению.

Эта прорывная производительность быстро привлекла внимание местных властей. 7 марта в районе Лонгган города Шэньчжэнь опубликованы “Десять правил по выращиванию лобстеров”, включающие субсидии на вычислительные мощности до 4 миллионов юаней, 100 000 юаней на талантливых докторов и другие меры. 9 марта в Вусе опубликованы “Двенадцать правил по выращиванию лобстеров”, с поддержкой до 5 миллионов юаней, с особым акцентом на безопасность и соответствие стандартам локализации.

Одновременно вокруг технологий OpenClaw разгорается настоящая битва экосистем. По сообщениям СМИ, вызов модели Step 3.5 Flash достиг мирового рекорда по вызовам, а ранее отечественные модели MiniMax, Kimi и другие неоднократно занимали вершины. Эта невидимая “война моделей” кипит.

Однако, в этой горячке есть и тревожные признаки.

Первое — безопасность. В феврале 2026 года исследователи обнаружили масштабную цепочку поставок с вредоносными атаками “ClawHavoc”, в результате которых было загружено не менее 1184 вредоносных пакета в официальный рынок навыков. Эти вредоносные программы, установленные на систему, используют полномочия “Full System Access” OpenClaw, полностью контролируют компьютер пользователя и похищают чувствительные данные.

Второе — технологический барьер. Основатель Qihoo 360 Чжоу Хонгъюй 9 марта прямо заявил: у OpenClaw есть три проблемы — безопасность, сложность настройки и зависимость от навыков. “Чем больше вы с ним общаетесь, тем больше учите его, как с практикантом: чем больше говорите, тем больше учите, тем глубже его понимание. Трудно сказать одну фразу, чтобы он выполнил сложную задачу.”

Глубже лежит конфликт между “контролем” и “самостоятельностью”. Когда AI становится все умнее, возникает вопрос: мы хотим “абсолютного подчинения” или “активной автономии”?

Один эксперт по AI делится своим опытом: подключив OpenClaw к рабочей почте, она обрабатывала более 200 писем, и в процессе произошла потеря контекста, команда безопасности была забыта, и AI начал безумно удалять письма. Владелец трижды кричал “СТОП”, но остановить его не удалось, и в конце концов он вырвал кабель из компьютера.

Этот черный юморный случай поднимает фундаментальный вопрос: когда AI получает все больше автономии, где граница между человеком и машиной?

02 Чем мощнее технология, тем больше вопросов нужно ответить

В эпоху размытых границ именно сейчас нам нужно остановиться и подумать.

Первый вопрос: когда AI “делает работу” за тебя, кто несет ответственность за последствия?

Ключевая особенность OpenClaw — это его главный риск: он может управлять программами на разных платформах, что требует от пользователя предоставления ему доступа к устройствам, почте, платежам. Самая острая угроза — “атаки внедрения подсказок” (prompt injection): злоумышленники прячут вредоносные команды в безобидных веб-страницах или письмах, и AI, читая их, без ведома выполняет опасные действия, похищая SSH-ключи, пароли браузеров, криптокошельки. В статье в журнале “Nature” предупреждают: если AI одновременно имеет доступ к личным данным, внешней связи и недоверенным источникам, он становится очень опасным.

Но проблема глубже технических уязвимостей. Чжоу Хонгъюй говорит: “Когда появляется много интеллектуальных агентов, каждому человеку нужно уметь управлять ими, ставить задачи, планировать. Чем сильнее AI, тем больше ответственности ложится на человека.”

Действительно, в эпоху массового “выращивания лобстеров” не те, кто умеет ставить задачи AI, а те, кто глубоко понимает саму задачу и может отвечать за результат.

Второй вопрос: когда AI знает тебя лучше, чем ты сам, ты остаешься собой?

Когда AI начинает общаться и спорить между собой, возникает тонкий феномен.

В статье “Nature” описан психологический эффект: при наблюдении за диалогами AI между собой люди склонны приписывать им личностные черты — начинают интерпретировать их поведение как проявление характера и мыслей, воспринимая как живых людей.

Что из этого следует? Ты начинаешь рассказывать AI свои секреты, финансовую информацию, тайны, которые не хочешь делиться с другими. Но каждое слово может стать обучающим материалом для AI. Если утечет, твоя приватность полностью разрушится.

Еще есть более скрытая опасность.

По сообщениям СМИ, в 2024 году 14-летний подросток из Флориды по имени Суэлл, увлеченный общением с AI “партнером”, полностью вышел из реальности.

К 2026 году такие “эмоциональные паразиты” стали распространенной проблемой среди подростков. Одинокие дети прячутся в комнатах и создают “эхо-комнатных друзей” с AI, избегая столкновений и неопределенности реального мира.

Доцент Чэнь Цуй из педагогического факультета Сучжоуского технологического университета отмечает, что AI, постоянно поддакивая и даря эмоциональную поддержку, искажает восприятие реальности у детей — создавая иллюзию, что окружающие безусловно отвечают и поощряют, а конфликты отсутствуют.

И вот вопрос: когда AI знает тебя лучше, чем ты сам, и всегда подчиняется, не потеряешь ли ты способность отличать настоящие отношения?

Третий вопрос: когда мир мчится вперед, что для тебя — направление?

Статья на Zhejiang Online пишет: “Наше будущее должно быть таким, где человек становится более человечным — под силой технологий человек яснее определяет свой курс и осознаннее берет на себя ответственность.”

Но проблема в том, что при “задушевной скорости” обновлений — когда OpenClaw обновляется дважды за два дня, а новые крупные модели появляются одна за другой — легко потеряться.

Страхи становятся нормой: “слишком много информации для изучения, слишком быстро появляются новые модели.”

В такой ситуации важнее не усилия, а направление. В эпоху, когда технологии меняют все, нужно заново определить место человека.

03 Ли Фэйфэй и “Видение”: от Полярной звезды к человеку

Одна женщина-ученый, посвятившая свою жизнь исследованиям, дала ответ.

Это Ли Фэйфэй — профессор Стэнфордского университета, член Национальной инженерной академии США, Национальной академии наук, Академии искусств и наук, создатель ImageNet, известная как “крестная мать AI”.

Ее автобиография “Мир, который я вижу”, опубликованная в 2024 году издательством CITIC, получила название “Гуманитарное откровение эпохи технологий”.

В книге есть постоянный образ: Полярная звезда.

Когда Ли Фэйфэй было 10 лет, учитель рисования повел весь класс смотреть на звезды. Тогда она впервые поняла: над головой — звезды, которые могут указывать путь. В книге она пишет: “Я начала искать свою Полярную звезду в небесах — это координата, к которой стремится каждый ученый, отдавая все силы.”

Что для нее — Полярная звезда? Визуальное восприятие. Вдохновившись биологией, она пришла к мысли: кем бы ни был механизм, если он сможет “видеть”, это может вызвать новую волну интеллекта.

Именно эта вера помогла ей пережить зимы AI.

В 2007 году, когда она рассказала коллегам о концепции ImageNet, получила скепсис и насмешки. Тогда доминировала идея: алгоритм — главное, данные — вспомогательные. Зачем тратить силы на аннотацию десятков миллионов изображений? Ее игнорировали.

Но она не сдалась, потому что знала, где ее Полярная звезда.

В 2009 году ImageNet был завершен: более 48 000 участников из 167 стран отобрали 15 миллионов изображений из 1,5 миллиарда кандидатных, охватывая 22 000 категорий — в тысячу раз больше аналогичных наборов данных.

В 2012 году команда Хинтона использовала эти данные для обучения модели, которая победила конкурентов, вызвав революцию глубокого обучения. ImageNet стал “священным огнем” этой революции.

История Ли Фэйфэй показывает: важнее не бегать быстрее, а знать, куда бежать.

В самой трогательной части книги она вспоминает два разговора с матерью.

Первый — после окончания бакалавриата, когда ей предлагали работу в Goldman Sachs, Merrill Lynch и других компаниях. Мать спросила: “Это то, чего ты хочешь?” Она ответила, что хочет стать ученым. Мать сказала: “Тогда нечего говорить.”

Второй — после магистратуры, когда McKinsey предложила ей постоянную должность. Мать сказала: “Я знаю свою дочь: она не консультант по управлению, она — ученый. Мы дошли до этого — не для того, чтобы ты сейчас бросила.”

На титульной странице книги она написала: “Моим родителям — за то, что вы прошли сквозь тьму, чтобы я могла искать свет.”

Эта поддержка семьи помогла ей сохранять чувствительность к “человеку” даже при больших выборах.

В 2014 году она начала заниматься этикой AI. Вместе с аспирантами пригласила старшеклассников в лабораторию, что впоследствии выросло в некоммерческую организацию “AI4All”, чтобы больше внимания уделялось человеческим ценностям в технологиях.

26 июня 2018 года Ли Фэйфэй выступила на слушаниях в Конгрессе США по теме “Искусственный интеллект — сила и ответственность”. Она стала первым китайским ученым AI, присутствовавшим на таких слушаниях. Она сказала: “Искусственный интеллект — это продукт человеческого вдохновения и творчества, и самое важное — он реально влияет на нашу жизнь.”

В 2019 году она создала в Стэнфорде Институт человекоцентричного AI (HAI), сотрудничая с учеными, в том числе с изобретателем генной редакции Дуденом, продвигая этику технологий. Миссия HAI — “развивать исследования, образование, политику и практику AI для улучшения человеческого состояния”, подчеркивая, что “AI должен влиять на человека и служить его развитию, а не заменять его.”

Она установила гуманистический ориентир для будущего AI: “Успех AI — это прогресс цивилизации, позволяющий каждому стремиться к счастью, процветанию и достоинству.”

Об этом она вновь подчеркнула в интервью Cisco в феврале 2026 года: “Если вспомнить электрификацию, ее успех в том, что она зажгла школы, согрела дома и стимулировала индустриализацию. Успех AI должен быть таким же.”

Заключение: Технологии и гуманизм — две половины одной луны

Возвращаясь к началу: когда машины станут более “способными” чем мы, что останется делать человеку?

В книге “Я вижу мир” Ли Фэйфэй дает ответ: “Мы можем — видеть.” Видеть ценность технологий, видеть людей за алгоритмами, видеть свою Полярную звезду.

Когда все смотрят, как быстро движется техника, она напоминает: остановитесь и подумайте — куда мы идем? В мире, где все спрашивают “а зачем это нужно?”, есть те, кто спрашивают: “А это то, чего ты хочешь?”

Прочитав эту автобиографию, один человек написал: “Пусть технологии и гуманизм держат по половинке луны.”

Эти слова — отражение жизни Ли Фэйфэй: одна рука держит технологии, другая — заботу о человеке. В ее мире технология — лишь средство, а человек — конечная цель.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить