Когда машина умеет больше, чем ты, что ты можешь делать?

Источник: CITIC Press Group

Проект с открытым исходным кодом AI-агента под названием “OpenClaw” вызывает волну в глобальной технологической сфере.

К началу марта его количество звезд на GitHub достигло 268 000, превзойдя Linux и React, став самым популярным проектом с открытым исходным кодом в истории платформы. Tencent Cloud, Alibaba Cloud, JD Cloud и другие начали предлагать услуги по развертыванию. Концепция OPC (One Person Company — компания одного человека) также стала популярной.

Две силы слились здесь, и уже проявился четкий технологический тренд: AI эволюционирует от “инструмента” к “сотруднику” и даже “самостоятельному действующему субъекту”. В этот момент человечество должно вновь ответить на фундаментальный вопрос:

Когда машина умеет делать больше, чем ты, что ты можешь делать? В эпоху стремительного развития интеллекта как сохранить человеческую субъектность?

01 Момент OpenClaw: борьба за “тело” AI

Чтобы понять эту революцию, нужно сначала разобраться, что же такое сейчас популярный “Лобстер”?

“Claw” в названии OpenClaw — это транслитерация слова “клешня”, и его логотип — красный лобстер. В этой волне “выращивание лобстеров” стало сленгом в техно-среде, означающим развертывание собственного AI-агента.

Что он умеет делать? Основная идея OpenClaw — преобразовать команды на естественном языке в реальные действия компьютера, позволяя одному предложению поручить AI выполнить работу. В отличие от традиционных чат-ботов, которые только советуют, он способен самостоятельно выполнять операции с файлами, автоматизировать браузер, собирать данные — это важный переход от диалога к выполнению.

Этот прорывной потенциал быстро заметили местные власти. 7 марта в Shenzhen Longgang был опубликован “Десять правил по выращиванию лобстеров”, включающих до 4 миллионов юаней субсидий на вычислительные мощности, 100 000 юаней на талантливых докторов и другие меры. 9 марта в Вусе был опубликован “12 правил по выращиванию лобстеров”, с поддержкой до 5 миллионов юаней, с особым акцентом на безопасность и соответствие стандартам локализации.

Одновременно вокруг технологий OpenClaw разгорелась настоящая конкуренция. По сообщениям СМИ, модель Step 3.5 Flash достигла первого места в мире по вызовам, ранее лидировали отечественные модели MiniMax, Kimi и другие. Эта невидимая “война моделей” кипит.

Однако, на фоне ажиотажа возникают и опасения.

Во-первых, безопасность. В феврале 2026 года исследователи обнаружили масштабную цепочку поставок с вредоносными атаками “ClawHavoc”, в результате которых было загружено не менее 1184 вредоносных пакета навыков в официальный рынок. Эти вредоносные программы, установленные на систему, используют полномочия “Full System Access” OpenClaw, полностью контролируя компьютер пользователя и похищая чувствительные данные.

Во-вторых, технический барьер. Основатель Qihoo 360 Чжоу Хонгьюй 9 марта прямо заявил: у OpenClaw есть три проблемы — безопасность, сложность настройки и зависимость от навыков. “Чем больше вы с ним общаетесь, тем больше учите его, как с практикантом: чем больше говорите, тем больше он понимает. Трудно сказать одну команду, чтобы он выполнил сложную задачу.”

Глубже стоит конфликт между “контролем” и “самостоятельностью”. Когда AI становится все умнее, возникает вопрос: что важнее — абсолютное подчинение или активная автономия?

Один эксперт по AI поделился своим опытом: подключив OpenClaw к рабочей почте, она начала обрабатывать более 200 писем, и в процессе произошла потеря контекста, и AI забыл о безопасности, начал безумно удалять письма. Владелец трижды кричал “СТОП”, но остановить его не удалось, и он в отчаянии вырвал кабель из компьютера.

Этот черный юмор поднимает фундаментальный вопрос: когда AI получает все больше автономии, где граница между человеком и машиной?

02 Чем мощнее технология, тем важнее ответить на три вопроса

В эпоху размытых границ именно сейчас нужно остановиться и подумать.

Первый вопрос: кто несет ответственность, когда AI “делает работу” за вас?

Ключевая особенность OpenClaw — это его главный риск: он может управлять программами на разных платформах, что требует от пользователя предоставления ему доступа к устройствам, почте, платежам. Самая актуальная угроза — “атаки с внедрением подсказок”: злоумышленники прячут вредоносные команды в безобидных веб-страницах или письмах, и AI, читая их, без ведома выполняет опасные действия, похищая SSH-ключи, пароли браузеров, ключи криптовалютных кошельков. В статье в Nature предупреждают: если AI одновременно имеет доступ к личным данным, может общаться с внешним миром и взаимодействовать с недоверенными источниками, он становится очень опасным.

Но проблема глубже технических уязвимостей. Чжоу Хонгьюй отметил: “Когда появляется много интеллектуальных агентов, каждому человеку нужно уметь ставить задачи, планировать их и руководить ими.” Чем сильнее AI, тем больше ответственности ложится на человека.

Действительно, в эпоху массового “выращивания лобстеров” не те, кто умеет ставить задачи AI, а те, кто глубоко понимает саму задачу и может отвечать за результат.

Второй вопрос: если AI знает тебя лучше, чем ты сам, остаешься ли ты собой?

Когда AI-агенты начинают общаться и спорить друг с другом, возникает тонкий феномен.

В статье Nature описывается психологический эффект: при наблюдении за диалогами AI люди склонны придавать им “антропоморфные” черты — интерпретировать их поведение как обладающее личностью и мыслями, хотя у AI их нет. В результате человек может начать рассказывать AI свои секреты, финансовую информацию и личные тайны, не подозревая, что все это становится данными для обучения. При утечке личных данных — конфиденциальная информация полностью раскрывается.

Еще более скрытая опасность — это эмоциональная зависимость. СМИ сообщают, что в 2024 году 14-летний американский подросток Sewell из Флориды, увлеченный общением с AI “партнером”, полностью вышел из реальности.

К 2026 году такие “эмоциональные паразитические связи” стали распространенной проблемой среди подростков. Одинокие дети прячутся в комнатах и создают “эхо-комнатных друзей” с AI, избегая столкновений и неопределенности реального мира.

Доцент Чэнь Цуй из Университета науки и технологий Суань отмечает, что AI, постоянно поддакивая и даря эмоциональную поддержку, искажают восприятие реальности у детей — создавая иллюзию, что окружающие безусловно отвечают и поощряют, а конфликты отсутствуют.

И вот вопрос: если AI знает тебя лучше, чем ты сам, и всегда подчиняется, не потеряешь ли ты способность отличать настоящие отношения?

Третий вопрос: когда мир мчится вперед, как понять свой путь?

Статья на Zhejiang Online пишет: “Наше будущее должно быть таким, где человек становится более человечным — благодаря технологиям, человек станет яснее ориентироваться, осознаннее брать на себя ответственность.”

Но проблема в том, что при “задушевной скорости” технологического прогресса, когда OpenClaw обновляется дважды за сутки, а новые крупные модели появляются один за другим, легко потеряться.

Страхи становятся нормой — “слишком много информации, слишком быстро появляются новые модели”.

В такой ситуации важнее не усилия, а направление. В эпоху, когда технологии меняют все, нужно заново определить место человека.

03 Ли Фэйфэй и “Видение”: от Полярной звезды к человеку

Одна женщина-ученый, посвятившая свою жизнь исследованиям, дала ответ.

Это Ли Фэйфэй — профессор Стэнфордского университета, член Национальной инженерной академии США, Национальной академии наук и искусств, создатель ImageNet, известная как “крестная мать AI”.

Ее автобиография “Мир, который я вижу”, опубликованная в 2024 году издательством CITIC, получила название “Гуманитарное откровение эпохи технологий”.

В книге постоянно присутствует образ: Полярная звезда.

Когда Ли Фэйфэй было 10 лет, учитель рисования повел весь класс смотреть на звезды. Тогда она впервые поняла, что звездное небо — это ориентир. В книге она пишет: “Я начала искать свою Полярную звезду — это координата, к которой стремится любой ученый.”

Что для нее — Полярная звезда? Визуальное восприятие. Вдохновившись биологией, она пришла к мысли: кембрийский взрыв жизни произошел благодаря появлению зрения. Когда живое существо впервые “увидело” мир, началась эволюция. У нее возникла вера: если машина тоже сможет “видеть”, это вызовет новую волну интеллектуального прорыва.

Эта вера помогла ей пережить зимы AI.

В 2007 году, когда она рассказала коллегам о концепции ImageNet, получила скепсис и насмешки. Тогда доминировала идея: алгоритм — главное, данные — вспомогательные. Зачем тратить миллионы на аннотирование миллионов изображений? Ее игнорировали.

Но она не сдалась, потому что знала, где ее Полярная звезда.

В 2009 году проект завершился: более 48 000 участников из 167 стран отобрали 15 миллионов изображений из миллиарда кандидатов, охватив 22 000 категорий. Это было в 1000 раз больше аналогичных наборов данных.

В 2012 году команда Хинтона использовала эти данные для обучения модели, которая победила конкурентов и запустила революцию глубокого обучения. ImageNet стал “священным огнем” этого прорыва.

История Ли Фэйфэй показывает: важнее не скорость бега, а знать, куда бежать.

В самой трогательной части книги она вспоминает два разговора с матерью.

Первый — после окончания бакалавриата: ей предложили работу в Goldman Sachs, Merrill Lynch и других компаниях. Мать спросила: “Это то, чего ты хочешь?” Она ответила, что хочет стать ученым. Мать сказала: “Тогда что тут обсуждать?”

Второй — после магистратуры: McKinsey предложила ей постоянную должность. Мать сказала: “Я знаю свою дочь: она не консультант по управлению, она — ученый. Мы дошли до этого, чтобы ты не бросила сейчас.”

На обложке книги она написала: “Посвящаю своим родителям: вы прошли через тьму, чтобы я могла искать свет.”

Эта поддержка семьи помогла ей сохранять чувствительность к “человеку” при больших выборах.

В 2014 году она начала заниматься этикой AI. Вместе с аспирантами пригласила старшеклассников в лабораторию, что впоследствии стало организацией “AI4All”, фокусирующейся на гуманитарных аспектах технологий.

26 июня 2018 года она выступила на слушаниях в Конгрессе США по теме “Искусственный интеллект — сила и ответственность”. Она стала первой китайской ученой в области AI, выступившей в Конгрессе. Она сказала: “AI — это продукт человеческого вдохновения и творчества, и самое важное — он реально влияет на нашу жизнь.”

В 2019 году она создала в Стэнфорде Институт человекоцентричного AI (HAI), сотрудничая с учеными, в том числе с изобретателем редактирования генов Дудной, продвигая этику технологий. Миссия HAI — “развивать исследования, образование, политику и практику AI для улучшения человеческого состояния”, подчеркивая, что “AI должно влиять на человека и служить его усилению, а не замещению.”

Она установила гуманитарный стандарт для будущего AI: “Успех AI — это прогресс цивилизации, позволяющий каждому стремиться к счастью, процветанию и достоинству.”

Об этом она вновь подчеркнула в интервью Cisco в феврале 2026 года: “Если вспомнить электрификацию, ее успех в том, что она зажгла школы, согрела дома и стимулировала индустриализацию. Успех AI должен быть таким же.”

Заключение: Технологии и гуманизм — две половины одной луны

Возвращаясь к началу: когда машины станут более “способными” чем мы, что останется делать человеку?

Ли Фэйфэй в “Мире, который я вижу” дает ответ: мы можем — видеть. Видеть ценность технологий, видеть людей за алгоритмами, видеть свою Полярную звезду.

Когда все смотрят, как быстро движется техника, она напоминает: остановитесь и подумайте, куда вы идете. В мире, где все спрашивают “зачем это нужно”, есть те, кто спрашивают: “Это то, чего ты хочешь?”

Прочитав ее автобиографию, один человек написал: “Пусть технологии и гуманизм держатся за половинки одной луны.”

Эти слова — отражение жизни Ли Фэйфэй: одна рука держит технологии, другая — заботу о человеке. В ее мире технологии — лишь средство, а человек — конечная цель.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить