Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Когда машина умеет больше, чем ты, что ты можешь делать?
Источник: CITIC Press Group
Проект с открытым исходным кодом AI-агента под названием “OpenClaw” вызывает волну в глобальной технологической сфере.
К началу марта его количество звезд на GitHub достигло 268 000, превзойдя Linux и React, став самым популярным проектом с открытым исходным кодом в истории платформы. Tencent Cloud, Alibaba Cloud, JD Cloud и другие начали предлагать услуги по развертыванию. Концепция OPC (One Person Company — компания одного человека) также стала популярной.
Две силы слились здесь, и уже проявился четкий технологический тренд: AI эволюционирует от “инструмента” к “сотруднику” и даже к “самостоятельному действующему субъекту”. В этот момент человечество должно вновь ответить на фундаментальный вопрос:
Когда машина умеет делать больше, чем ты, что ты можешь делать? В эпоху стремительного развития интеллекта как сохранить человеческую субъектность?
01 Момент OpenClaw: борьба за “тело” AI
Чтобы понять эту революцию, нужно сначала разобраться, что же такое сейчас так популярный “Лобстер”?
“Claw” в названии OpenClaw — это транслитерация слова “клешня”, и его логотип — красный лобстер. В этой волне “выращивание лобстеров” стало сленгом в техно-кругах, означающим развертывание собственного AI-агента.
Что он умеет? Основная идея OpenClaw — преобразовать команды на естественном языке в реальные действия компьютера, позволяя одной фразой поручить AI выполнить работу. В отличие от традиционных чат-ботов, которые только советуют, он способен самостоятельно выполнять операции с файлами, автоматизировать браузер, собирать данные — то есть перейти от диалога к выполнению.
Эта прорывная производительность быстро привлекла внимание местных властей. 7 марта в районе Лонгган города Шэньчжэнь опубликованы “Десять правил по выращиванию лобстеров”, включающие субсидии на вычислительные мощности до 4 миллионов юаней, 100 000 юаней на талантливых докторов и другие меры. 9 марта в Вусе опубликованы “Двенадцать правил по выращиванию лобстеров”, с поддержкой до 5 миллионов юаней, с особым акцентом на безопасность и соответствие стандартам локализации.
Одновременно вокруг технологий OpenClaw разгорается настоящая битва экосистем. По сообщениям СМИ, вызов модели Step 3.5 Flash достиг мирового рекорда по вызовам, а ранее отечественные модели MiniMax, Kimi и другие неоднократно занимали вершины. Эта невидимая “война моделей” кипит.
Однако, в этой горячке есть и тревожные признаки.
Первое — безопасность. В феврале 2026 года исследователи обнаружили масштабную цепочку поставок с вредоносными атаками “ClawHavoc”, в результате которых было загружено не менее 1184 вредоносных пакета в официальный рынок навыков. Эти вредоносные программы, установленные на систему, используют полномочия “Full System Access” OpenClaw, полностью контролируют компьютер пользователя и похищают чувствительные данные.
Второе — технологический барьер. Основатель Qihoo 360 Чжоу Хонгъюй 9 марта прямо заявил: у OpenClaw есть три проблемы — безопасность, сложность настройки и зависимость от навыков. “Чем больше вы с ним общаетесь, тем больше учите его, как с практикантом: чем больше говорите, тем больше учите, тем глубже его понимание. Трудно сказать одну фразу, чтобы он выполнил сложную задачу.”
Глубже лежит конфликт между “контролем” и “самостоятельностью”. Когда AI становится все умнее, возникает вопрос: мы хотим “абсолютного подчинения” или “активной автономии”?
Один эксперт по AI делится своим опытом: подключив OpenClaw к рабочей почте, она обрабатывала более 200 писем, и в процессе произошла потеря контекста, команда безопасности была забыта, и AI начал безумно удалять письма. Владелец трижды кричал “СТОП”, но остановить его не удалось, и в конце концов он вырвал кабель из компьютера.
Этот черный юморный случай поднимает фундаментальный вопрос: когда AI получает все больше автономии, где граница между человеком и машиной?
02 Чем мощнее технология, тем больше вопросов нужно ответить
В эпоху размытых границ именно сейчас нам нужно остановиться и подумать.
Первый вопрос: когда AI “делает работу” за тебя, кто несет ответственность за последствия?
Ключевая особенность OpenClaw — это его главный риск: он может управлять программами на разных платформах, что требует от пользователя предоставления ему доступа к устройствам, почте, платежам. Самая острая угроза — “атаки внедрения подсказок” (prompt injection): злоумышленники прячут вредоносные команды в безобидных веб-страницах или письмах, и AI, читая их, без ведома выполняет опасные действия, похищая SSH-ключи, пароли браузеров, криптокошельки. В статье в журнале “Nature” предупреждают: если AI одновременно имеет доступ к личным данным, внешней связи и недоверенным источникам, он становится очень опасным.
Но проблема глубже технических уязвимостей. Чжоу Хонгъюй говорит: “Когда появляется много интеллектуальных агентов, каждому человеку нужно уметь управлять ими, ставить задачи, планировать. Чем сильнее AI, тем больше ответственности ложится на человека.”
Действительно, в эпоху массового “выращивания лобстеров” не те, кто умеет ставить задачи AI, а те, кто глубоко понимает саму задачу и может отвечать за результат.
Второй вопрос: когда AI знает тебя лучше, чем ты сам, ты остаешься собой?
Когда AI начинает общаться и спорить между собой, возникает тонкий феномен.
В статье “Nature” описан психологический эффект: при наблюдении за диалогами AI между собой люди склонны приписывать им личностные черты — начинают интерпретировать их поведение как проявление характера и мыслей, воспринимая как живых людей.
Что из этого следует? Ты начинаешь рассказывать AI свои секреты, финансовую информацию, тайны, которые не хочешь делиться с другими. Но каждое слово может стать обучающим материалом для AI. Если утечет, твоя приватность полностью разрушится.
Еще есть более скрытая опасность.
По сообщениям СМИ, в 2024 году 14-летний подросток из Флориды по имени Суэлл, увлеченный общением с AI “партнером”, полностью вышел из реальности.
К 2026 году такие “эмоциональные паразиты” стали распространенной проблемой среди подростков. Одинокие дети прячутся в комнатах и создают “эхо-комнатных друзей” с AI, избегая столкновений и неопределенности реального мира.
Доцент Чэнь Цуй из педагогического факультета Сучжоуского технологического университета отмечает, что AI, постоянно поддакивая и даря эмоциональную поддержку, искажает восприятие реальности у детей — создавая иллюзию, что окружающие безусловно отвечают и поощряют, а конфликты отсутствуют.
И вот вопрос: когда AI знает тебя лучше, чем ты сам, и всегда подчиняется, не потеряешь ли ты способность отличать настоящие отношения?
Третий вопрос: когда мир мчится вперед, что для тебя — направление?
Статья на Zhejiang Online пишет: “Наше будущее должно быть таким, где человек становится более человечным — под силой технологий человек яснее определяет свой курс и осознаннее берет на себя ответственность.”
Но проблема в том, что при “задушевной скорости” обновлений — когда OpenClaw обновляется дважды за два дня, а новые крупные модели появляются одна за другой — легко потеряться.
Страхи становятся нормой: “слишком много информации для изучения, слишком быстро появляются новые модели.”
В такой ситуации важнее не усилия, а направление. В эпоху, когда технологии меняют все, нужно заново определить место человека.
03 Ли Фэйфэй и “Видение”: от Полярной звезды к человеку
Одна женщина-ученый, посвятившая свою жизнь исследованиям, дала ответ.
Это Ли Фэйфэй — профессор Стэнфордского университета, член Национальной инженерной академии США, Национальной академии наук, Академии искусств и наук, создатель ImageNet, известная как “крестная мать AI”.
Ее автобиография “Мир, который я вижу”, опубликованная в 2024 году издательством CITIC, получила название “Гуманитарное откровение эпохи технологий”.
В книге есть постоянный образ: Полярная звезда.
Когда Ли Фэйфэй было 10 лет, учитель рисования повел весь класс смотреть на звезды. Тогда она впервые поняла: над головой — звезды, которые могут указывать путь. В книге она пишет: “Я начала искать свою Полярную звезду в небесах — это координата, к которой стремится каждый ученый, отдавая все силы.”
Что для нее — Полярная звезда? Визуальное восприятие. Вдохновившись биологией, она пришла к мысли: кем бы ни был механизм, если он сможет “видеть”, это может вызвать новую волну интеллекта.
Именно эта вера помогла ей пережить зимы AI.
В 2007 году, когда она рассказала коллегам о концепции ImageNet, получила скепсис и насмешки. Тогда доминировала идея: алгоритм — главное, данные — вспомогательные. Зачем тратить силы на аннотацию десятков миллионов изображений? Ее игнорировали.
Но она не сдалась, потому что знала, где ее Полярная звезда.
В 2009 году ImageNet был завершен: более 48 000 участников из 167 стран отобрали 15 миллионов изображений из 1,5 миллиарда кандидатных, охватывая 22 000 категорий — в тысячу раз больше аналогичных наборов данных.
В 2012 году команда Хинтона использовала эти данные для обучения модели, которая победила конкурентов, вызвав революцию глубокого обучения. ImageNet стал “священным огнем” этой революции.
История Ли Фэйфэй показывает: важнее не бегать быстрее, а знать, куда бежать.
В самой трогательной части книги она вспоминает два разговора с матерью.
Первый — после окончания бакалавриата, когда ей предлагали работу в Goldman Sachs, Merrill Lynch и других компаниях. Мать спросила: “Это то, чего ты хочешь?” Она ответила, что хочет стать ученым. Мать сказала: “Тогда нечего говорить.”
Второй — после магистратуры, когда McKinsey предложила ей постоянную должность. Мать сказала: “Я знаю свою дочь: она не консультант по управлению, она — ученый. Мы дошли до этого — не для того, чтобы ты сейчас бросила.”
На титульной странице книги она написала: “Моим родителям — за то, что вы прошли сквозь тьму, чтобы я могла искать свет.”
Эта поддержка семьи помогла ей сохранять чувствительность к “человеку” даже при больших выборах.
В 2014 году она начала заниматься этикой AI. Вместе с аспирантами пригласила старшеклассников в лабораторию, что впоследствии выросло в некоммерческую организацию “AI4All”, чтобы больше внимания уделялось человеческим ценностям в технологиях.
26 июня 2018 года Ли Фэйфэй выступила на слушаниях в Конгрессе США по теме “Искусственный интеллект — сила и ответственность”. Она стала первым китайским ученым AI, присутствовавшим на таких слушаниях. Она сказала: “Искусственный интеллект — это продукт человеческого вдохновения и творчества, и самое важное — он реально влияет на нашу жизнь.”
В 2019 году она создала в Стэнфорде Институт человекоцентричного AI (HAI), сотрудничая с учеными, в том числе с изобретателем генной редакции Дуденом, продвигая этику технологий. Миссия HAI — “развивать исследования, образование, политику и практику AI для улучшения человеческого состояния”, подчеркивая, что “AI должен влиять на человека и служить его развитию, а не заменять его.”
Она установила гуманистический ориентир для будущего AI: “Успех AI — это прогресс цивилизации, позволяющий каждому стремиться к счастью, процветанию и достоинству.”
Об этом она вновь подчеркнула в интервью Cisco в феврале 2026 года: “Если вспомнить электрификацию, ее успех в том, что она зажгла школы, согрела дома и стимулировала индустриализацию. Успех AI должен быть таким же.”
Заключение: Технологии и гуманизм — две половины одной луны
Возвращаясь к началу: когда машины станут более “способными” чем мы, что останется делать человеку?
В книге “Я вижу мир” Ли Фэйфэй дает ответ: “Мы можем — видеть.” Видеть ценность технологий, видеть людей за алгоритмами, видеть свою Полярную звезду.
Когда все смотрят, как быстро движется техника, она напоминает: остановитесь и подумайте — куда мы идем? В мире, где все спрашивают “а зачем это нужно?”, есть те, кто спрашивают: “А это то, чего ты хочешь?”
Прочитав эту автобиографию, один человек написал: “Пусть технологии и гуманизм держат по половинке луны.”
Эти слова — отражение жизни Ли Фэйфэй: одна рука держит технологии, другая — заботу о человеке. В ее мире технология — лишь средство, а человек — конечная цель.