Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Когда машина умеет больше, чем ты, что ты можешь делать?
Источник: CITIC Press Group
Проект с открытым исходным кодом AI-агента под названием “OpenClaw” вызывает волну в глобальной технологической сфере.
К началу марта его количество звезд на GitHub достигло 268 000, превзойдя Linux и React, став самым популярным проектом с открытым исходным кодом в истории платформы. Tencent Cloud, Alibaba Cloud, JD Cloud и другие начали предлагать услуги по развертыванию. Концепция OPC (One Person Company — компания одного человека) также стала популярной.
Две силы слились здесь, и уже проявился четкий технологический тренд: AI эволюционирует от “инструмента” к “сотруднику” и даже “самостоятельному действующему субъекту”. В этот момент человечество должно вновь ответить на фундаментальный вопрос:
Когда машина умеет делать больше, чем ты, что ты можешь делать? В эпоху стремительного развития интеллекта как сохранить человеческую субъектность?
01 Момент OpenClaw: борьба за “тело” AI
Чтобы понять эту революцию, нужно сначала разобраться, что же такое сейчас популярный “Лобстер”?
“Claw” в названии OpenClaw — это транслитерация слова “клешня”, и его логотип — красный лобстер. В этой волне “выращивание лобстеров” стало сленгом в техно-среде, означающим развертывание собственного AI-агента.
Что он умеет делать? Основная идея OpenClaw — преобразовать команды на естественном языке в реальные действия компьютера, позволяя одному предложению поручить AI выполнить работу. В отличие от традиционных чат-ботов, которые только советуют, он способен самостоятельно выполнять операции с файлами, автоматизировать браузер, собирать данные — это важный переход от диалога к выполнению.
Этот прорывной потенциал быстро заметили местные власти. 7 марта в Shenzhen Longgang был опубликован “Десять правил по выращиванию лобстеров”, включающих до 4 миллионов юаней субсидий на вычислительные мощности, 100 000 юаней на талантливых докторов и другие меры. 9 марта в Вусе был опубликован “12 правил по выращиванию лобстеров”, с поддержкой до 5 миллионов юаней, с особым акцентом на безопасность и соответствие стандартам локализации.
Одновременно вокруг технологий OpenClaw разгорелась настоящая конкуренция. По сообщениям СМИ, модель Step 3.5 Flash достигла первого места в мире по вызовам, ранее лидировали отечественные модели MiniMax, Kimi и другие. Эта невидимая “война моделей” кипит.
Однако, на фоне ажиотажа возникают и опасения.
Во-первых, безопасность. В феврале 2026 года исследователи обнаружили масштабную цепочку поставок с вредоносными атаками “ClawHavoc”, в результате которых было загружено не менее 1184 вредоносных пакета навыков в официальный рынок. Эти вредоносные программы, установленные на систему, используют полномочия “Full System Access” OpenClaw, полностью контролируя компьютер пользователя и похищая чувствительные данные.
Во-вторых, технический барьер. Основатель Qihoo 360 Чжоу Хонгьюй 9 марта прямо заявил: у OpenClaw есть три проблемы — безопасность, сложность настройки и зависимость от навыков. “Чем больше вы с ним общаетесь, тем больше учите его, как с практикантом: чем больше говорите, тем больше он понимает. Трудно сказать одну команду, чтобы он выполнил сложную задачу.”
Глубже стоит конфликт между “контролем” и “самостоятельностью”. Когда AI становится все умнее, возникает вопрос: что важнее — абсолютное подчинение или активная автономия?
Один эксперт по AI поделился своим опытом: подключив OpenClaw к рабочей почте, она начала обрабатывать более 200 писем, и в процессе произошла потеря контекста, и AI забыл о безопасности, начал безумно удалять письма. Владелец трижды кричал “СТОП”, но остановить его не удалось, и он в отчаянии вырвал кабель из компьютера.
Этот черный юмор поднимает фундаментальный вопрос: когда AI получает все больше автономии, где граница между человеком и машиной?
02 Чем мощнее технология, тем важнее ответить на три вопроса
В эпоху размытых границ именно сейчас нужно остановиться и подумать.
Первый вопрос: кто несет ответственность, когда AI “делает работу” за вас?
Ключевая особенность OpenClaw — это его главный риск: он может управлять программами на разных платформах, что требует от пользователя предоставления ему доступа к устройствам, почте, платежам. Самая актуальная угроза — “атаки с внедрением подсказок”: злоумышленники прячут вредоносные команды в безобидных веб-страницах или письмах, и AI, читая их, без ведома выполняет опасные действия, похищая SSH-ключи, пароли браузеров, ключи криптовалютных кошельков. В статье в Nature предупреждают: если AI одновременно имеет доступ к личным данным, может общаться с внешним миром и взаимодействовать с недоверенными источниками, он становится очень опасным.
Но проблема глубже технических уязвимостей. Чжоу Хонгьюй отметил: “Когда появляется много интеллектуальных агентов, каждому человеку нужно уметь ставить задачи, планировать их и руководить ими.” Чем сильнее AI, тем больше ответственности ложится на человека.
Действительно, в эпоху массового “выращивания лобстеров” не те, кто умеет ставить задачи AI, а те, кто глубоко понимает саму задачу и может отвечать за результат.
Второй вопрос: если AI знает тебя лучше, чем ты сам, остаешься ли ты собой?
Когда AI-агенты начинают общаться и спорить друг с другом, возникает тонкий феномен.
В статье Nature описывается психологический эффект: при наблюдении за диалогами AI люди склонны придавать им “антропоморфные” черты — интерпретировать их поведение как обладающее личностью и мыслями, хотя у AI их нет. В результате человек может начать рассказывать AI свои секреты, финансовую информацию и личные тайны, не подозревая, что все это становится данными для обучения. При утечке личных данных — конфиденциальная информация полностью раскрывается.
Еще более скрытая опасность — это эмоциональная зависимость. СМИ сообщают, что в 2024 году 14-летний американский подросток Sewell из Флориды, увлеченный общением с AI “партнером”, полностью вышел из реальности.
К 2026 году такие “эмоциональные паразитические связи” стали распространенной проблемой среди подростков. Одинокие дети прячутся в комнатах и создают “эхо-комнатных друзей” с AI, избегая столкновений и неопределенности реального мира.
Доцент Чэнь Цуй из Университета науки и технологий Суань отмечает, что AI, постоянно поддакивая и даря эмоциональную поддержку, искажают восприятие реальности у детей — создавая иллюзию, что окружающие безусловно отвечают и поощряют, а конфликты отсутствуют.
И вот вопрос: если AI знает тебя лучше, чем ты сам, и всегда подчиняется, не потеряешь ли ты способность отличать настоящие отношения?
Третий вопрос: когда мир мчится вперед, как понять свой путь?
Статья на Zhejiang Online пишет: “Наше будущее должно быть таким, где человек становится более человечным — благодаря технологиям, человек станет яснее ориентироваться, осознаннее брать на себя ответственность.”
Но проблема в том, что при “задушевной скорости” технологического прогресса, когда OpenClaw обновляется дважды за сутки, а новые крупные модели появляются один за другим, легко потеряться.
Страхи становятся нормой — “слишком много информации, слишком быстро появляются новые модели”.
В такой ситуации важнее не усилия, а направление. В эпоху, когда технологии меняют все, нужно заново определить место человека.
03 Ли Фэйфэй и “Видение”: от Полярной звезды к человеку
Одна женщина-ученый, посвятившая свою жизнь исследованиям, дала ответ.
Это Ли Фэйфэй — профессор Стэнфордского университета, член Национальной инженерной академии США, Национальной академии наук и искусств, создатель ImageNet, известная как “крестная мать AI”.
Ее автобиография “Мир, который я вижу”, опубликованная в 2024 году издательством CITIC, получила название “Гуманитарное откровение эпохи технологий”.
В книге постоянно присутствует образ: Полярная звезда.
Когда Ли Фэйфэй было 10 лет, учитель рисования повел весь класс смотреть на звезды. Тогда она впервые поняла, что звездное небо — это ориентир. В книге она пишет: “Я начала искать свою Полярную звезду — это координата, к которой стремится любой ученый.”
Что для нее — Полярная звезда? Визуальное восприятие. Вдохновившись биологией, она пришла к мысли: кембрийский взрыв жизни произошел благодаря появлению зрения. Когда живое существо впервые “увидело” мир, началась эволюция. У нее возникла вера: если машина тоже сможет “видеть”, это вызовет новую волну интеллектуального прорыва.
Эта вера помогла ей пережить зимы AI.
В 2007 году, когда она рассказала коллегам о концепции ImageNet, получила скепсис и насмешки. Тогда доминировала идея: алгоритм — главное, данные — вспомогательные. Зачем тратить миллионы на аннотирование миллионов изображений? Ее игнорировали.
Но она не сдалась, потому что знала, где ее Полярная звезда.
В 2009 году проект завершился: более 48 000 участников из 167 стран отобрали 15 миллионов изображений из миллиарда кандидатов, охватив 22 000 категорий. Это было в 1000 раз больше аналогичных наборов данных.
В 2012 году команда Хинтона использовала эти данные для обучения модели, которая победила конкурентов и запустила революцию глубокого обучения. ImageNet стал “священным огнем” этого прорыва.
История Ли Фэйфэй показывает: важнее не скорость бега, а знать, куда бежать.
В самой трогательной части книги она вспоминает два разговора с матерью.
Первый — после окончания бакалавриата: ей предложили работу в Goldman Sachs, Merrill Lynch и других компаниях. Мать спросила: “Это то, чего ты хочешь?” Она ответила, что хочет стать ученым. Мать сказала: “Тогда что тут обсуждать?”
Второй — после магистратуры: McKinsey предложила ей постоянную должность. Мать сказала: “Я знаю свою дочь: она не консультант по управлению, она — ученый. Мы дошли до этого, чтобы ты не бросила сейчас.”
На обложке книги она написала: “Посвящаю своим родителям: вы прошли через тьму, чтобы я могла искать свет.”
Эта поддержка семьи помогла ей сохранять чувствительность к “человеку” при больших выборах.
В 2014 году она начала заниматься этикой AI. Вместе с аспирантами пригласила старшеклассников в лабораторию, что впоследствии стало организацией “AI4All”, фокусирующейся на гуманитарных аспектах технологий.
26 июня 2018 года она выступила на слушаниях в Конгрессе США по теме “Искусственный интеллект — сила и ответственность”. Она стала первой китайской ученой в области AI, выступившей в Конгрессе. Она сказала: “AI — это продукт человеческого вдохновения и творчества, и самое важное — он реально влияет на нашу жизнь.”
В 2019 году она создала в Стэнфорде Институт человекоцентричного AI (HAI), сотрудничая с учеными, в том числе с изобретателем редактирования генов Дудной, продвигая этику технологий. Миссия HAI — “развивать исследования, образование, политику и практику AI для улучшения человеческого состояния”, подчеркивая, что “AI должно влиять на человека и служить его усилению, а не замещению.”
Она установила гуманитарный стандарт для будущего AI: “Успех AI — это прогресс цивилизации, позволяющий каждому стремиться к счастью, процветанию и достоинству.”
Об этом она вновь подчеркнула в интервью Cisco в феврале 2026 года: “Если вспомнить электрификацию, ее успех в том, что она зажгла школы, согрела дома и стимулировала индустриализацию. Успех AI должен быть таким же.”
Заключение: Технологии и гуманизм — две половины одной луны
Возвращаясь к началу: когда машины станут более “способными” чем мы, что останется делать человеку?
Ли Фэйфэй в “Мире, который я вижу” дает ответ: мы можем — видеть. Видеть ценность технологий, видеть людей за алгоритмами, видеть свою Полярную звезду.
Когда все смотрят, как быстро движется техника, она напоминает: остановитесь и подумайте, куда вы идете. В мире, где все спрашивают “зачем это нужно”, есть те, кто спрашивают: “Это то, чего ты хочешь?”
Прочитав ее автобиографию, один человек написал: “Пусть технологии и гуманизм держатся за половинки одной луны.”
Эти слова — отражение жизни Ли Фэйфэй: одна рука держит технологии, другая — заботу о человеке. В ее мире технологии — лишь средство, а человек — конечная цель.