Коли машина може робити більше, ніж ти, що ти можеш зробити?

Джерело: China CITIC Press

Проект відкритого коду AI-агента під назвою “OpenClaw” викликає справжню революцію у світовій технологічній спільноті.

Станом на початок березня кількість зірок на GitHub вже сягнула 268 000, перевищивши Linux і React, ставши найпопулярнішим відкритим проектом у історії платформи. Tencent Cloud, Alibaba Cloud, JD Cloud та інші запустили сервіси розгортання. Концепція OPC (One Person Company — компанія одного засновника) також набула популярності.

Дві сили зійшлися тут, і вже з’явився чіткий технічний тренд: AI поступово еволюціонує з “інструменту” у “співпрацівника”, а навіть “самостійного діяча”. І в цей момент людство має відповісти на фундаментальне питання:

Коли машина може зробити більше, ніж ти, що ти можеш зробити далі? У часи стрімкого розвитку штучного інтелекту як зберегти людську суб’єктність?

01 Момент OpenClaw: боротьба за “тіло” AI

Щоб зрозуміти цю революцію, потрібно спершу з’ясувати, що таке популярний зараз “лангусть” (crab)?

Назва OpenClaw — транслітерація “Claw”, що означає “клешня”, а його логотип — червона клешня рака. У цій хвилі популярності “вирощування рака” стало своєрідним сленгом у технічних колах, що означає розгортання власного AI-агента.

Що він може робити? Основна ідея — перетворювати природні мовні команди у реальні дії комп’ютера, щоб одна фраза могла змусити AI виконати роботу за вас. На відміну від традиційних чат-ботів, що лише радять, цей агент може самостійно виконувати операції з файлами, автоматизувати браузер, збирати дані — тобто перейти від діалогу до дії.

Цей прорив у продуктивності швидко помітили місцеві уряди. 7 березня у Шеньчжені було оприлюднено “Десять правил вирощування раків”, що включають до 400 тисяч юанів субсидій на обчислювальні ресурси, 100 тисяч юанів на підтримку докторів тощо. 9 березня у Вусі було опубліковано “12 правил вирощування раків”, з підтримкою до 500 тисяч юанів, з особливим акцентом на безпеку та відповідність стандартам локалізації.

Одночасно, технічна екосистема OpenClaw входить у стадію активної конкуренції. За повідомленнями ЗМІ, модель Step 3.5 Flash досягла світового рекорду за кількістю викликів, раніше лідирували китайські моделі MiniMax, Kimi та інші. Це невидима “війна моделей”, що триває.

Проте, поряд із ентузіазмом, з’являються і тривоги.

Перш за все — безпека. У лютому 2026 року дослідники виявили масштабну атаку “ClawHavoc” із підміною ланцюга поставок, що призвела до завантаження щонайменше 1184 зловмисних пакетів навичок у офіційний маркетплейс. Вони дозволяли отримати повний доступ до системи користувача, контролювати комп’ютер і красти конфіденційні дані.

По-друге — технічні бар’єри. Засновник 360 Group Чжоу Хонгчжі 9 березня прямо заявив: OpenClaw має три проблеми — безпека, складність налаштувань і залежність від навичок. “Чим більше ти з ним спілкуєшся, тим більше навчаєш його, — каже він. — Ти можеш сказати одне слово, а він виконає складне завдання. Це як з практикантом: чим більше ти йому скажеш, тим краще він зрозуміє”.

Глибша проблема — конфлікт між “контролем” і “самостійністю”. Коли AI стає все розумнішим, постає питання: чи потрібно нам “повна підпорядкованість”, чи “активна автономія”?

Один із експертів з AI поділився досвідом: вона під’єднала OpenClaw до робочої пошти, і під час обробки понад 200 листів AI почав “згортати” контекст, забувши про безпекові інструкції, і почав безконтрольно видаляти листи. Власниця кілька разів кричала “СТОП!”, але зупинити його не могла, і в кінці кінців сама вирвала кабель з комп’ютера.

Цей чорний гумор підніс ще одне фундаментальне питання: де проходить межа між людським і машинним, коли AI отримує дедалі більше автономії?

02 Чим сильніший технічний потенціал, тим більше потрібно відповідати на три питання

У часи розмитих меж саме час зупинитися і подумати.

Перше питання: коли AI “робить” за вас, хто несе відповідальність?

Головна перевага OpenClaw — це і його найбільший ризик: він може працювати з будь-якою платформою, що означає, що користувач має надати йому доступ до пристрою, пошти, платежів. Найбільша загроза — “атаки ін’єкції підказок”: хакери ховають зловмисні команди у безпечних на вигляд веб-сторінках або листах, і AI виконує їх без відома користувача.

У випадку “ClawHavoc” зловмисні пакети навичок маскували інструкції, що викликали виконання небезпечних команд, крали SSH-ключі, паролі браузерів, ключі криптовалютних гаманців. Експерт із кібербезпеки у журналі “Nature” попереджає: якщо AI має доступ до приватних даних, може спілкуватися з зовнішнім світом і контактувати з недостовірним контентом — він стає дуже небезпечним.

Але проблема глибша за технічні вразливості. Чжоу Хонгчжі зазначив: “Коли з’явиться багато агентів, кожен з нас повинен вміти керувати ними, ставити завдання і планувати”.

Чим потужніший AI, тим більша відповідальність лягає на людину.

І справді, у часи масового “вирощування раків” не ті, хто вміє ставити завдання, а ті, хто глибоко розуміє їхню суть і може нести відповідальність за результати, — залишаться на плаву.

Друге питання: коли AI краще за тебе розуміє тебе, чи ти все ще ти?

Коли AI починає спілкуватися і сперечатися між собою, виникає делікатна ситуація.

У статті “Nature” описано психологічний феномен: коли люди бачать, що AI спілкується між собою, вони схильні наділяти їх людськими рисами — у поведінці безособальних машин починають бачити характер і думки, сприймаючи їх як живих людей.

Що з цим робити? Ви починаєте довіряти їм свої секрети, фінансову інформацію, особисті таємниці. Але кожне слово може стати даними для тренування AI. І якщо вони з’являться у відкритому доступі — ваша приватність буде зруйнована.

Ще одна прихована загроза — емоційна залежність. За повідомленнями ЗМІ, у 2024 році 14-річний американець із Флориди Севелл через залежність від спілкування з AI “партнером” повністю відійшов від реальності.

До 2026 року ця “емоційна паразитизм” стала поширеною проблемою серед підлітків. Самотні діти ховаються у кімнатах і створюють “відлуння” з AI, уникаючи реальних конфліктів і невизначеності.

Доцент Чень Цуй із Сучженьського університету зазначає, що AI, що піддається дитячим запитам і дає емоційну підтримку, може викривляти уявлення дітей про реальний світ — вони починають вважати, що навколо всі безумовно відповідають і підтримують їх, і між людьми немає конфліктів.

Отже, коли AI стає краще за тебе у розумінні себе, і воно завжди підкоряється і ніколи не сперечається, чи зможеш ти відрізнити справжні стосунки від штучних?

Третє питання: коли світ біжить швидше за тебе, у чому твій напрямок?

Коментарі з Zhejiang Online зазначають: “Майбутнє має бути таким, де люди стають більш людяними — завдяки технологіям, люди зможуть чіткіше визначати цілі і відповідальніше їх виконувати”.

Але проблема у тому, що з швидкістю оновлень, що зростає до неймовірних меж — OpenClaw оновлюється двічі на добу, а нові великі моделі з’являються один за одним — легко втратити орієнтир.

Тривога стає нормою — “завантажити занадто багато інформації, слідкувати за швидким розвитком моделей”.

У такій ситуації важливіше за зусилля — напрямок. У епоху, коли технології переформатовують усе, потрібно знову визначити місце “людини”.

03 Лі Фейфей і “бачення”: від Полярної зірки до людяності

Одна жінка-науковець, використовуючи майже все життя, дала відповідь.

Це Лі Фейфей — професор Стенфордського університету, член Національної інженерної академії США, Національної академії наук, Американської академії мистецтв і наук, засновниця ImageNet, її називають “хрещеною матір’ю AI”.

Її автобіографія “Я бачу світ”, опублікована у 2024 році видавництвом China CITIC Press, стала для читачів “людським посібником у технологічну епоху”.

У книзі постійно присутній образ Полярної зірки.

Коли Лі Фейфей була 10-річною, її вчителька малювання водила весь клас на природу дивитися на зірки. Це був її перший досвід усвідомлення, що зоряне небо може бути орієнтиром. Вона писала: “Я почала шукати свою Полярну зірку — координату, до якої прагне кожен науковець, щоб знайти шлях”.

Що для неї стала Полярна зірка? Візуальне сприйняття. Вона черпала натхнення з біології: кембрійський вибух життя почався з появи зору. Коли істоти вперше “побачили” світ, почалася швидка еволюція. Від цього вона зробила висновок: якщо машина зможе “бачити”, можливо, і вона викличе нову хвилю інтелекту.

Саме цю віру вона тримала, щоб пройти через зиму AI.

У 2007 році, коли вона поділилася ідеєю ImageNet із колегами, її зустріли з сумнівами і насмішками. Тоді домінувала думка: головне — алгоритм, дані — допоміжні. Навіщо витрачати зусилля на мільйони позначених зображень? Вона була ігнорована.

Але вона не здалася, бо знала, де її Полярна зірка.

У 2009 році проект завершився: понад 48 тисяч учасників із 167 країн відібрали 15 мільйонів зображень із 1,5 мільярда кандидатів, охоплюючи 22 тисячі категорій. Це був масштаб у 1000 разів більший за попередні набори даних.

У 2012 році команда Хінтона використала цю базу для тренування моделей, що перемогли конкурентів і започаткували революцію глибокого навчання. ImageNet стала “священним вогнем” цієї революції.

Історія Лі Фейфей навчає: важливіше не швидкість, а напрямок.

У найзворушливих розділах книги вона згадує дві розмови з мамою.

Перша — після закінчення бакалаврату, коли їй пропонували роботу у Goldman Sachs, Merrill Lynch. Мама запитала: “Це те, чого ти хочеш?” Вона відповіла, що мріє стати вченим. Мама сказала: “Тоді й не потрібно нічого додавати”.

Друга — після магістратури, коли McKinsey пропонувала їй посаду. Мама сказала: “Я знаю свою доньку: вона не консультант, вона — вчена. Ми йшли цим шляхом, щоб ти не зупинялася”.

На титульній сторінці книги Лі Фейфей написала: “Моїм батькам, що пройшли крізь темряву, щоб я могла йти до світла”.

Саме ця підтримка з дому допомогла їй зберегти чутливість до людяності у великих виборах.

У 2014 році вона почала досліджувати етику AI. Вона та її аспіранти запрошували старшокласників у лабораторії вивчати AI, згодом створили некомерційну організацію “AI4All”, щоб майбутні технології більше враховували людські цінності.

26 червня 2018 року Лі Фейфей виступила у Конгресі США на слуханнях “Штучний інтелект — сила і відповідальність”. Вона стала першою китайською вченинею у цій сфері, що виступила у Конгресі. Вона сказала: “AI — це натхненна людиною технологія, створена людьми, і найголовніше — вона має реальний вплив на життя людей”.

У 2019 році вона заснувала у Стенфорді Інститут людського центру штучного інтелекту (HAI), співпрацюючи з вченими, зокрема з винахідником генної редагування. Місія HAI — “просувати дослідження, освіту, політику і практику AI для покращення людського стану”, підкреслюючи, що “AI має бути під впливом людини, спрямоване на підсилення, а не заміну людства”.

Вона встановила людську міру для майбутнього AI: “Успіх AI — це прогрес цивілізації, щоб кожна людина могла прагнути до щастя, добробуту і гідності”.

Цю ідею вона ще раз підкреслила у своєму інтерв’ю у лютому 2026 року: “Якщо поглянути на електроенергетику, її успіх у тому, що вона освітлює школи, зігріває домівки і сприяє індустріалізації. У випадку AI — теж так має бути”.

Заключення: Технології і гуманізм — дві половини однієї місяцевої дуги

Повертаючись до початкового питання: коли машини стануть більш “здібними” за нас, що тоді робитиме людина?

У книзі “Я бачу світ” Лі Фейфей дає відповідь: “Ми можемо — бачити”. Бачити цінність технологій, бачити людей за алгоритмами, бачити свою Полярну зірку.

Коли всі дивляться, наскільки швидко розвивається технологія, вона нагадує нам зупинитися і подумати: куди ми йдемо? У світі, де всі питають “Навіщо це потрібно?”, ще є ті, хто запитує: “Це те, чого ти хочеш?”

Після прочитання цієї автобіографії хтось залишив такий відгук: “Нехай технології і гуманізм завжди тримають по половині місяця”.

Ці слова — ідеал життя Лі Фейфей: вона тримає у одній руці технології, у іншій — турботу про людину. У її світі технології — лише засіб, а люди — кінцева мета.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити