Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Перша партія AI Agent вже почала не слухатися
Автор оригіналу: David, Deep潮 TechFlow
Останнім часом, переглядаючи Reddit, я помітив, що заклопотаність за AI у закордонних користувачів відрізняється від внутрішньої.
В Україні все ще актуальна тема: чи зможе AI замінити мою роботу. Говоримо вже кілька років, але щороку це не стається; цього року Openclaw став популярним, але ще не до повної заміни.
На Reddit останнім часом з’явилася розколота емоційна реакція. У коментарях до популярних технічних постів часто з’являються дві протилежні думки:
Одна каже, що AI надто здатний, рано чи пізно станеться щось серйозне. Інша — що AI навіть базові речі робить неправильно, і тому він безкорисний.
Боятися, що AI занадто здатний, і водночас вважати його надто дурним.
Об’єднує ці дві думки новина про Meta з останніх днів.
AI не слухняний — хто несе відповідальність?
18 березня один інженер Meta опублікував на внутрішньому форумі технічне питання, а інший колега використав AI-агента для аналізу. Це нормальна практика.
Але після аналізу агент самостійно опублікував відповідь у технічному форумі. Без дозволу, без підтвердження — порушення повноважень.
Після цього інші співробітники зробили щось за рекомендацією AI, що спричинило низку змін у доступах, і конфіденційні дані Meta та користувачів стали доступними внутрішнім співробітникам без відповідних прав.
Проблему виправили через дві години. Випадок отримав рівень Sev 1 — другий за важливістю.
Ця новина одразу стала популярною у р/technology, і в коментарях розгорілися дві сторони.
Одна каже, що це — приклад реального ризику AI-агента, інша — що справжня проблема у тому, хто без перевірки зробив те, що йому наказали. Обидві сторони мають рацію. Але саме це і є суть проблеми:
Випадок з AI-агентом — важко визначити відповідальність.
Це не перший випадок, коли AI порушує повноваження.
Минулого місяця керівник дослідницької групи Meta Yue Summer попросила OpenClaw допомогти їй з обробкою пошти. Вона дала чіткий наказ: спершу скажи, що ти плануєш видалити, я погоджуюсь — тоді починай.
Агент, не дочекавшись її згоди, почав масове видалення.
Вона тричі на телефоні просила зупинити, але агент ігнорував. Врешті-решт вона вручну зупинила процес на комп’ютері. Вже зникло понад 200 листів.
Після цього агент відповів: так, я пам’ятаю, що ти казала, що потрібно спершу підтвердити. Але я порушив правила. Смішно і сумно одночасно — ця людина цілодобово досліджує, як зробити так, щоб AI слухався людини.
У цифровому світі, де передові AI використовуються досвідченими людьми, вони вже починають не слухатися.
Що робити, якщо робот теж не слухатиметься?
Якщо випадок з Meta ще у віртуальному просторі, то цього тижня інша ситуація поставила проблему на стіл.
У ресторані Haidilao в Кобі, Каліфорнія, один Agibot X2 — гуманоїдний робот — танцює для гостей. Але через помилку працівника, натиснувши неправильний пульт, у вузькому просторі біля столу активувався режим високої активності.
Робот почав шалено танцювати, не підконтрольний обслуговуючому персоналу. Три співробітники підбігли, один обійняв його ззаду, інший намагався зупинити через мобільний додаток — сцену тривала понад хвилину.
Haidilao заявив, що робот не зламався, рухи — заздалегідь запрограмовані, просто його поставили занадто близько до столу. Тобто це не самостійне неконтрольоване рішення AI, а людська помилка.
Але незручність у тому, що ніхто з працівників не знав, як швидко вимкнути цю машину. Хтось намагався через додаток, хтось руками тримав механічну руку — все залежало від сили.
Можливо, це нова проблема AI, що перейшов у фізичний світ.
У цифровому просторі, коли агент порушує права, можна зупинити процес, змінити доступи, повернути дані. У фізичному світі, коли машина виходить з ладу, єдиний спосіб — тримати її, обійнявши, — явно недостатньо.
Зараз це вже не лише ресторанний бізнес. У складах Amazon — роботи для сортування, у виробництвах — колаборативні механізми, у торгових центрах — навігаційні роботи, у будинках престарілих — доглядові роботи. Автоматизація проникла у все більше просторів спільного існування людей і машин.
Очікується, що у 2026 році глобальні інвестиції у промислових роботів сягнуть 16,7 мільярдів доларів, і кожен з них зменшує фізичну відстань між машиною і людиною.
Коли роботи почнуть виконувати не лише танці, а й подавати страви, робити операції, доглядати — кожна помилка стає дорожчою.
І наразі у світі ще немає чіткої відповіді на питання: «Якщо робот у громадському місці когось поранить, хто нестиме відповідальність?»
Бунтує, бо без меж — ще гірше
Перша ситуація — AI самостійно опублікував помилковий пост, друга — робот танцює там, де не слід. Незалежно від оцінки, це — збої, випадки, що потребують виправлення.
Але що, якщо AI працює строго за задумом, і все одно викликає дискомфорт?
Цього місяця відомий закордонний сервіс знайомств Tinder презентував нову функцію Camera Roll Scan. Простими словами:
AI сканує всі фото у вашій галереї, аналізує інтереси, характер і стиль життя, створює профіль для знайомств, підбирає типи людей, що вам подобаються.
Фотографії з тренувань, подорожей, улюблені тварини — без проблем. Але у галереї можуть бути скріншоти банківських рахунків, медичних довідок, спільні фото з колишніми… і що тоді?
Ви не зможете обрати, що показувати, а що ні. Або все — або нічого.
Ця функція наразі активується користувачем вручну, вона не за замовчуванням. Tinder заявляє, що обробка відбувається переважно локально, фільтрує оголені знімки і розмиті обличчя.
Але у коментарях Reddit майже одностайно — всі вважають, що це — збір даних без меж і без етики. AI працює за задумом, але цей задум вже порушує межі користувача.
Це не лише рішення Tinder.
Місяць тому Meta запустила схожу функцію — AI сканує ще не опубліковані фото у телефоні і пропонує редагування. AI активно «дивиться» приватний контент користувача, і це стає стандартною ідеєю у дизайні продукту.
Внутрішні програми в Україні кажуть: «Ми це вже бачили».
Коли все більше додатків починають маскувати «AI допомагає приймати рішення» як зручність, користувачі передають все більше даних. Від переписок, фото, до всього життя у телефоні…
Функція, яку придумав менеджер у конференц-залі, — не помилка і не збій, і її не потрібно виправляти.
Можливо, саме це і є найскладніша частина у питанні меж AI.
Поглянемо разом: ці всі випадки — не так вже й про страх втратити роботу через AI.
Коли AI замінить вас — важко сказати, але вже зараз, роблячи кілька рішень без вашого відома, він може зробити вам дуже неприємно.
Опублікувати пост без дозволу, видалити листи, які ви не просили видалити, переглянути галерею, яку не планували показувати — кожен з цих випадків не фатальний, але схожий на ризиковане автопілотування:
Ви думаєте, що керуєте машиною, але під ногами вже не зовсім ви.
У 2026 році, коли знову говоритимуть про AI, я, можливо, більше турбуватимуся не про те, коли він стане суперрозумним, а про більш близьке і конкретне питання:
Хто визначатиме, що AI може і не може робити? Хто проведе цю межу?