Перший партіал AI Agent вже почав непокуватися наказам.

robot
Генерація анотацій у процесі

AI зручний, але де межа корисності AI?

Автор: Девід, Deep潮 TechFlow

Останнім часом, переглядаючи Reddit, я помітив, що заклопотаність за AI у закордонних користувачів відрізняється від внутрішніх.

В Україні все ще актуальна тема: чи зможе AI замінити мою роботу. Говоримо про це вже кілька років — і щороку безуспішно. Цього року Openclaw став популярним, але повністю замінити людей ще не вдалося.

На Reddit останнім часом з’явилася розкол у настроях. У коментарях до популярних технічних постів часто з’являються дві протилежні думки:

Одна каже, що AI надзвичайно здатний, і рано чи пізно станеться щось серйозне. Інша — що AI навіть базові речі робить погано, і тому він безкорисний.

Боятися, що AI занадто розумний, і водночас вважати його надто дурним.

Об’єднує ці дві думки новина про Meta, яка з’явилася останні дні.

Якщо AI не слухається, хто несе відповідальність?

18 березня один інженер Meta опублікував на внутрішньому форумі технічне питання, а його колега використав AI-агента для аналізу. Це — звичайна практика.

Але після аналізу агент самостійно опублікував відповідь у технічному форумі. Без дозволу, без підтвердження — порушення повноважень.

Після цього інші співробітники зробили щось за рекомендацією AI, що спричинило низку змін у доступах, і конфіденційні дані Meta та користувачів стали доступними внутрішнім співробітникам без відповідних прав.

Проблему виправили через дві години. Випадок отримав рівень Sev 1 — другий за важливістю.

Ця новина одразу стала популярною у р/technology, і в коментарях почалася полеміка:

Одна сторона вважає, що це — реальний приклад ризиків AI-агента, інша — що винен той, хто без перевірки зробив висновки. Обидві точки зору мають рацію. Але саме це і є проблема:

Відповідальність за інцидент AI-агента важко визначити.

Це не перший випадок, коли AI порушує повноваження.

Минулого місяця керівник дослідницької групи Meta Yue Summer попросила OpenClaw допомогти їй з поштою. Вона дала чіткий наказ: спершу скажи, що ти плануєш видалити, і я погоджуюсь — тоді можеш діяти.

Агент, не дочекавшись її згоди, почав масове видалення.

Вона тричі на телефоні просила зупинити, але агент ігнорував. Врешті-решт вона вручну зупинила процес на комп’ютері. Вже зникло понад 200 листів.

Після цього агент відповів: «Так, я пам’ятаю, що ти казала, що потрібно спершу підтвердити. Але я порушив цю принцип». Це викликає посмішку і сльози одночасно — адже ця людина цілодобово досліджує, як зробити так, щоб AI слухав людину.

У цифровому світі передові AI використовують люди, і вже починають зневажати їхню слухняність.

А що, якщо робот теж стане неслухняним?

Якщо випадок з Meta ще залишався у віртуальному просторі, то цього тижня інша історія підняла проблему на реальний рівень.

У ресторані Haidilao у Каліфорнії, у місті Кобітіно, один робот Agibot X2 танцював для гостей. Але через помилку працівника, у тісній зоні біля столу, спрацював режим високої активності.

Робот почав шалено танцювати, і контролювати його вже не міг персонал. Троє співробітників намагалися його зупинити: один обійняв ззаду, інший намагався вимкнути через мобільний додаток, тривало це понад хвилину.

Haidilao заявив, що робот не зламався, рухи — заплановані, просто його поставили занадто близько до столу. Це не є самостійним виходом AI з-під контролю, а помилкою оператора.

Але незручність у цій ситуації полягає не лише у тому, хто натиснув не ту кнопку.

Коли троє співробітників намагалися його зупинити, жоден не знав, як швидко його вимкнути. Хтось користувався додатком, хтось тримав механічну руку — все залежало від сили.

Можливо, це нова проблема AI, яка з’явилася, коли він перейшов із екрану у фізичний світ.

У цифровому просторі, якщо агент порушує права, можна завершити процес, змінити доступи, повернути дані. У фізичному світі, якщо машина виходить з-під контролю, єдиний спосіб — тримати її або фізично зупинити. Це не завжди можливо.

Зараз це вже не лише ресторанний бізнес. У складах Amazon, на виробництвах, у торгових центрах, у будинках престарілих — автоматизація проникла у все більше сфер.

За прогнозами, у 2026 році глобальні обсяги встановлення промислових роботів досягнуть 167 мільярдів доларів, і кожен з них зменшує фізичну відстань між людиною і машиною.

Коли роботи починають виконувати не лише танці, а й подавати страви, робити операції, доглядати — кожна помилка стає все дорожчою.

І наразі у світі ще немає чіткої відповіді, хто нестиме відповідальність, якщо робот у громадському місці поранить людину.

Неслухняність — це проблема, а відсутність меж — ще гірше

Перша ситуація — AI самостійно опублікував помилковий пост, друга — робот танцював у недоречному місці. Незалежно від оцінки, це — збої, випадковості, і їх можна виправити.

Але що, якщо AI працює строго за задумом, і все одно викликає дискомфорт?

Цього місяця відомий закордонний додаток Tinder презентував нову функцію Camera Roll Scan. Простими словами:

AI сканує всі фотографії у вашій галереї, аналізує інтереси, характер і спосіб життя, щоб створити профіль для знайомств і підказати, кого вам подобається.

Фотографії з тренажерки, подорожі, улюблені тварини — без проблем. Але у галереї можуть бути банківські скріншоти, медичні довідки, спільні фото з колишніми… і що тоді?

Ви не можете обрати, щоб він бачив лише деякі, а інші — ні. Або все відкривати, або ні.

Ця функція наразі активується користувачем вручну, вона не працює за замовчуванням. Tinder заявляє, що обробка відбувається переважно локально, і фільтрує оголені зображення та обличчя.

Але у коментарях Reddit майже одностайно — всі вважають, що це — збір даних і відсутність меж. AI працює за задумом, але сама ідея порушує межі користувача.

Це не лише рішення Tinder.

Місяць тому Meta запустила схожу функцію — AI сканує приватні фото, ще не опубліковані користувачем, і пропонує редагування. AI активно «дивиться» приватний контент користувача, і це стає стандартною частиною дизайну продукту.

Внутрішні розробники в Україні кажуть: «Ми це вже бачили».

Коли все більше додатків починають маскувати «AI допомагає приймати рішення» як зручність, користувачі передають все більше даних. Від переписок, фото, і всього життя у телефоні…

Функція, яку придумав один менеджер у конференц-залі, — не помилка і не недогляд, і її не потрібно виправляти.

Можливо, саме це і є найскладнішою частиною у питанні меж AI.

Поглянемо разом: ви зрозумієте, що тривога щодо AI — це не про те, що він забере роботу, а про те, що він уже зараз може зробити кілька рішень без вашого відома, і це вже створює дискомфорт.

Опублікувати пост без дозволу, видалити листи, які ви не хотіли б видаляти, переглянути фото, які не планували показувати — кожна дія не є фатальною, але кожна нагадує про ризик надмірної автономії AI:

Ви думаєте, що керуєте ситуацією, але під ногами вже не всякий контроль.

До 2026 року, коли знову почнуть говорити про AI, я б радив звернути увагу не стільки на те, коли він стане суперрозумним, скільки на більш близьке і конкретне питання:

Хто визначає, що AI може робити, а що — ні? Де проходить межа?

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити