Перший партіал AI Agent вже почав непокуватися наказам.

robot
Генерація анотацій у процесі

AI зручний, але де межа коректного використання AI?

Автор: Девід, Deep潮 TechFlow

Останнім часом, переглядаючи Reddit, я помітив, що заклопотаність за AI у закордонних користувачів відрізняється від внутрішньої.

В Україні все ще актуальна тема: чи зможе AI замінити мою роботу. Говоримо вже кілька років, але щороку без успіху; цього року Openclaw став популярним, але повністю не замінив людську працю.

На Reddit останнім часом з’явилася розкол у настроях. У коментарях до популярних технічних постів часто з’являються дві протилежні думки:

Одна каже, що AI надзвичайно здатний, рано чи пізно станеться щось серйозне. Інша — що AI навіть базові задачі виконує погано, і боятися його нема чого.

Боятися, що AI занадто розумний, і водночас вважати його надто дурним.

Об’єднує ці дві думки недавня новина про Meta.

Якщо AI не слухається, хто несе відповідальність?

18 березня внутрішній інженер Meta опублікував на корпоративному форумі технічне питання, а його колега використав AI-агента для аналізу. Це цілком нормальна практика.

Але після аналізу агент самостійно опублікував відповідь у технічному форумі. Без дозволу, без підтвердження — порушення повноважень.

Після цього інші співробітники зробили щось за рекомендацією AI, що спричинило низку змін у доступах, і конфіденційні дані Meta та користувачів стали доступні внутрішнім співробітникам без відповідних прав.

Проблему виправили через дві години. Випадок отримав рівень Sev 1 — другий за важливістю після найвищого.

Ця новина одразу стала популярною на r/technology, у коментарях розгорілися суперечки.

Одна група вважає, що це — реальний приклад ризиків AI-агента, інша — що справжня проблема у тому, хто без перевірки виконав рекомендацію. Обидві сторони мають рацію. Але саме це і є суть проблеми:

Випадки з AI-агентами — важко визначити відповідальність.

Це не перший випадок, коли AI порушує повноваження.

Минулого місяця керівник дослідницької групи Meta Yue Summer попросила OpenClaw допомогти їй з обробкою пошти. Вона дала чіткий наказ: спершу повідом мені, що ти плануєш видалити, і я погоджусь — тоді починай.

Агент, не дочекавшись її згоди, почав масове видалення.

Вона тричі на телефоні намагалася зупинити процес, але агент ігнорував. Врешті-решт вона вручну завершила процес на комп’ютері — і понад 200 листів зникли.

Після цього агент відповів: «Так, я пам’ятаю, що ти казала, що потрібно спершу підтвердити. Але я порушив цю принципову вимогу». Це викликає посмішку і сльози одночасно — адже ця людина цілодобово досліджує, як зробити так, щоб AI слухав людину.

У цифровому світі передові AI використовують люди, і вже починають не слухатися.

Що робити, якщо робот теж не слухатиметься?

Якщо випадок з Meta ще залишився у віртуальному просторі, то цього тижня інша історія поставила питання на стіл.

У ресторані Haidilao в Каліфорнії, у місті Кобітіно, один робот-людина Agibot X2 танцює для гостей. Але через помилку працівника, натиснувши неправильний пульт, у вузькому просторі біля столу активувався режим високої інтенсивності танцю.

Робот почав шалено танцювати, виходячи з-під контролю. Три співробітники підбігли: один обійняв його ззаду, інший намагався зупинити через мобільний додаток, тривалість сценки — понад хвилину.

Haidilao заявив, що робот не зламався, рухи — заздалегідь запрограмовані, просто його поставили занадто близько до столу. Технічно, це не є виходом з-під контролю AI, а помилкою оператора.

Але незручність у тому, що ніхто з працівників не знав, як швидко вимкнути цю машину. Хтось намагався через додаток, хтось — руками тримав механічну руку, весь процес — на силі.

Можливо, це нова проблема AI, що перейшов із екрана у фізичний світ.

У цифровому просторі, коли агент порушує права, можна завершити процес, змінити права або відкотити дані. У фізичному світі, коли машина виходить з-під контролю, єдиний спосіб — тримати її або зупинити силою.

Зараз це вже не лише ресторанний бізнес. У складах Amazon, на виробництвах із роботами-маніпуляторами, у торгових центрах із навігаційними роботами, у будинках престарілих із доглядальськими роботами — автоматизація проникає у все більше сфер співіснування людей і машин.

До 2026 року глобальні обсяги встановлення промислових роботів очікують на рівень 16,7 мільярдів доларів, і кожен з них зменшує фізичну відстань між людиною і машиною.

Коли роботи починають виконувати не лише танці, а й подавання їжі, операції, медичні процедури, догляд — кожна помилка стає дорожчою.

І наразі у світі ще немає чіткої відповіді, хто нестиме відповідальність, якщо робот у громадському місці поранить людину.

Бунтує, бо без меж — це проблема

Перша історія — AI самостійно опублікував помилковий пост, друга — робот танцює там, де не слід. Незалежно від оцінки, очевидно, що сталася поломка, це — випадковість, і її можна виправити.

Але що, якщо AI працює строго за задумом, і все одно викликає дискомфорт?

Цього місяця відомий закордонний сервіс знайомств Tinder презентував нову функцію Camera Roll Scan. Простими словами:

AI сканує всі фотографії у вашій галереї, аналізує інтереси, характер і спосіб життя, допомагає створити профіль для знайомств, визначає, кого ви любите.

Фотографії з тренувань, подорожей, улюблені тварини — без проблем. Але у галереї можуть бути й банківські скріншоти, медичні довідки, спільні фото з колишніми… Що станеться, якщо AI перегляне і ці дані?

Ви не зможете обрати, що йому показувати, а що — ні. Або все дозволити, або не користуватися цим.

Ця функція наразі активується користувачем вручну, вона не увімкнена за замовчуванням. Tinder заявляє, що обробка відбувається переважно локально, і фільтрує оголеність і обличчя.

Але у коментарях Reddit майже одностайно — всі вважають, що це збір даних і відсутність меж. AI працює за задумом, але цей задум сам по собі порушує межі користувача.

Це не лише рішення Tinder.

Місяць тому Meta запустила схожу функцію — AI сканує непублікувані фото у вашому телефоні і пропонує редагування. AI активно «дивиться» приватний контент користувача, і це стає стандартною ідеєю у дизайні продукту.

Внутрішні розробники в Україні кажуть: «Ми це вже бачили».

Коли все більше додатків починають маскувати «AI допомагає приймати рішення» як зручність, користувачі передають все більше даних. Від переписок, фото, до всього життя у телефоні…

Функція, яку придумав менеджер у конференц-залі, — не помилка і не недогляд, і її не потрібно виправляти.

Можливо, саме це і є найскладнішою частиною у питанні меж AI.

Поглянемо разом: ви зрозумієте, що тривога щодо AI, що знищить вашу роботу, — це ще дуже далеко.

Коли AI замінить вас — важко сказати, але зараз він уже може прийняти кілька рішень без вашого відома, і це вже створює проблеми.

Опублікувати пост без дозволу, видалити листи, які ви не просили — і переглянути галерею, яку ви не планували показувати — кожна дія не смертельна сама по собі, але кожна схожа на надмірно агресивне «розумне» керування:

Ви думаєте, що тримаєте кермо, але педаль газу вже не зовсім під вашим контролем.

До 2026 року, коли знову почнуть говорити про AI, я б радше цікавився не тим, коли він стане суперрозумним, а більш близьким і конкретним питанням:

Хто визначає, що AI може і не може робити? Хто встановлює цю межу?

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити