“Звільнений колега був перетворений і став цифровим безсмертям”

robot
Генерація анотацій у процесі

Нещодавно ігрова медіакомпанія в провінції Шаньдун спробувала перетворити звільнених працівників на AI-цифрових аватарів, щоб вони продовжили роботу. Тема #公司用AI复刻离职员工继续工作# невдовзі піднялася в тренди, викликавши підвищену увагу.

За повідомленнями ЗМІ, один із працівників компанії заявив, що це смілива спроба компанії. У цій історії колеги справді були звільнені; після його згоди він сам вважає це доволі забавним. Перед звільненням цей колега працював фахівцем із кадрів; цифрові клон-версії наразі можуть виконувати прості роботи на кшталт консультацій, запрошень, створення PPT і таблиць. Є трохи “глупуватості”, тож вони можуть реагувати лише на деякі прості команди.

Хоча причетній особі це не байдуже, в інтернеті це спричинило справжній вибух обговорень. «Колегу перетворили на “сировину”», «Мої всі зусилля стали цифровим паливом», «Якщо дивитися з позитивного боку, це ж цифрове безсмертя»… Напруження, безвихідь і гірка усмішка — стали колективними емодзі в коментарях. Тож чому поява цифрового двійника звільненого працівника змусила користувачів так сильно нервувати?

I

«Цифрові працівники» — це не раптовий порив, а технологія, яка поступово «набуває форми».

За повідомленнями, у середовищі AI вже є проєкт під назвою «同事.Skill». Його функція полягає в тому, щоб, використовуючи робочі дані звільненого колеги, за допомогою AI генерувати цифрових «колег», здатних замінити його роботу. Як тільки проєкт було опубліковано, він одразу вибухнув популярністю, а хтось навіть створив похідні продукти — «老板.Skill», «前任.Skill» та інші.

Якщо говорити про те, наскільки ця технологія «просунута», то насправді не дуже. Професіонали, що її розбирали, зазначили: наразі «цифровий працівник» — це по суті промпт, який відповідає стандарту навичок для агентів, + проєкт для парсингу (crawler). Тобто це як видати акторові сценарій: хай він грає у стилі сценарію. Цей агент ні пам’яті не має, не пам’ятає, що йому казали вчора, і не може дистилювати «професійні знання та логіку суджень».

Скажімо прямо: це майже нічим не відрізняється від папуги, що вчиться наслідувати. Принаймні на сьогодні такі цифрові двійники не можуть, як справжній працівник, «вирівняти деталізацію», «реалізувати замкнений цикл проєкту», «пробити базову логіку», а тим більше «взяти провину на себе».

Тож чому все ж це змушує працівників у сфері праці нервувати?

Ймовірно, це ефект «жахливої долини» (uncanny valley): коли AI стає достатньо схожим на «людину», але в ключових місцях чітко не є «людиною», люди інстинктивно відчувають невідповідність і неспокій. Це незруччя походить від зсуву на рівні сприйняття: він імітує людське формулювання, інтонацію та логіку поведінки, але не має справжнього розуміння й підтримки досвідом. Тому виникає стан одночасно знайомий і незнайомий.

Хоча цифрові двійники зараз ще не настільки розумні, усі знають: вони не як роботи — це залишкове відображення колеги, що пішов. Тут «схожість є, а сутність — ні» (形似而神离): їх не можна повністю розглядати як інструмент, і так само важко справді вважати це людиною.

Саме тому людям стає тривожно — не тому, що сам цей об’єкт такий вже «крутий», а через розхитування меж: «людину» та «не-людину» ще можна чітко розмежувати?

II

Бурхливий розвиток AI породив тенденцію: людина наче втрачає контроль над собою. Те, що ми вважаємо власними рисами характеру, логікою мислення, манерою дій — усі ці «людяності» ніби можна перетворити на дані.

Це не якась безпідставна тривога. Нещодавно за кордоном розгорілися дискусії — про «капіталізм нагляду». Йдеться про те, як великі компанії в галузях технологій, інформації та соціальних медіа системно позбавляють особистих даних і привласнюють їх. Обсяги збирання даних величезні, вони створюють умови для потужних алгоритмів і систем машинного навчання, тож ті можуть прогнозувати поведінку людей. Такий нагляд надзвичайно нерівний: одна сторона може бачити іншу, а друга не бачить першої.

Працюючі люди також навряд чи можуть уникнути цього: звичайні люди один за одним перетворюються на дані, входять у систему платформ та організацій. Усе: звички висловлюватися, траєкторії суджень, стилі комунікації — розбирається на модулі, які можна повторно використовувати. Досвід перестає бути лише «пережитим», і стає «активом», який можна копіювати й викликати. Людина ніби витягується в набір даних, які будь-коли можна викликати; натомість лишається модель, а зникає суб’єкт.

У цьому процесі виграє компанія, а ще й ті працівники, які ще не пішли (отримують віртуальну «компанію» колишнього колеги). Але справжня «збережена» особа (дані) дедалі більше опиняється за межами розподілу цінності.

Звідси людина, здається, перетворюється на певною мірою витратний матеріал. Як тільки дані витягнуті — цінність зникає. Уявити цю сцену — і вже стає дуже тривожно.

Багато хто, мабуть, захоче запитати: чи можна захистити свої права за допомогою законів?

Вже є юристи, які заявили, що така дистиляція даних імовірно порушує закон. Чат-записи звільненого працівника, робочі листи, особисті робочі звички тощо належать до «персональної інформації», яку визначає Закон про захист персональної інформації. Причому конфіденційні матеріали комунікації, що стосуються приватного спілкування, можуть також утворювати чутливу персональну інформацію. Збирання та використання цього типу даних для навчання AI без згоди працівника — це пряма шкода його правам на збір, використання та обробку персональної інформації.

Крім того, згідно з «Тимчасовими положеннями про управління сервісами генеративного штучного інтелекту», провайдери сервісів генеративного AI мають здійснювати обробку навчальних даних, зокрема проведення попереднього тренування та оптимізаційного тренування, відповідно до закону. Якщо ці дані стосуються персональної інформації, потрібно отримати особисту згоду або дотримати інших випадків, передбачених законом чи адміністративними нормативно-правовими актами.

Але об’єктивно кажучи, тут є досить багато «сірі зони». Приватні чати, листи в поштових скриньках, можливо, можна визнати приватністю. А як щодо висловлювань у групових чатах, написання звітів, виступів на зустрічах? Чи можна зажадати від компанії не збирати контент, який пов’язаний із робочою посадою та опублікований у публічних місцях?

Якщо чесно, для компаній цінним навряд чи є щось на кшталт «стилю говоріння». Це радше форма мистецтва заради жарту, не те, що найбільше хвилює босів; на що найчастіше дивляться пильніше, — це ті частини, які можна осісти у процесах, судженнях і досвіді.

Але все, що осідає, високо пов’язане з роботою, тому «власність» тут, мабуть, дуже складно визначити. Невже можна сказати: працівник звільнився, тож забирає з собою всі протоколи й підсумки обговорень, у яких він брав участь? Та навіть якщо AI вчитиметься, хіба до звільнення хтось не міг би так само нормально зробити «передачу»?

III

Звісно, це не означає, що «все впало» для працівників. Результати роботи можуть мати публічний характер, але особиста інформація в цьому все одно залишається приватною. Наприклад, якщо звіт оприлюднений, тоді в чат-записах залишені персональні дані на кшталт «я сиджу над роботою в кав’ярні поруч із домом» або «в мене зараз хвороба, тож здаватиму трохи пізніше» — чи можна чітко визначити їх як персональну інформацію та відмовити компанії в зловживанні?

Можливо, це питання надто деталізоване, але саме воно вирішує, чи межа взагалі може бути реально встановлена. І лише в цих, як здається, непомітних сценаріях можна розрізнити «що можна використовувати, а що не можна», «що є роботою, а що — приватністю», щоб особа не була повністю «запакована» і без розрізнення «дистильована» у процесі перетворення на дані.

Чим ясніші стануть правові приписи, тим принаймні це буде певним заспокоєнням: можливо, працівникам складно уникнути «вичавлювання» цінності, але хоча б можна уникнути «перетворення на “сировину”», зберегти суб’єктність людини як людини.

Якщо уважно подумати, найбільше цифроклонів бояться не сучасного «нового» типу професій, а все ще традиційної моделі роботи: контент механічний, процеси максимально стандартизовані, основа — здебільшого емпіризм. Така робота зрештою найпростіша для розбору: щойно станеться «дистиляція», все видно як на долоні, і замінити це можна швидко. І це питання, можливо, не лише цифроклони створюють загрозу; достатньо, щоб із прогресом технологій небезпека прийшла.

Дискусія, яку спричинили ці цифрові двійники, насправді є ще й нагадуванням: треба якнайшвидше рятувати себе. Це навіть може стати зворотним нагадуванням: чому ми не можемо спершу «перетворити на “сировину”» себе самі?

Це не означає, що нам потрібно копіювати себе. Це надто дивно. Натомість ми маємо оволодіти можливостями AI: ті частини, які можна витягнути й очистити, треба заздалегідь системно підготувати, структуризувати — визначити їх і використати самостійно: які досвіди можна повторно використовувати, які судження можна осадити у вигляді методів, які процеси можна передоручити інструментам.

Одним реченням: передайте системі ті частини, які можна копіювати; а ті частини, які не можна замінити, залиште на собі.

Це схоже на нещодавно поширену «хвилю вирощування креветок»: хоча через проблеми безпеки інтерес охолов, той загальнонародний ажіотаж насправді був позитивною установкою — більше не чекати пасивно, поки технології «відберуть», а активно в них брати участь: розуміти, використовувати, якнайшвидше знаходити інструмент, який може замінити механічну працю.

Можливо, це також один із способів відповідати на всі виклики від AI: якнайшвидше звільнитися від надокучливих процесів механічної роботи, а потім повернути свою «людяність» — знайти власну творчу спонтанність, яку не можна передбачити, і протистояти механічному наслідуванню на основі великих даних.

Необхідно побачити: робоче місце вже переформовується. AI не замінить твою роботу, але «той, хто вміє користуватися AI», замінить». Переформатувати себе — це не перетворити себе на дані, а повністю стати тим, кого неможливо визначити даними.

Джерело статті: The Paper (澎湃新闻)

Попередження про ризики та застереження про звільнення від відповідальності

        На ринку є ризики, інвестиції потребують обережності. Ця стаття не є персональною інвестиційною порадою, і не враховує особливі інвестиційні цілі, фінансовий стан чи потреби окремих користувачів. Користувачі мають оцінити, чи відповідають будь-які думки, погляди або висновки в цій статті їхньому конкретному становищу. Інвестуючи на підставі цього, ви берете відповідальність на себе.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити