【Правовий шлях】 Юридичні ризики за лаштунками "AI-робітника" не можна недооцінювати

robot
Генерація анотацій у процесі

Лю Шаохуа

Нещодавно увагу привернула спроба ігрової медіакомпанії з провінції Шаньдун перетворити звільнених працівників на «AI-людей», щоб вони й надалі працювали. Співробітник компанії Сяо Юй повідомив репортерам, що колега в цій історії справді звільнився. Ця спроба була здійснена за його згодою, і він сам також вважає це доволі цікавим. Сяо Юй каже, що до звільнення цей колега працював фахівцем з кадрів, а його цифрова копія нині здатна виконувати нескладні завдання, зокрема надавати консультації, розсилати запрошення, готувати презентації PPT і таблиці тощо.

На перший погляд, це виглядає як цілком нешкідливе технологічне випробування. Звільнений працівник «дав згоду» і «вважає це цікавим», а компанія отримує дешеву, ефективну «цифрову робочу силу». Але якщо зняти зовнішню оболонку, ця, здавалося б, м’яка спроба насправді торкається сірої зони трудових прав у епоху ШІ та технічної етики, і її варто спокійно й уважно розглянути.

З юридичного погляду, хоча ця подія ніби обходить комплаєнс-ризики завдяки «згоді самого себе», це не означає, що нам можна розслабитися. Чат-записи звільненого працівника, робочі електронні листи, його особисті робочі звички тощо належать до особистої інформації, яку визначає Закон «Про захист персональних даних», а не до активів компанії. Для звільненого працівника, якщо він просто через те, що «цікаво», без роздумів поступається своїми правами, це може створити загрози безпеці. Адже така «цифрова копія» дуже легко може встановлювати зв’язок із зовнішнім світом і самим працівником. І якщо цифрова копія порушить права інших осіб, то до відповідальності можуть бути також залучені й самі учасники події.

Крім того, треба з’ясувати, чи ця так звана «згода» справді є достатньо повною та добровільною. У трудово-наймових відносинах працівники часто займають відносно слабшу позицію. Згода на момент звільнення — чи не зазнає вона впливу неписаних правил «розійтися мирно», або міркувань щодо майбутнього рекомендаційного листа та репутації в галузі? Де проходить межа цієї «згоди»? Це стосується лише нинішньої форми «незграбної» копії, чи вона охоплює також «преміум-версію», більш глибоке моделювання його мислення й емоцій, яке може з’явитися після подальших технологічних ітерацій? Коли робочі звички людини, способи спілкування і навіть частина логіки мислення оцифровуються та назавжди зберігаються, чи не позбавляє це «цифрове безсмертя» працівника права «попрощатися з минулим і розпочати нове життя»?

Компанія, яка перетворює звільненого працівника на «AI-людину», розмиває межу між «людиною» та «інструментом», тим самим додатково «опредметнює» працівника. Працівник перестає бути особистістю з унікальними емоціями, креативністю та неповторністю, а стає «функціональним модулем», який можна розібрати, проаналізувати, зібрати заново та безкінечно повторно використовувати. Коли компанія може легко «дистилювати» досвід і стиль працівника в AI, сигнал, який передається, холодний: особистість є замінною, а її ключова цінність — у тій частині, яку можна перетворити на дані. У довгостроковій перспективі це може перетворити робоче середовище на бездушний конвеєр алгоритмів, а суб’єктність людини буде суттєво ослаблена.

Нещодавно розпочато збір зауважень до «Порядку управління інформаційними послугами щодо цифрових віртуальних людей» (скорочено — «Порядок»), який дає важливі орієнтири для врегулювання таких дій. «Порядок» підкреслює, що для надання послуг цифрових людей необхідно отримати згоду особи, а також створити механізми, зокрема розпізнавання ризиків і градаційно-класифікованого контролю, особливо для захисту неповнолітніх та інших вразливих груп. Це нагадує нам, що навіть якщо отримано «згоду», компанія все одно має нести відповідальність за управління відповідними процесами, щоб використання «цифрової копії» не виходило за межі та не було зловживанням. Інакше, якщо «цифрова копія» порушить права інших осіб або відповідні дані буде розкрито, не лише учасник може опинитися в центрі спору, а й компанія зіткнеться з величезними юридичними ризиками.

Зрештою, розвиток технологій — це меч із двома лезами, а руків’я цього меча має бути в руках самої людини. Перед хвилею розвитку штучного інтелекту працівники мають навчитися захищати свої права на дані, а під час звільнення — активно підписувати умови щодо обмеження використання даних; компанії мають знайти баланс між прагненням до ефективності та повагою до гідності особистості; а регуляторні органи — якнайшвидше вдосконалити відповідні закони й правила, аби захистити бар’єром гідність особистості в цифрову епоху.

Ця колонка несе виключно авторську точку зору.

(Редактор: Дун Пінпін.)

     【Дисклеймер】Ця стаття відображає лише особисту позицію автора і не має відношення до Hexun. Вебсайт Hexun зберігає нейтралітет щодо викладених у матеріалі тверджень і оцінок. Він не надає жодних явних чи неявних гарантій щодо точності, надійності або повноти будь-якого змісту, що міститься. Будь ласка, читачі сприймайте інформацію лише як довідкову та беріть на себе всю відповідальність самостійно. news_center@staff.hexun.com
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити