【Правовий шлях】 Юридичні ризики за лаштунками "AI-робітника" не можна недооцінювати

robot
Генерація анотацій у процесі

(Оригінальна назва:【Шлях правосуддя】 «AI-працівник» за лаштунками Юридичні ризики, які не можна недооцінювати”)

Лю Шаохуа

Нещодавно в Шаньдуні одна ігрова медіакомпанія спробувала навчити звільнених працівників, щоб вони продовжували роботу як «AI-люди», і ця історія викликала увагу. Співробітник компанії на ім’я Сяоюй розповів журналістам, що колега в тій ситуації справді звільнився. Ця спроба була здійснена за його згодою, і він сам вважає, що це досить цікаво. Сяоюй також зазначив, що перед звільненням колега працював спеціалістом з кадрів, а його цифровий двійник наразі може виконувати прості завдання: надавати консультації, надсилати запрошення, готувати PPT і таблиці тощо.

На перший погляд це виглядає як технічний експеримент без особливої шкоди. Звільнений працівник «згодився» і «йому сподобалося», а компанія отримала дешеву, ефективну «цифрову робочу силу». Але якщо зняти видимий шар цієї, на перший погляд, м’якої спроби, стає очевидним: вона зачіпає розмиту зону трудових прав і технічної етики в епоху AI, і це варто спокійно розглянути.

З юридичного погляду, навіть попри те, що інцидент начебто обходить комплаєнс-ризики через «згоду самого працівника», це не означає, що нам можна бути легковажними. Дані листування працівника, робочі електронні листи, особисті робочі звички тощо належать до персональних даних у межах Закону КНР «Про захист персональних даних», а не є «активами» підприємства. Для звільненого працівника, якщо лише через те, що «це просто цікаво», без розбору поступитися своїми правами, це може спричинити загрози безпеці. Адже такий «цифровий двійник» дуже легко може бути пов’язаний із зовнішнім світом і самим працівником; і якщо цифровий двійник порушить права інших осіб, то відповідальність може бути покладена і на зацікавлену особу — аж до солідарної відповідальності.

Крім того, варто ще з’ясувати, чи була така так звана «згода» насправді достатньо повною та добровільною. У трудово-майнових відносинах працівники часто перебувають у відносно слабшому становищі. Під час звільнення «згода», чи не впливатимуть на неї неформальні правила на кшталт «розійтися мирно», чи не заважатимуть міркування щодо майбутніх рекомендаційних листів і репутації в галузі? Де проходить межа цієї «згоди»? Вона обмежується лише «незграбною» формою двійника на теперішньому етапі, чи включає майбутні технологічні ітерації — і більш глибоку симуляцію його мислення та емоцій, тобто «преміум-версію»? Коли робочі звички людини, способи комунікації, а навіть частина логіки мислення оцифровуються та назавжди зберігаються, чи не позбавляє це «цифрового безсмертя» працівника права «попрощатися з минулим і розпочати нове життя»?

Компанії, які створюють із звільнених працівників «AI-людей», розмивають межу між «людиною» та «інструментом», фактично додатково «опредметнюючи» працівника. Співробітник уже не є особистістю з унікальними емоціями, креативністю та неповторністю, а стає «функціональним модулем», який можна розбирати, аналізувати, перезбирати та безмежно повторно використовувати. Коли компанія може легко «дистилювати» досвід і стиль працівника в AI, вона передає холодний сигнал: індивід є замінним, а його основна цінність — у частинах, які можна перетворити на дані. У довгостроковій перспективі кар’єра може перетворитися на бездушний конвеєр алгоритмів, а суб’єктність людини буде суттєво ослаблена.

Нещодавно триває збір зауважень до «Порядку управління послугами інформації про цифрових віртуальних людей» (скорочено «Порядок»), який для регулювання таких дій дає важливі орієнтири. «Порядок» підкреслює, що для надання послуг цифрових людей необхідно отримати згоду особи, а також слід створити механізми розпізнавання ризиків, розподілу за рівнями та категоріального контролю тощо, зокрема особливим чином захищати таких вразливих груп, як неповнолітні. Це нагадує нам: навіть отримавши «згоду», компанія має нести відповідальність за належне управління, щоб використання «цифрових двійників» не виходило за межі та не зловживалося. Інакше, якщо «цифровий двійник» порушить права інших осіб або відповідні дані буде розкрито, проблеми можуть виникнути не лише в зацікавленої особи, а й компанія зіткнеться з масштабними юридичними ризиками.

Зрештою, розвиток технологій — це меч обоюдної дії, а руків’я цього меча має бути в руках самої людини. На хвилі розвитку штучного інтелекту працівники мають навчитися захищати свої права на дані, а під час звільнення — добровільно підписувати умови щодо обмеження використання даних; компанії мають знайти баланс між прагненням до ефективності та повагою до особистості; органи регулювання мають якнайшвидше вдосконалити відповідні закони та нормативні акти, щоб забезпечити бар’єр для гідності особистості в цифрову епоху.

Стаття колонки цього випуску відображає лише особисту думку автора

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити