【Правовой путь】 Правовые риски за «AI-работником» недооценивать нельзя

robot
Генерация тезисов в процессе

(Заголовок: 【Путь к верховенству закона】 «AI-работники» стоящие за этим правовые риски нельзя недооценивать)

Лю Шаохуа

В последнее время в Шаньдуне вызвало внимание сообщение о том, что игровая компания попыталась обучить уволенных сотрудников, чтобы они продолжали работать в качестве «AI-людей». Сотрудница компании Сяо Юй рассказала корреспонденту, что коллега в истории действительно уволился, и данная попытка была предпринята после его согласия; самому ему это тоже показалось довольно забавным. Сяо Юй говорит, что до увольнения этот коллега был специалистом по персоналу, а его цифровой двойник сейчас может выполнять такие простые задачи, как консультации, рассылка приглашений, подготовка PPT и таблиц.

На первый взгляд это выглядит как техническая проба, не наносящая особого вреда. «Согласие» и «забавность» уволенного сотрудника дают компании возможность получить низкозатратную, высокоэффективную «цифровую рабочую силу». Но если снять внешнюю оболочку, оказывается, что эта, казалось бы, мягкая попытка затрагивает неясные зоны трудовых прав в эпоху AI и технической этики; это заслуживает нашего спокойного и внимательного рассмотрения.

С юридической точки зрения, хотя в этой ситуации, как будто, комплаенс-риск был обойден благодаря «согласию самого человека», это не означает, что можно ослабить бдительность. Чаты уволенного сотрудника, рабочая электронная переписка, его личные рабочие привычки и т. п. относятся к личной информации, определяемой Законом о защите персональной информации, а не являются «активами» компании. Для уволенного сотрудника, если только потому, что это «просто забавно», позволить произвольную передачу своих прав, это может привести к рискам для безопасности. Поскольку такой «цифровой двойник» слишком легко позволяет окружающим связаться с ним, и если цифровой двойник нарушит права других лиц, то и сам заинтересованный человек может быть привлечен к ответственности совместно.

Кроме того, стоит уточнить, является ли так называемое «согласие» действительно достаточным и добровольным. В трудовых отношениях работники зачастую занимают относительно более слабую позицию. Когда увольняющий момент наступает, будет ли это «согласие» под влиянием негласных правил «расстаться по-хорошему» или опасений относительно будущих рекомендательных писем, репутации в отрасли? Где проходит граница этого «согласия»? Ограничивается ли оно лишь «неуклюжей» формой двойника в текущем виде или включает в себя «расширенную» версию, которая после итераций технологии в будущем может появиться и будет глубже моделировать его мышление и эмоции? Когда рабочие привычки человека, способы общения и даже часть логики мышления оцифровываются и затем навсегда сохраняются, не лишает ли это «цифровое бессмертие» трудящегося права «попрощаться с прошлым и начать новую жизнь»?

Если компания превращает уволенного сотрудника в «AI-человека», размывая границу между «человеком» и «инструментом», то это ведет к дальнейшей «овеществляющей» трактовке трудящегося. Сотрудник больше не является индивидуумом с уникальными эмоциями, творчеством и неповторимостью, а превращается в «функциональные модули», которые можно разбирать, анализировать, реконструировать и затем бесконечно использовать повторно. Когда компания может легко «дистиллировать» опыт и стиль сотрудника в AI, сигнал получается холодный: личность заменяема, и ее ключевая ценность — в тех частях, которые могут быть оцифрованы в данные. В долгосрочной перспективе трудовая сфера может превратиться в бездушный алгоритмический конвейер, а субъектность человека будет серьезно ослаблена.

Текущий документ, по которому ведется сбор мнений, — «Временные меры по управлению услугами информации цифровых виртуальных людей» (сокращенно «Меры»). Он дает важные ориентиры для нормирования такого рода действий. В «Мерах» подчеркивается, что при предоставлении услуг цифровых людей необходимо получить согласие личности и следует создать механизмы выявления рисков, контроля по уровню градации и классификациям и т. п., особенно для защиты несовершеннолетних и других особых групп. Это напоминает нам: даже если получено «согласие», компания все равно должна нести соответствующую управленческую ответственность, обеспечивая, чтобы использование «цифровых двойников» не выходило за рамки и не допускало злоупотреблений. Иначе, если «цифровой двойник» нарушит права других лиц или если соответствующие данные будут раскрыты, то не только заинтересованное лицо может быть втянуто в спор, но и компания столкнется с огромными правовыми рисками.

В конечном счете, развитие технологий — это обоюдоострый меч, а рукоятка должна быть в руках самого человека. Сталкиваясь с волной искусственного интеллекта, трудящимся нужно научиться защищать свои права на данные, подписывая при увольнении оговорки об ограничении использования данных; компаниям следует находить баланс между погоней за эффективностью и уважением к личности; регуляторным органам — ускорить совершенствование соответствующих законов и нормативных актов, чтобы создать надежную защитную линию для достоинства личности в цифровую эпоху.

Статьи этой авторской колонки отражают только личное мнение автора

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить