【Правовой путь】 Юридические риски, скрывающиеся за "AI-работниками", нельзя недооценивать

robot
Генерация тезисов в процессе

刘 Шаохуа

В последнее время в центре внимания оказался случай, когда в провинции Шаньдун одна компания, занимающаяся игровыми медиа, попыталась обучить уволенных сотрудников и превратить их в «AI-людей», чтобы они продолжали работать. Сотрудник компании по имени Сяоюй рассказал репортёру, что коллега из истории действительно уволился. Эта попытка была предпринята с его согласия, и самому ему показалось довольно забавным. Сяоюй сообщил, что до увольнения этот коллега был специалистом по персоналу, а его цифровой двойник сейчас способен выполнять простые задачи — консультировать, назначать встречи, готовить PPT и таблицы и т.п.

На первый взгляд это можно считать безобидным техническим экспериментом. Уволенный сотрудник «согласился» и «ему было весело», а компания получила дешёвую и эффективную «цифровую рабочую силу». Однако если снять внешнюю оболочку происходящего, становится ясно, что эта, казалось бы, мягкая попытка затрагивает неясную зону между трудовыми правами в эпоху AI и технической этикой, и её стоит спокойно и трезво рассмотреть.

С юридической точки зрения, хотя в данном случае вроде бы удалось обойти риски соблюдения норм благодаря «согласию самого человека», это не означает, что нам можно относиться к вопросу легкомысленно. Чаты уволенного сотрудника, рабочие электронные письма, личные рабочие привычки и т.п. относятся к персональным данным, которые подпадают под действие «Закона о защите персональной информации», а не являются «активами» компании. Для уволенного сотрудника, если он просто из-за того, что «это забавно», безрассудно уступает свои права, это может привести к угрозам безопасности. Поскольку такой «цифровой двойник» легко позволяет внешним сторонам установить связь как с окружающими, так и с самим человеком, и если цифровой двойник нарушит права других, то у заинтересованного лица тоже может возникнуть обязанность нести солидарную ответственность.

Кроме того, необходимо выяснить, было ли это так называемое «согласие» действительно достаточным и добровольным. В трудовых отношениях работники часто занимают сравнительно более слабое положение. Когда сотрудник увольняется, окажется ли его «согласие» под влиянием негласных правил «разойтись по-хорошему», или же на него повлияют опасения относительно будущих рекомендательных писем и репутации в отрасли? Где проходят границы этого «согласия» — только ли в рамках текущего, «нескладного» образа цифрового двойника, или оно включает «расширенную, более продвинутую версию», которая после будущих технологических обновлений может глубже моделировать его мышление и эмоции? Когда рабочие привычки, способы коммуникации, а также часть логики мышления человека оцифровываются и навсегда сохраняются, не означает ли это, что «цифровое бессмертие» отнимает у работника право «попрощаться с прошлым и начать новую жизнь»?

Превращая уволенных сотрудников в «AI-людей», компания размывает границу между «человеком» и «инструментом», тем самым дальше «овеществляя» работников. Сотрудник больше не является личностью с уникальными эмоциями, креативностью и невозможностью точного копирования — его можно разбирать, анализировать, перестраивать и бесконечно переиспользовать как «функциональный модуль». Когда компания может относительно легко «перегонять» опыт и стиль работников в AI, сигнал, который она передаёт, холодный: личность можно заменить, а её ключевая ценность — в той части, которая поддаётся оцифровке. Если так продолжится долго, рабочее место может превратиться в бездушный конвейер алгоритмов, а субъектность человека будет серьёзно ослаблена.

Недавно вынесенные на обсуждение «Меры по управлению информационным сервисом цифровых виртуальных людей» (далее — «Меры») дают важные ориентиры для регулирования подобных действий. В «Мерах» подчёркивается, что при предоставлении услуг цифровых людей необходимо получить личное согласие, а также следует создать механизмы распознавания рисков, управления по уровням и классификации и т.п., особенно для защиты таких особых групп, как несовершеннолетние. Это напоминает: даже если получено «согласие», компания всё равно должна нести соответствующую управленческую ответственность и обеспечивать, чтобы использование «цифровых двойников» не выходило за границы и не применялось во зло. В противном случае, если «цифровой двойник» нарушит права других лиц или соответствующие данные будут утекать, в зону споров могут попасть не только заинтересованные лица, но и сама компания столкнётся с огромными юридическими рисками.

В конечном счёте, развитие технологий — это меч с двумя лезвиями, и рукоять этого меча должна быть в руках самого человека. Сталкиваясь с волной искусственного интеллекта, работникам нужно научиться защищать свои права на данные — при добровольном увольнении подписывать условия ограничений на использование данных. Компании нужно найти баланс между погоней за эффективностью и уважением к личности. А надзорным органам следует ускорить совершенствование соответствующих законов и нормативных актов, чтобы обеспечить прочный заслон человеческому достоинству в цифровую эпоху.

Материалы рубрики на этой странице отражают только личные взгляды автора

(Редактор: Дун Пинпин)

     【Отказ от ответственности】Настоящая статья отражает только личную позицию автора и не имеет отношения к Hexun. Сайт Hexun сохраняет нейтралитет в отношении изложенных в тексте утверждений и оценок, касающихся позиций и суждений, и не предоставляет никаких прямых или косвенных гарантий относительно точности, надёжности или полноты содержащихся сведений. Пожалуйста, ознакомьтесь с материалом только для справки и возьмите на себя всю ответственность самостоятельно. Электронная почта: news_center@staff.hexun.com
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить