【Caminho da Legalidade】 Os riscos legais por trás do "trabalhador de IA" não podem ser subestimados

robot
Geração de resumo em curso

(Título original:【Caminho da justiça】 “Trabalhadores de IA” por detrás: os riscos legais não devem ser subestimados)

Liu Shaohua

Recentemente, uma empresa de mediação de jogos em Shandong tentou transformar trabalhadores despedidos em “pessoas de IA” para continuarem a trabalhar, o que suscitou atenção. O trabalhador Xiao Yu disse ao repórter que os colegas no caso realmente foram despedidos; esta tentativa foi feita com o consentimento dele e ele próprio achou bastante divertido. Xiao Yu afirmou que, antes de se despedir, esse colega era especialista em recursos humanos e que a sua cópia digital consegue actualmente fazer tarefas simples como prestar consultoria, fazer convites, preparar apresentações em PPT e tabelas, entre outras.

À primeira vista, trata-se de um teste tecnológico aparentemente inofensivo. O “consentimento” e a “diversão” do trabalhador despedido proporcionam à empresa “força de trabalho digital” de baixo custo e elevada eficiência. Mas, ao remover a aparência superficial, esta tentativa aparentemente suave toca, na verdade, numa zona pouco clara dos direitos laborais e da ética tecnológica na era da IA, merecendo uma reflexão calma e atenta.

Do ponto de vista jurídico, embora o caso, aparentemente, tenha contornado riscos de conformidade graças ao “consentimento do próprio”, isso não significa que devamos ficar complacentes. Registos de chat do trabalhador despedido, e-mails de trabalho, hábitos pessoais de trabalho, etc., enquadram-se como “informação pessoal” na Lei de Protecção de Informação Pessoal, e não como “ativos” da empresa. Para o trabalhador despedido, se apenas por ser “divertido” ceder arbitrariamente os seus direitos, é possível que surjam riscos de segurança. Isto porque tais “cópias digitais” podem facilmente ser usadas para estabelecer contacto com terceiros e com a própria pessoa; uma vez que a cópia digital viole os direitos de outrem, o interveniente poderá também ser obrigado a assumir responsabilidade solidária.

Além disso, é necessário questionar se esse chamado “consentimento” é verdadeiramente suficiente e voluntário. Nas relações entre capital e trabalho, os empregados tendem a ocupar uma posição relativamente desfavorecida. No momento da demissão, o “consentimento” será influenciado por regras não escritas de “separar-se em boa harmonia”, ou por preocupações quanto a futuras cartas de recomendação e reputação na indústria? Onde está o limite desse “consentimento”? Aplica-se apenas a uma “cópia” mais “tosca” no estado actual, ou inclui um “versão avançada” que, após iterações tecnológicas futuras, poderá simular de forma mais profunda o seu pensamento e emoções? Quando os hábitos de trabalho e as formas de comunicação — até mesmo parte da lógica do pensamento — são transformados em dados e guardados de forma permanente, essa “imortalidade digital” tira aos trabalhadores o direito de “se despedirem do passado e abrirem um novo começo”?

Ao transformar trabalhadores despedidos em “pessoas de IA”, a empresa desfoca a linha entre “pessoa” e “ferramenta”, “coisificando” ainda mais o trabalhador. O empregado deixa de ser um indivíduo com emoções próprias, criatividade e uma singularidade impossível de replicar, passando a ser um “módulo de função” que pode ser decomposto, analisado, reconstituído e reutilizado de forma ilimitada. Quando a empresa consegue facilmente “destilar” as experiências e o estilo do trabalhador para a IA, a mensagem transmitida é fria: o indivíduo é substituível, e o seu valor central está na parte que pode ser convertida em dados. A longo prazo, o local de trabalho pode vir a degradar-se numa linha de produção de algoritmos sem vida e, assim, a subjectividade das pessoas fica seriamente enfraquecida.

O Regulamento sobre a Gestão de Serviços de Informação de Virduais Virtuais Digitais (abreviado como “o Regulamento”), que está a ser recolhido para pareceres, está a fornecer uma orientação importante para regular este tipo de conduta. O Regulamento enfatiza que, para prestar serviços de pessoas digitais, é necessário obter o consentimento pessoal, e que se devem estabelecer mecanismos como identificação de riscos e controlo por níveis e categorias, especialmente para proteger grupos vulneráveis como menores. Isto lembra-nos que, mesmo obtendo “consentimento”, a empresa ainda precisa assumir as correspondentes responsabilidades de gestão, assegurando que o uso das “cópias digitais” não ultrapassa limites e não é abusivo. Caso contrário, se a “cópia digital” violar os direitos de outrem, ou se os dados relevantes forem divulgados, além de o interveniente poder ser arrastado para litígios, a empresa também enfrentará enormes riscos legais.

No fim, o desenvolvimento da tecnologia é uma espada de dois gumes, e a empunhadura deve estar nas mãos de cada um. Perante a vaga da inteligência artificial, os trabalhadores precisam aprender a proteger os seus direitos sobre os dados; ao se demitirem, devem assinar cláusulas de limitação do uso de dados. As empresas precisam encontrar um equilíbrio entre a procura de eficiência e o respeito pela dignidade da pessoa; e os órgãos de supervisão devem acelerar a melhoria das leis e regulamentos pertinentes, de modo a firmar uma barreira para a dignidade da personalidade na era digital.

Este artigo da coluna desta edição reflecte apenas as opiniões pessoais do autor

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar