Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
【Caminho da Legalidade】 Os riscos legais por trás do "trabalhador de IA" não podem ser subestimados
(Título original:【Caminho da justiça】 “Trabalhadores de IA” por detrás: os riscos legais não devem ser subestimados)
Liu Shaohua
Recentemente, uma empresa de mediação de jogos em Shandong tentou transformar trabalhadores despedidos em “pessoas de IA” para continuarem a trabalhar, o que suscitou atenção. O trabalhador Xiao Yu disse ao repórter que os colegas no caso realmente foram despedidos; esta tentativa foi feita com o consentimento dele e ele próprio achou bastante divertido. Xiao Yu afirmou que, antes de se despedir, esse colega era especialista em recursos humanos e que a sua cópia digital consegue actualmente fazer tarefas simples como prestar consultoria, fazer convites, preparar apresentações em PPT e tabelas, entre outras.
À primeira vista, trata-se de um teste tecnológico aparentemente inofensivo. O “consentimento” e a “diversão” do trabalhador despedido proporcionam à empresa “força de trabalho digital” de baixo custo e elevada eficiência. Mas, ao remover a aparência superficial, esta tentativa aparentemente suave toca, na verdade, numa zona pouco clara dos direitos laborais e da ética tecnológica na era da IA, merecendo uma reflexão calma e atenta.
Do ponto de vista jurídico, embora o caso, aparentemente, tenha contornado riscos de conformidade graças ao “consentimento do próprio”, isso não significa que devamos ficar complacentes. Registos de chat do trabalhador despedido, e-mails de trabalho, hábitos pessoais de trabalho, etc., enquadram-se como “informação pessoal” na Lei de Protecção de Informação Pessoal, e não como “ativos” da empresa. Para o trabalhador despedido, se apenas por ser “divertido” ceder arbitrariamente os seus direitos, é possível que surjam riscos de segurança. Isto porque tais “cópias digitais” podem facilmente ser usadas para estabelecer contacto com terceiros e com a própria pessoa; uma vez que a cópia digital viole os direitos de outrem, o interveniente poderá também ser obrigado a assumir responsabilidade solidária.
Além disso, é necessário questionar se esse chamado “consentimento” é verdadeiramente suficiente e voluntário. Nas relações entre capital e trabalho, os empregados tendem a ocupar uma posição relativamente desfavorecida. No momento da demissão, o “consentimento” será influenciado por regras não escritas de “separar-se em boa harmonia”, ou por preocupações quanto a futuras cartas de recomendação e reputação na indústria? Onde está o limite desse “consentimento”? Aplica-se apenas a uma “cópia” mais “tosca” no estado actual, ou inclui um “versão avançada” que, após iterações tecnológicas futuras, poderá simular de forma mais profunda o seu pensamento e emoções? Quando os hábitos de trabalho e as formas de comunicação — até mesmo parte da lógica do pensamento — são transformados em dados e guardados de forma permanente, essa “imortalidade digital” tira aos trabalhadores o direito de “se despedirem do passado e abrirem um novo começo”?
Ao transformar trabalhadores despedidos em “pessoas de IA”, a empresa desfoca a linha entre “pessoa” e “ferramenta”, “coisificando” ainda mais o trabalhador. O empregado deixa de ser um indivíduo com emoções próprias, criatividade e uma singularidade impossível de replicar, passando a ser um “módulo de função” que pode ser decomposto, analisado, reconstituído e reutilizado de forma ilimitada. Quando a empresa consegue facilmente “destilar” as experiências e o estilo do trabalhador para a IA, a mensagem transmitida é fria: o indivíduo é substituível, e o seu valor central está na parte que pode ser convertida em dados. A longo prazo, o local de trabalho pode vir a degradar-se numa linha de produção de algoritmos sem vida e, assim, a subjectividade das pessoas fica seriamente enfraquecida.
O Regulamento sobre a Gestão de Serviços de Informação de Virduais Virtuais Digitais (abreviado como “o Regulamento”), que está a ser recolhido para pareceres, está a fornecer uma orientação importante para regular este tipo de conduta. O Regulamento enfatiza que, para prestar serviços de pessoas digitais, é necessário obter o consentimento pessoal, e que se devem estabelecer mecanismos como identificação de riscos e controlo por níveis e categorias, especialmente para proteger grupos vulneráveis como menores. Isto lembra-nos que, mesmo obtendo “consentimento”, a empresa ainda precisa assumir as correspondentes responsabilidades de gestão, assegurando que o uso das “cópias digitais” não ultrapassa limites e não é abusivo. Caso contrário, se a “cópia digital” violar os direitos de outrem, ou se os dados relevantes forem divulgados, além de o interveniente poder ser arrastado para litígios, a empresa também enfrentará enormes riscos legais.
No fim, o desenvolvimento da tecnologia é uma espada de dois gumes, e a empunhadura deve estar nas mãos de cada um. Perante a vaga da inteligência artificial, os trabalhadores precisam aprender a proteger os seus direitos sobre os dados; ao se demitirem, devem assinar cláusulas de limitação do uso de dados. As empresas precisam encontrar um equilíbrio entre a procura de eficiência e o respeito pela dignidade da pessoa; e os órgãos de supervisão devem acelerar a melhoria das leis e regulamentos pertinentes, de modo a firmar uma barreira para a dignidade da personalidade na era digital.
Este artigo da coluna desta edição reflecte apenas as opiniões pessoais do autor