Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
【La voie de la justice】 Les risques juridiques derrière les « travailleurs IA » ne doivent pas être sous-estimés
(Titre original : 【La voie de la justice】 Les risques juridiques derrière les « travailleurs “IA” » ne doivent pas être sous-estimés)
Liu Shaohua
Récemment, une société de médias de jeux dans la province du Shandong a tenté de former des employés ayant quitté l’entreprise en tant qu’« agents “IA” » afin de continuer à travailler, ce qui a suscité de l’attention. Le petit poisson, un employé de la société, a déclaré au journaliste que le collègue impliqué avait effectivement démissionné. La présente tentative a été faite avec son accord, et lui-même a aussi trouvé cela plutôt amusant. Le petit poisson a indiqué que, avant sa démission, ce collègue était responsable RH, et que son double numérique peut désormais faire des tâches simples comme fournir des conseils, lancer des invitations, et produire des PPT et des tableaux.
À première vue, il s’agit d’un essai technologique inoffensif. Le fait que l’employé démissionnaire « accepte » et « trouve cela amusant » permet à l’entreprise d’obtenir une « main-d’œuvre numérique » à faible coût et à haute efficacité. Mais en soulevant le vernis de la situation, cette tentative apparemment bienveillante touche en réalité une zone floue entre les droits des travailleurs à l’ère de l’IA et l’éthique technique ; il mérite que nous l’examinions calmement.
Sur le plan juridique, même si l’événement semble se prémunir contre les risques de conformité grâce à un « accord de la personne elle-même », cela ne signifie pas que nous puissions nous relâcher. Les historiques de conversation de l’employé démissionnaire, ses e-mails professionnels, ses habitudes personnelles de travail, etc., relèvent de ce que la « Loi sur la protection des informations personnelles » définit comme des informations personnelles, et non des « actifs » de l’entreprise. Pour l’employé démissionnaire, si l’on cède ses droits de façon arbitraire simplement parce que c’est « amusant », cela peut très probablement créer des risques pour la sécurité. En effet, ce « double numérique » permet très facilement aux personnes extérieures de prendre contact avec lui, et dès lors qu’il porte atteinte aux droits d’autrui, la partie concernée pourrait aussi être amenée à assumer une responsabilité solidaire.
En outre, il faut aussi se demander si ce prétendu « accord » est réellement pleinement éclairé et volontaire. Dans les relations employeur-salarié, les employés se trouvent souvent dans une position relativement défavorisée. Lors de la démission, cet « accord » est-il influencé par des règles tacites du type « s’entendre sans heurts », ou par des inquiétudes liées à des lettres de recommandation futures et à la réputation dans le secteur ? Où se situe la limite de cet « accord » ? S’agit-il seulement d’un double « maladroit » dans la forme actuelle, ou bien inclut-il, après l’itération future de la technologie, des « versions avancées » capables de simuler plus profondément sa pensée et ses émotions ? Lorsque des habitudes de travail et des modes de communication, voire certaines logiques de pensée, sont numérisées et conservées de façon permanente, ce « destin numérique immortel » prive-t-il les travailleurs de leur droit « d’ouvrir un nouveau chapitre » en tournant la page ?
Transformer les employés démissionnaires en « agents “IA” » brouille la frontière entre « la personne » et « l’outil », ce qui revient à davantage « objectiver » les travailleurs. Les employés ne sont plus des individus dotés d’émotions uniques, de créativité et d’une inimitabilité, mais des « modules de fonction » qui peuvent être décomposés, analysés, recomposés et réutilisés indéfiniment. Lorsque l’entreprise peut distiller facilement l’expérience et le style des employés en IA, le signal transmis est glaçant : l’individu est remplaçable, et sa valeur centrale réside dans la partie qu’on peut transformer en données. À long terme, le monde du travail pourrait se transformer en une chaîne d’assemblage d’algorithmes sans âme, et la capacité d’initiative et la subjectivité de la personne seront fortement affaiblies.
Les « Mesures de gestion de la prestation de services d’information pour les individus virtuels numériques » (abrégé : « Mesures »), actuellement en phase de collecte d’avis, fournissent des orientations importantes pour standardiser ce type de comportement. Les « Mesures » soulignent que la prestation de services à des personnes numériques nécessite d’obtenir le consentement de la personne concernée, et qu’il convient de mettre en place des mécanismes tels que l’identification des risques et la gestion par niveaux et par catégories, notamment pour protéger les mineurs et d’autres groupes spécifiques. Cela nous rappelle qu’en plus d’obtenir un « consentement », l’entreprise doit aussi assumer les responsabilités de gestion correspondantes, afin de garantir que l’utilisation du « double numérique » reste dans les limites et ne soit pas un usage abusif. Sinon, si le « double numérique » porte atteinte aux droits d’autrui, ou si des données connexes sont divulguées, non seulement la partie concernée risque d’être impliquée dans un litige, mais l’entreprise sera également confrontée à d’importants risques juridiques.
En définitive, le progrès technologique est une arme à double tranchant, et la poignée de l’épée doit être tenue par les personnes elles-mêmes. Face à la vague de l’intelligence artificielle, les travailleurs doivent apprendre à protéger leurs droits liés à leurs données, et lorsqu’ils quittent l’entreprise, signer activement des clauses de limitation de l’utilisation des données ; les entreprises doivent trouver un équilibre entre la recherche de l’efficacité et le respect de la personnalité ; quant aux autorités de régulation, elles doivent accélérer la mise en place et l’amélioration des lois et règlements pertinents afin d’ériger une barrière solide pour la dignité de la personnalité à l’ère numérique.
Cet article en rubrique ne représente que les opinions personnelles de l’auteur