Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
【Camino de la ley】 Los riesgos legales detrás de los "trabajadores de IA" no deben subestimarse
(Título original: 【法治之道】 “Trabajadores de IA” detrás de los riesgos legales no debe subestimarse)
Liu Shaohua
Recientemente, en Shandong, una empresa de medios de juegos intentó convertir a empleados despedidos en “personas de IA” para que siguieran trabajando, lo que ha generado atención. Un empleado de la empresa, Xiaoyu, le dijo a un reportero que en el incidente sus colegas realmente se fueron. Este intento se realizó con su consentimiento, y él mismo también lo encontró bastante divertido. Xiaoyu dijo que antes de irse, ese colega era especialista de recursos humanos, y su doble digital actualmente puede realizar tareas sencillas como brindar consultas, enviar invitaciones, y elaborar presentaciones y hojas de cálculo.
A simple vista, esto parece una prueba tecnológica inocua. El “consentimiento” y el hecho de que “le pareció divertido” al empleado despedido permiten a la empresa obtener “mano de obra digital” de bajo costo y alta eficiencia. Pero al apartar la apariencia de las cosas, este intento aparentemente benigno en realidad toca zonas ambiguas entre los derechos laborales en la era de la IA y la ética tecnológica, y merece que lo examinemos con calma.
Desde la perspectiva legal, aunque el evento, aparentemente, elude riesgos de cumplimiento gracias al “consentimiento de la persona”, eso no significa que podamos tomarnos el tema a la ligera. Los registros de chat del empleado despedido, los correos de trabajo y sus hábitos de trabajo personales, entre otros, pertenecen a la información personal definida por la Ley de Protección de Información Personal, y no son “activos” de la empresa. Para el empleado despedido, si simplemente, por ser “divertido”, cede sus derechos de manera arbitraria, es muy posible que se generen riesgos de seguridad. Esto se debe a que esos “dobles digitales” pueden conectar fácilmente al público con la persona real; una vez que el doble digital vulnera los derechos de otras personas, el interesado también podría verse obligado a asumir responsabilidad solidaria.
Además, también es necesario preguntar si ese llamado “consentimiento” es realmente suficientemente informado y voluntario. En la relación entre empleador y empleado, los trabajadores suelen estar en una posición relativamente débil. En el momento de dejar el empleo, ¿ese “consentimiento” se verá influido por la regla tácita de “irse en buenos términos” o por preocupaciones sobre futuras cartas de recomendación y reputación en la industria? ¿Dónde está el límite de ese “consentimiento”? ¿Se limita solo a la forma “torpe” del doble en el estado actual, o incluye las “versiones avanzadas” que podrían aparecer tras iteraciones tecnológicas futuras, capaces de simular con mayor profundidad su pensamiento y sus emociones? Cuando los hábitos laborales de una persona, su manera de comunicarse e incluso parte de la lógica de su pensamiento se vuelven datos y se conservan de forma permanente, ¿ese “nacimiento digital eterno” priva al trabajador del derecho a “despedirse del pasado y comenzar una nueva vida”?
Convertir a un empleado despedido en “una persona de IA” difumina la frontera entre “persona” y “herramienta”, lo cual objetiviza aún más al trabajador. El empleado deja de ser un individuo con emociones únicas, creatividad y una irrepetibilidad, para convertirse en un “módulo funcional” que puede descomponerse, analizarse, recomponerse y reutilizarse infinitamente. Cuando la empresa puede “destilar” fácilmente la experiencia y el estilo del empleado para convertirlos en IA, la señal que se transmite es fría: el individuo es reemplazable y su valor central reside en la parte que puede convertirse en datos. Con el tiempo, el lugar de trabajo podría degenerar en una línea de ensamblaje de algoritmos sin gusto ni sentido, y la agencia del ser humano se verá seriamente debilitada.
Las Medidas de Gestión de Servicios de Información para Personas Virtuales Digitales (abreviadas como las “Medidas”), que actualmente se encuentran en proceso de solicitud de opiniones, brindan una guía importante para estandarizar este tipo de conductas. Las “Medidas” recalcan que para prestar servicios de personas digitales se debe obtener el consentimiento personal, y que se deben establecer mecanismos como identificación de riesgos y control por clasificación y niveles, especialmente para proteger a grupos vulnerables como los menores de edad. Esto nos recuerda que, incluso si se obtiene “consentimiento”, la empresa también debe asumir las responsabilidades de gestión correspondientes para garantizar que el uso del “doble digital” no se salga de los límites ni se abuse. De lo contrario, si el “doble digital” vulnera los derechos de otras personas o los datos pertinentes se filtran, no solo el interesado podría verse envuelto en disputas, sino que la empresa también enfrentará enormes riesgos legales.
En última instancia, el desarrollo tecnológico es un arma de doble filo, y la empuñadura debería estar en manos de uno mismo. Ante la ola de la inteligencia artificial, los trabajadores necesitan aprender a proteger sus derechos sobre los datos, y al dejar el trabajo, firmar cláusulas de limitación de uso de datos de manera proactiva; las empresas necesitan encontrar un equilibrio entre perseguir la eficiencia y respetar la personalidad; y las autoridades reguladoras deben acelerar la mejora de las leyes y reglamentos pertinentes para construir una barrera sólida contra la dignidad de la personalidad en la era digital.
Los artículos de este número en columna solo representan las opiniones personales del autor