【Camino de la ley】 Los riesgos legales detrás de los "trabajadores de IA" no deben subestimarse

robot
Generación de resúmenes en curso

(Título original: 【法治之道】 “Trabajadores de IA” detrás de los riesgos legales no debe subestimarse)

Liu Shaohua

Recientemente, en Shandong, una empresa de medios de juegos intentó convertir a empleados despedidos en “personas de IA” para que siguieran trabajando, lo que ha generado atención. Un empleado de la empresa, Xiaoyu, le dijo a un reportero que en el incidente sus colegas realmente se fueron. Este intento se realizó con su consentimiento, y él mismo también lo encontró bastante divertido. Xiaoyu dijo que antes de irse, ese colega era especialista de recursos humanos, y su doble digital actualmente puede realizar tareas sencillas como brindar consultas, enviar invitaciones, y elaborar presentaciones y hojas de cálculo.

A simple vista, esto parece una prueba tecnológica inocua. El “consentimiento” y el hecho de que “le pareció divertido” al empleado despedido permiten a la empresa obtener “mano de obra digital” de bajo costo y alta eficiencia. Pero al apartar la apariencia de las cosas, este intento aparentemente benigno en realidad toca zonas ambiguas entre los derechos laborales en la era de la IA y la ética tecnológica, y merece que lo examinemos con calma.

Desde la perspectiva legal, aunque el evento, aparentemente, elude riesgos de cumplimiento gracias al “consentimiento de la persona”, eso no significa que podamos tomarnos el tema a la ligera. Los registros de chat del empleado despedido, los correos de trabajo y sus hábitos de trabajo personales, entre otros, pertenecen a la información personal definida por la Ley de Protección de Información Personal, y no son “activos” de la empresa. Para el empleado despedido, si simplemente, por ser “divertido”, cede sus derechos de manera arbitraria, es muy posible que se generen riesgos de seguridad. Esto se debe a que esos “dobles digitales” pueden conectar fácilmente al público con la persona real; una vez que el doble digital vulnera los derechos de otras personas, el interesado también podría verse obligado a asumir responsabilidad solidaria.

Además, también es necesario preguntar si ese llamado “consentimiento” es realmente suficientemente informado y voluntario. En la relación entre empleador y empleado, los trabajadores suelen estar en una posición relativamente débil. En el momento de dejar el empleo, ¿ese “consentimiento” se verá influido por la regla tácita de “irse en buenos términos” o por preocupaciones sobre futuras cartas de recomendación y reputación en la industria? ¿Dónde está el límite de ese “consentimiento”? ¿Se limita solo a la forma “torpe” del doble en el estado actual, o incluye las “versiones avanzadas” que podrían aparecer tras iteraciones tecnológicas futuras, capaces de simular con mayor profundidad su pensamiento y sus emociones? Cuando los hábitos laborales de una persona, su manera de comunicarse e incluso parte de la lógica de su pensamiento se vuelven datos y se conservan de forma permanente, ¿ese “nacimiento digital eterno” priva al trabajador del derecho a “despedirse del pasado y comenzar una nueva vida”?

Convertir a un empleado despedido en “una persona de IA” difumina la frontera entre “persona” y “herramienta”, lo cual objetiviza aún más al trabajador. El empleado deja de ser un individuo con emociones únicas, creatividad y una irrepetibilidad, para convertirse en un “módulo funcional” que puede descomponerse, analizarse, recomponerse y reutilizarse infinitamente. Cuando la empresa puede “destilar” fácilmente la experiencia y el estilo del empleado para convertirlos en IA, la señal que se transmite es fría: el individuo es reemplazable y su valor central reside en la parte que puede convertirse en datos. Con el tiempo, el lugar de trabajo podría degenerar en una línea de ensamblaje de algoritmos sin gusto ni sentido, y la agencia del ser humano se verá seriamente debilitada.

Las Medidas de Gestión de Servicios de Información para Personas Virtuales Digitales (abreviadas como las “Medidas”), que actualmente se encuentran en proceso de solicitud de opiniones, brindan una guía importante para estandarizar este tipo de conductas. Las “Medidas” recalcan que para prestar servicios de personas digitales se debe obtener el consentimiento personal, y que se deben establecer mecanismos como identificación de riesgos y control por clasificación y niveles, especialmente para proteger a grupos vulnerables como los menores de edad. Esto nos recuerda que, incluso si se obtiene “consentimiento”, la empresa también debe asumir las responsabilidades de gestión correspondientes para garantizar que el uso del “doble digital” no se salga de los límites ni se abuse. De lo contrario, si el “doble digital” vulnera los derechos de otras personas o los datos pertinentes se filtran, no solo el interesado podría verse envuelto en disputas, sino que la empresa también enfrentará enormes riesgos legales.

En última instancia, el desarrollo tecnológico es un arma de doble filo, y la empuñadura debería estar en manos de uno mismo. Ante la ola de la inteligencia artificial, los trabajadores necesitan aprender a proteger sus derechos sobre los datos, y al dejar el trabajo, firmar cláusulas de limitación de uso de datos de manera proactiva; las empresas necesitan encontrar un equilibrio entre perseguir la eficiencia y respetar la personalidad; y las autoridades reguladoras deben acelerar la mejora de las leyes y reglamentos pertinentes para construir una barrera sólida contra la dignidad de la personalidad en la era digital.

Los artículos de este número en columna solo representan las opiniones personales del autor

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado