“Compañero.skill” se vuelve viral: detrás de los memes se esconden riesgos legales y técnicos

《Diario de la Junta de Innovación Científica y Tecnológica》5 de abril, (Editor Song Zijiao) “Convierte la despedida fría en Skill cálido; bienvenido a unirte a la inmortalidad ciber / vida digital 1.0”.

Cuando esa frase aparece en la página de inicio de un proyecto de GitHub, se parece más a un humor negro que a algo que “haga sentir cálido”.

El proyecto de código abierto “colega.skill”, que logró destacar rápidamente y acumuló 7,3 mil estrellas en cinco días, es una herramienta de Agente de IA basada en Claude Code. Puede recopilar datos como historiales de chat, documentos y código de empleados que han dejado la empresa (p. ej., mensajes de Feishu, documentos de DingTalk, correos electrónicos, capturas de pantalla), además de algunas descripciones subjetivas, se los entrega a un gran modelo y, de ese modo, genera un doble de IA capaz de imitar el estilo de trabajo y la manera de hablar de ese empleado: un ser digital que puede reemplazarlo y seguir trabajando.

Incluso, los desarrolladores prepararon “herramientas de extracción totalmente automatizadas”, que abarcan las herramientas de exportación de historiales de chat más populares del mercado actualmente (como WeChatMsg, PyWxDump). Permite la extracción de datos desde Feishu, DingTalk, Slack e iMessage.

En términos generales, la capa subyacente de esta arquitectura es “Work Skill”, encargada de consolidar habilidades profesionales: desde el estilo de código y la lógica de negocio hasta los SOP del proyecto, compila la experiencia laboral de una persona en un flujo de trabajo ejecutable; la capa superior es el módulo de personalidad “Persona”, que mediante una estructura de cinco niveles (reglas rígidas, ubicación de la identidad, estilo de expresión, modo de decisión y conducta interpersonal) simula las emociones y las intervenciones de un humano real.

“Cambiar personas por IA” no es solo un argumento de novelas de ciencia ficción.

Una consultora, Challenger,Gray&Christmas, en un informe publicado el 3 de abril, mostró que en el primer trimestre de 2026, la industria tecnológica de EE. UU. recortará 52050 empleos, un aumento del 40% interanual, y que la IA aparece de forma explícita como la razón principal. Andy Challenger, director de ingresos de Challenger,Gray&Christmas, dijo: “Las empresas están desviando presupuestos para invertir en IA, en lugar de crear oportunidades de empleo. El patrón de sustitución de puestos ya se ha hecho evidente, especialmente en empleos de programación”.

El director ejecutivo de Anthropic, Dario•Amodi, también había expresado: “La IA podría reemplazar aproximadamente la mitad de los puestos de trabajo de oficina en los próximos uno a cinco años”.

Pero detrás de todo esto, el riesgo se ha hecho evidente.

Por un lado, la capacidad técnica del proyecto “colega.skill” ha sido exagerada. En esencia, el proyecto sigue siendo una herramienta de generación de texto basada en ingeniería de prompts, y no una “subida real de conciencia”. Su calidad depende por completo de “materia prima”: los documentos largos son mejores que los mensajes fragmentados; las salidas proactivas superan a las respuestas pasivas. Puede replicar métodos, pero no puede replicar la creatividad ni la intuición de adaptación en el momento.

Por otro lado, el terreno minado de la ética y la privacidad ya se ha pisado. Los historiales de chat y los contenidos de trabajo involucran información sensible contemplada en la Ley de Protección de la Información Personal. Usar los datos de otras personas para entrenar IA sin permiso podría implicar una infracción de los derechos de información personal y derechos de autor.

Sin embargo, la determinación de responsabilidades y derechos correspondientes aún sigue siendo difusa. Según 21st Century Business Herald, Chen Tianhao, subdirector de larga dedicación de la Escuela de Administración Pública de la Universidad Tsinghua y subdirector asistente del Centro de Investigación sobre Desarrollo y Gobernanza Científica y Tecnológica de la Universidad Tsinghua, considera que el conocimiento tácito que los trabajadores forman durante su trabajo, en principio, debería ser controlado por los propios trabajadores. El sistema legal existente presenta un vacío en este aspecto; en el futuro se requerirá revisar la Ley del Trabajo y las leyes y normativas relacionadas, y además acordar de antemano mediante contratos laborales, aclarando quién tiene derecho a usar esos conocimientos tácitos y cuáles son los límites del uso.

El problema más profundo está en que, cuando los “dobles digitales” pueden reemplazar a la persona para comunicarse, tomar decisiones e incluso “echar la culpa”, ¿cómo se determinan los derechos y responsabilidades? Cuando las relaciones laborales se convierten en datos y mercancías, ¿la conexión entre las personas se desalineará aún más?

La IA se encarga de las tareas rutinarias de los empleados de nivel inicial; a corto plazo, mejora la eficiencia. Pero el nuevo personal pierde el terreno para entrenarse. ¿Esto es una victoria de la eficiencia o una dificultad para la formación de talento?

La IA es buena optimizando procesos, pero no sabe gestionar relaciones. Dado que el AGI aún no se ha logrado, ¿estamos sobreestimando los límites técnicos de la IA y depositando demasiado la confianza que debería pertenecer a las personas en las máquinas?

La tecnología en sí no tiene bondad ni maldad. La clave está en la intención de quien la usa. En el día de hoy, cuando la ola de la IA arrasa con todo, estos problemas merecen una reflexión especialmente profunda.

Gran cantidad de información y análisis preciso, todo en la aplicación de Sina Finance

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado