Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Comienzo del trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Los empleados están usando la IA de maneras perjudiciales, y las empresas podrían estar en la oscuridad
La inteligencia artificial ha impactado la fuerza laboral como un terremoto, y cada vez más, las empresas enfrentan las réplicas.
Un problema en auge es el crecimiento de la llamada “IA sombra”, donde los trabajadores usan la IA de maneras que no deberían, ya sea de forma no intencional o no.
Según un estudio reciente de la Universidad de Melbourne y KPMG, el 47% de los profesionales encuestados han utilizado IA de manera inapropiada en el trabajo, y el 63% afirma haber visto a otros empleados usando IA de forma inapropiada. Esos casos varían, desde usar IA para chatear en pruebas internas de evaluación del rendimiento de la empresa hasta alimentar datos sensibles de la compañía en herramientas de IA de terceros.
Hacerlo conlleva un riesgo enorme para las empresas, señaló el estudio.
“Este uso invisible o sombra de la IA no solo aumenta los riesgos, sino que también dificulta severamente la capacidad de una organización para detectar, gestionar y mitigar esos riesgos”, indicó el informe.
Las empresas enfrentan una ilusión de competencia impulsada por la IA
Expertos en el lugar de trabajo dicen que el cambio real con la IA no es que los empleados de repente se vuelvan deshonestos. El cambio es que la IA toma atajos de manera rápida, fácil e invisible.
“Antes de la IA, ocultar un trabajo deficiente era más difícil”, dijo Zahra Timsah, líder en gobernanza de IA y CEO de i-GENTIC AI, una plataforma de cumplimiento de IA agentica. “Ahora, un empleado puede generar un informe pulido en minutos, y los gerentes asumen competencia. Esto crea la ilusión de productividad.”
Por ejemplo, Timsah menciona a un empleado que usa IA para generar análisis y lo presenta con confianza, pero no puede defenderlo cuando se le cuestiona. “La empresa toma decisiones basadas en trabajos que nadie realmente entiende”, agregó Timsah. “La mayor amenaza no es hacer trampa en los exámenes. Es que las empresas pierden silenciosamente inteligencia interna mientras creen que sus equipos piensan de manera independiente.”
Otros ejecutivos corporativos de alto perfil dicen que los datos indican que las empresas apenas están viendo la punta del iceberg en el uso de IA sombra. Considera el panorama completo del estudio de Melbourne:
— El 44% de los trabajadores en EE. UU. usan herramientas de IA sin autorización adecuada,
— El 46% ha subido información sensible de la empresa y propiedad intelectual a plataformas públicas de IA, y el 64% admite que dedica menos esfuerzo a su trabajo porque puede apoyarse en la IA.
— Más de la mitad, 57%, comete errores en su trabajo debido al uso no controlado de IA, y el 53% oculta completamente su uso de IA, presentando contenido generado por IA como propio.
“No solo es que las personas presenten la IA como su propio trabajo; también envenenan el pozo corporativo confiando en basura de IA”, dijo Nick Misner, COO de Cybrary, una plataforma de desarrollo profesional en ciberseguridad en Atlanta. “Mientras la IA acelera la velocidad con la que podemos programar, también introduce más deuda y vulnerabilidades de seguridad en la organización.”
Misner señala que esto no es una tendencia aislada; es una falla sistémica en la preparación organizacional.
“Estamos viendo que la adopción de IA supera ampliamente la gobernanza”, dijo. “El informe State of the Global Workplace de Gallup nos dice que el 79% de la fuerza laboral global está en algún punto entre ‘hacer lo mínimo’ y ‘desconectada activamente’.”
Por lo tanto, cuando entregas a trabajadores desinteresados una herramienta poderosa sin orientación significativa, no la usarán para ser más productivos. “La usarán para hacer el mismo trabajo con menos esfuerzo o, peor aún, para tomar atajos que crean riesgos reales para la organización”, señaló.
La amenaza no es solo hacer trampa en los exámenes, aunque en un caso reportado por KPMG Australia esta semana, 28 empleados fueron atrapados usando IA para hacer trampa en exámenes internos, incluyendo a un socio multado con $10,000 por hacer trampa en un examen de ética de IA.
“Ese ejemplo ilustra perfectamente la ironía”, dijo Misner. “La amenaza mayor es que las organizaciones vuelan a ciegas. Si casi la mitad de tu fuerza laboral usa IA de manera inapropiada y ni siquiera lo sabes, tu exposición al riesgo es enorme, desde filtraciones de datos hasta violaciones de cumplimiento y erosión de las habilidades que realmente necesitan tus empleados.”
Sacar el uso nefasto de IA de las sombras
La alta dirección debe proponer políticas, estrategias y sanciones para garantizar que la IA se utilice éticamente en sus empresas. Estas estrategias deben estar en la cima de sus prioridades.
Aprender del pasado
Se puede argumentar que los números de Melbourne/KPMG no son únicos en cuanto a IA.
“Vimos patrones similares cuando internet y los motores de búsqueda entraron por primera vez en el lugar de trabajo”, dijo Joe Schaeppi, cofundador de Solsten, una empresa de compromiso de usuarios basada en IA en Minneapolis, Minnesota. “Cada vez que aparece una herramienta poderosa, el uso indebido es inevitable; esa es la naturaleza humana.”
A medida que crece la adopción de IA, Schaeppi dijo que probablemente los gerentes verán más experimentación y comportamientos en áreas grises, pero como con todas las tecnologías, la gobernanza y las barreras evolucionan. “Empresas como Anthropic ya están adoptando un enfoque más enfocado en la empresa, incorporando reglas y restricciones para reducir riesgos a medida que la tecnología madura”, señaló. “Si eres una empresa y ves comportamientos inapropiados en alguna herramienta, la preocupación debe centrarse en la cultura y en cómo aplicas políticas y procedimientos.”
Apostar por la supervisión humana
Para mantener el control sobre los compromisos con IA en el lugar de trabajo, la gerencia debe asignar a un equipo de análisis de IA la revisión del acceso y permisos de datos de la empresa para cualquier tipo de datos cruciales para el futuro del negocio.
“Luego, los conjuntos de datos sintéticos no son nada nuevo y son una excelente forma de modelar resultados aún aprovechando tus datos”, dijo. “Además, siempre involucraría a un humano en el proceso antes de que algo se ponga en marcha. Varias empresas aún han encontrado que los informes de IA son incorrectos. Ya sea para asegurar que el mensaje siga siendo coherente con la marca o apropiado, es importante mantener a un humano en el proceso.”
Ser muy claro sobre las reglas de uso de IA
Las empresas también deben proporcionar herramientas de IA internas aprobadas y establecer una regla clara. Nunca poner información confidencial o regulada en sistemas públicos de IA.
“También deben monitorear dónde fluye la información sensible, especialmente al copiar y pegar en herramientas de IA, que ahora es un gran punto ciego que la mayoría de las empresas pasa por alto”, dijo Timsah. “Lo más importante es que las empresas deben cambiar la forma en que evalúan a los empleados.”
Timsah también anima a los líderes a evitar recompensar solo resultados pulidos. “Exijan a los empleados que expliquen su razonamiento y demuestren comprensión”, dijo. “La IA puede generar respuestas, pero no puede reemplazar la responsabilidad o la rendición de cuentas.”
La primera política que implementó el equipo de Timsah en i-GENTIC fue simple y clara: los empleados podían usar herramientas de IA aprobadas, pero no podían ingresar información confidencial, de clientes, financiera o propietaria en sistemas de IA públicos.
“Nos enfocamos en la claridad, no en la restricción”, señaló. “Esto generó confianza porque el empleado sabía que el uso de IA estaba permitido, pero con límites claros. También fomentó la responsabilidad, porque todos entendían qué era seguro y qué no.”
La capacitación interna debe centrarse en ejemplos prácticos, no en políticas vagas que nadie lee. Los empleados necesitan entender claramente qué es seguro y qué no.
“Usar IA para reescribir un correo electrónico genérico está bien”, dijo Timsah. “Subir contratos de clientes, datos financieros o información propietaria a una herramienta de IA pública no lo está. Usar IA para generar ideas está bien. Presentar análisis generados por IA que no entiendes como tu propio trabajo no lo está.”
Cuándo buscar ayuda externa de cumplimiento
El uso indebido de IA por parte de empleados se convierte en un problema legal cuando hay intención y daño.
“Esto incluye filtrar datos confidenciales, robar propiedad intelectual, manipular información financiera o cometer fraude con ayuda de IA”, señaló Timsah. “En ese momento, las empresas pueden involucrar a investigadores, reguladores o fuerzas del orden.”
Los responsables de decisiones en la empresa también deben saber que la mayoría de los usos indebidos comienzan por conveniencia, no por mala intención, pero una vez que causa daño real, exposición financiera o engaño, pasa a ser territorio legal. “La diferencia clave es si el uso indebido resultó en exposición, pérdida o ocultamiento intencional”, agregó Timsah.
Por último, enfóquense en la capacitación
Los expertos dicen que es importante tratar el uso de IA como cualquier otro comportamiento de alto riesgo y educar a los empleados sobre cómo usarla de manera segura.
Además, al educar a los empleados sobre el uso de IA, la gerencia debe hacerles saber que usar IA no los exime de responsabilidad.
“Los empleados siguen siendo responsables de asegurar que la información que suben a plataformas de IA sea precisa y no viole ninguna ley”, dijo Kelsey Szamet, socia de Kingsley Szamet Employment Lawyers. “También deben ser conscientes de que subir información confidencial y propietaria a plataformas de IA puede resultar en que esa información quede expuesta permanentemente en la plataforma.”
Desde la perspectiva laboral, la coherencia es clave. Si un empleado es despedido por uso indebido de IA y otro no, eso genera problemas de responsabilidad por discriminación y represalia. “Cuanto más sólida sea la política y el proceso de capacitación, menor será el riesgo de litigios”, dijo Szamet.
La mayor preocupación no es que los empleados usen IA. Lo harán. “La preocupación es que las empresas aborden esto antes de que se convierta en un problema”, agregó Szamet.
📬 Suscríbete al Resumen Diario
Nuestro resumen gratuito, rápido y divertido sobre la economía global, entregado cada mañana de lunes a viernes.
Inscríbeme