Os funcionários estão a usar a IA de forma prejudicial — e as empresas podem estar às escuras

A inteligência artificial atingiu a força de trabalho como um terremoto, e cada vez mais, as empresas estão lidando com as ondas de choque.

Uma questão emergente é o crescimento do chamado “AI sombra”, onde os trabalhadores usam IA de maneiras que não deveriam, seja de forma não intencional ou não.

De acordo com um estudo recente da Universidade de Melbourne e da KPMG, 47% dos profissionais de carreira entrevistados usaram IA de forma inadequada no trabalho, e 63% dizem ter visto outros colegas usando IA de forma inadequada. Esses casos variam, desde usar IA para conversar em testes internos de avaliação de desempenho até alimentar dados sensíveis da empresa em ferramentas de IA de terceiros.

Fazer isso traz riscos enormes para as empresas, observou o estudo.

“Esse uso invisível ou sombra de IA não só aumenta os riscos – ele também prejudica severamente a capacidade de uma organização detectar, gerenciar e mitigar esses riscos,” destacou o relatório.

As empresas enfrentam uma ilusão de competência impulsionada pela IA

Especialistas dizem que a verdadeira mudança com a IA não é que os funcionários de repente se tornaram desonestos. A mudança é que a IA faz atalhos de forma rápida, fácil e invisível.

“Antes da IA, esconder um trabalho ruim era mais difícil,” disse Zahra Timsah, líder de governança de IA e CEO da i-GENTIC AI, uma plataforma de conformidade de IA agentic. “Agora, um funcionário pode gerar um relatório polido em minutos, e os gestores assumem que há competência. Isso cria a ilusão de produtividade.”

Por exemplo, Timsah cita um funcionário que usa IA para gerar análises e as apresenta com confiança, mas não consegue defendê-las quando questionado. “A empresa toma decisões com base em trabalhos que ninguém realmente entende,” acrescentou Timsah. “A maior ameaça não é trapacear em testes. É as empresas perderem silenciosamente inteligência interna, acreditando que suas equipes pensam de forma independente.”

Outros executivos de destaque dizem que os dados indicam que as empresas estão apenas vendo a ponta do iceberg do uso de IA sombra. Considere o quadro completo do estudo de Melbourne:

— 44% dos trabalhadores nos EUA usam ferramentas de IA sem autorização adequada,

— 46% carregaram informações sensíveis da empresa e propriedade intelectual em plataformas públicas de IA, e 64% admitem diminuir o esforço no trabalho porque podem contar com a IA.

— Mais da metade, 57%, cometem erros no trabalho devido ao uso não controlado de IA, e 53% escondem completamente o uso de IA, apresentando conteúdo gerado por IA como seu próprio.

“Não é apenas que as pessoas estão passando a IA como seu próprio trabalho; elas também estão contaminando a fonte corporativa ao confiar em lixo de IA,” disse Nick Misner, COO da Cybrary, uma plataforma de desenvolvimento profissional em cibersegurança em Atlanta. “Enquanto a IA acelera a velocidade com que podemos programar, ela também introduz mais dívidas e vulnerabilidades de segurança na organização.”

Misner observa que isso não é uma tendência isolada; é uma falha sistêmica de prontidão organizacional.

“Estamos vendo a adoção de IA superar massivamente a governança,” afirmou. “O relatório State of the Global Workplace da Gallup nos diz que 79% da força de trabalho global está entre ‘fazendo o mínimo’ e ‘desengajada ativamente’.”

Consequentemente, quando você dá a trabalhadores desengajados uma ferramenta poderosa sem orientações significativas, eles não vão usá-la para serem mais produtivos. “Eles vão usá-la para fazer o mesmo trabalho com menos esforço ou, pior, para cortar cantos de maneiras que criam riscos reais para a organização,” observou.

A ameaça não é apenas trapacear em testes, embora, em um caso recente da KPMG Austrália divulgado nesta semana, 28 funcionários tenham sido pegos usando IA para trapacear em exames internos, incluindo um parceiro multado em $10.000 por trapacear em um exame de ética de IA.

“Esse exemplo ilustra perfeitamente a ironia,” disse Misner. “A ameaça maior é que as organizações estão voando às cegas. Se quase metade da sua força de trabalho usa IA de forma inadequada e você nem sabe disso, sua exposição ao risco é enorme, desde vazamento de dados até violações de conformidade e erosão das habilidades que suas pessoas realmente precisam.”

Tirando o uso nefasto de IA das sombras

A alta direção deve propor políticas, regras e penalidades para garantir que a IA seja usada de forma ética em suas empresas. Essas estratégias devem estar no topo de suas prioridades.

Aprenda com o passado

Há um bom argumento de que os números de Melbourne/KPMG não são exclusivos da IA.

“Vimos padrões semelhantes quando a internet e os motores de busca entraram no local de trabalho,” disse Joe Schaeppi, cofundador da Solsten, uma empresa de engajamento de usuários baseada em IA em Minneapolis, Minnesota. “Sempre que uma ferramenta poderosa aparece, o uso indevido é inevitável; essa é a natureza humana.”

À medida que a adoção de IA cresce, Schaeppi disse que a gestão provavelmente verá mais experimentação e comportamentos em áreas cinzentas, mas, como com todas as tecnologias, a governança e as barreiras evoluem. “Empresas como a Anthropic já estão adotando uma abordagem mais focada na empresa, construindo regras e restrições para reduzir riscos à medida que a tecnologia amadurece,” observou. “Se você é uma empresa e vê comportamentos inadequados em qualquer ferramenta, a preocupação deve estar na cultura e na forma como você aplica políticas e procedimentos.”

Aposte na supervisão humana

Para manter o uso de IA no local de trabalho sob controle, a gestão deve designar uma equipe de análise de IA para revisar o acesso e as permissões de dados da empresa para qualquer tipo de dado que seja fundamental para o futuro do negócio.

“Além disso, conjuntos de dados sintéticos não são novidade e são uma ótima maneira de modelar resultados enquanto aproveita seus dados,” disse. “Além disso, sempre envolvo um humano no processo antes de algo ser colocado em produção. Muitas empresas ainda encontram números de relatórios de IA incorretos. Seja para garantir que a mensagem continue alinhada à marca ou seja apropriada, é importante manter um humano no loop.”

Seja claro sobre as regras de uso de IA

As empresas também devem fornecer ferramentas de IA internas aprovadas e estabelecer uma regra clara. Nunca coloque informações confidenciais ou reguladas em sistemas públicos de IA.

“Eles também devem monitorar onde os dados sensíveis fluem, especialmente ao copiar e colar em ferramentas de IA, o que agora é um grande ponto cego que a maioria das empresas ignora,” disse Timsah. “Mais importante, as empresas precisam mudar a forma como avaliam os funcionários.”

Timsah também incentiva os líderes a evitar recompensar apenas resultados polidos. “Exija que os funcionários expliquem seu raciocínio e demonstrem compreensão,” disse. “A IA pode gerar respostas, mas não substitui a responsabilidade ou a prestação de contas.”

A primeira política que a equipe de Timsah implementou na i-GENTIC foi simples e clara: os funcionários podiam usar ferramentas de IA aprovadas, mas não poderiam inserir informações confidenciais, de clientes, financeiras ou proprietárias em sistemas públicos de IA.

“Focamos na clareza, não na restrição,” destacou. “Isso criou confiança porque o funcionário sabia que o uso de IA era permitido, mas com limites claros. Também promoveu responsabilidade, pois todos entenderam o que era seguro e o que não era.”

O treinamento interno deve focar em exemplos práticos, não em políticas vagas que ninguém lê. Os funcionários precisam entender claramente o que é seguro e o que não é.

“Usar IA para reescrever um e-mail genérico está OK,” disse Timsah. “Carregar contratos de clientes, dados financeiros ou informações proprietárias em uma ferramenta pública de IA não está. Usar IA para gerar ideias é aceitável. Apresentar análises geradas por IA que você não entende como seu próprio trabalho não é.”

Quando buscar ajuda externa de fiscalização

O uso indevido de IA por funcionários torna-se uma questão legal quando há intenção e dano.

“Isso inclui vazamento de dados confidenciais, roubo de propriedade intelectual, manipulação de informações financeiras ou fraude com auxílio de IA,” observou Timsah. “Nessa fase, as empresas podem envolver investigadores, reguladores ou a polícia.”

Os tomadores de decisão também devem saber que a maior parte do uso indevido começa por conveniência, não por intenção maliciosa, mas, uma vez que causa dano real, exposição financeira ou engano, passa a ser território legal. “A distinção chave é se o uso indevido resultou em exposição, perda ou ocultação intencional,” acrescentou Timsah.

Por fim, invista em treinamento


Especialistas dizem que é importante tratar o uso de IA como qualquer outro comportamento de alto risco e educar os funcionários sobre como usá-la de forma segura.

Além disso, ao educar os funcionários sobre o uso de IA, a gestão deve deixá-los cientes de que usar IA não os isenta de responsabilidade.

“Os funcionários ainda são responsáveis por garantir que as informações que carregam em plataformas de IA sejam precisas e não violem leis,” disse Kelsey Szamet, sócia da Kingsley Szamet Employment Lawyers. “Os funcionários também devem estar cientes de que carregar informações confidenciais e proprietárias em plataformas de IA pode resultar na exposição permanente dessas informações na plataforma.”

Do ponto de vista trabalhista, a consistência é fundamental. Se um funcionário for demitido por uso indevido de IA e outro não, isso gera problemas de responsabilidade por discriminação e retaliação. “Quanto mais forte a política e o treinamento, menor o risco de litígio,” afirmou Szamet.

A maior preocupação não é que os funcionários usem IA. Eles vão usar. “A preocupação é que as empresas abordem isso antes que se torne um problema,” acrescentou Szamet.

📬 Inscreva-se no Briefing Diário

Nosso briefing gratuito, rápido e divertido sobre a economia global, entregue todas as manhãs de semana.

Inscreva-me

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar