Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Lancement Futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Trading démo
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Les employés utilisent l'IA de manière nuisible — et les entreprises pourraient être dans l'ignorance
L’intelligence artificielle a frappé la main-d’œuvre comme un tremblement de terre, et de plus en plus, les entreprises doivent faire face aux répliques.
Un problème croissant est la croissance de ce qu’on appelle « l’IA fantôme », où les travailleurs utilisent l’IA de manière inappropriée, intentionnellement ou non.
Selon une étude récente de l’Université de Melbourne et KPMG, 47 % des professionnels interrogés ont utilisé l’IA de manière inappropriée au travail, et 63 % ont vu d’autres employés utiliser l’IA de façon inappropriée. Ces cas varient, allant de l’utilisation de l’IA pour discuter lors de tests d’évaluation interne à l’alimentation de données sensibles de l’entreprise dans des outils d’IA tiers.
Cela comporte de grands risques pour les entreprises, a noté l’étude.
« Cet usage invisible ou fantôme de l’IA ne fait pas qu’aggraver les risques – il entrave également gravement la capacité d’une organisation à détecter, gérer et atténuer ces risques », indique le rapport.
Les entreprises font face à une illusion de compétence alimentée par l’IA
Les experts du monde du travail affirment que le vrai changement avec l’IA n’est pas que les employés deviennent soudainement malhonnêtes. Le changement, c’est que l’IA prend des raccourcis rapidement, facilement et de manière invisible.
« Avant l’IA, cacher un travail médiocre était plus difficile », a déclaré Zahra Timsah, responsable de la gouvernance de l’IA et PDG d’i-GENTIC AI, une plateforme de conformité à l’IA agentique. « Maintenant, un employé peut générer un rapport soigné en quelques minutes, et les managers supposent la compétence. Cela crée l’illusion de productivité. »
Par exemple, Timsah cite un employé qui utilise l’IA pour générer une analyse et la présente avec confiance, mais ne peut pas la défendre lorsqu’on l’interroge. « L’entreprise prend des décisions basées sur un travail que personne ne comprend vraiment », a ajouté Timsah. « La plus grande menace n’est pas la triche lors des tests. C’est que les entreprises perdent silencieusement leur intelligence interne en croyant que leurs équipes pensent de manière indépendante. »
D’autres cadres de haut niveau affirment que les données indiquent que les entreprises ne voient que la pointe de l’iceberg de l’utilisation de l’IA fantôme. Considérons le tableau plus complet de l’étude de Melbourne :
— 44 % des travailleurs américains utilisent des outils d’IA sans autorisation appropriée,
— 46 % ont téléchargé des informations sensibles de l’entreprise et de la propriété intellectuelle sur des plateformes d’IA publiques, et 64 % admettent réduire leurs efforts au travail car ils peuvent compter sur l’IA.
— Plus de la moitié, 57 %, commettent des erreurs dans leur travail à cause d’une utilisation non contrôlée de l’IA, et 53 % dissimulent totalement leur utilisation de l’IA, en présentant du contenu généré par l’IA comme leur propre travail.
« Ce n’est pas seulement que les gens se font passer pour leurs propres travaux avec l’IA ; ils empoisonnent aussi la ressource de l’entreprise en se fiant à des déchets d’IA », a déclaré Nick Misner, COO de Cybrary, une plateforme de développement professionnel en cybersécurité basée à Atlanta. « Alors que l’IA accélère la vitesse à laquelle nous pouvons coder, elle introduit davantage de dettes et de vulnérabilités de sécurité dans l’organisation. »
Misner note que ce n’est pas une tendance isolée ; c’est plutôt une défaillance systémique de la préparation organisationnelle.
« Nous voyons l’adoption de l’IA dépasser massivement la gouvernance », a-t-il déclaré. « Le rapport State of the Global Workplace de Gallup nous dit que 79 % de la main-d’œuvre mondiale se situe quelque part entre ‘faire le minimum’ et ‘désengagée activement’. »
Par conséquent, lorsque vous donnez à des travailleurs désengagés un outil puissant sans orientation significative, ils ne l’utiliseront pas pour devenir plus productifs. « Ils vont l’utiliser pour faire le même travail avec moins d’effort ou, pire, pour couper les coins en créant de véritables risques organisationnels », a-t-il noté.
La menace ne se limite pas à la triche lors des tests, bien que dans un cas rapporté par KPMG Australie cette semaine, 28 employés aient été pris en train d’utiliser l’IA pour tricher lors d’examens internes, y compris un partenaire condamné à 10 000 $ pour avoir triché lors d’un examen d’éthique de l’IA.
« Cet exemple illustre parfaitement l’ironie », a déclaré Misner. « La menace plus grande, c’est que les organisations naviguent à vue. Si près de la moitié de votre main-d’œuvre utilise l’IA de manière inappropriée et que vous ne le savez même pas, votre exposition au risque est énorme, allant de la fuite de données aux violations de conformité, en passant par l’érosion des compétences dont vos employés ont réellement besoin. »
Sortir l’utilisation néfaste de l’IA de l’ombre
Les dirigeants doivent proposer des politiques, des règles et des sanctions pour garantir que l’IA est utilisée de manière éthique dans leurs entreprises. Ces stratégies doivent être prioritaires.
Tirer des leçons du passé
Il est raisonnable de penser que les chiffres de Melbourne/KPMG ne sont pas spécifiques à l’IA.
« Nous avons observé des schémas similaires lorsque l’internet et les moteurs de recherche ont d’abord pénétré le lieu de travail », a déclaré Joe Schaeppi, co-fondateur de Solsten, une entreprise de engagement utilisateur basée à Minneapolis, Minnesota. « Chaque fois qu’un nouvel outil puissant apparaît, l’abus est inévitable ; c’est la nature humaine. »
À mesure que l’adoption de l’IA augmente, Schaeppi pense que la gestion verra probablement plus d’expérimentations et de comportements en zone grise, mais comme pour toutes les technologies, la gouvernance et les garde-fous évoluent. « Des entreprises comme Anthropic adoptent déjà une approche plus axée sur l’entreprise, en intégrant des règles et des contraintes pour réduire les risques à mesure que la technologie mûrit », a-t-il noté. « Si vous êtes une entreprise et que vous constatez un comportement inapproprié sur un outil, la préoccupation doit porter sur la culture et la manière dont vous appliquez les politiques et procédures. »
S’appuyer sur la supervision humaine
Pour contrôler l’engagement de l’IA au travail, la direction doit confier à une équipe d’analyse de l’IA la tâche d’examiner l’accès aux données de l’entreprise et les permissions pour tout type de données cruciales pour l’avenir de l’entreprise.
« Ensuite, les jeux de données synthétiques ne sont pas nouveaux et constituent une excellente façon de modéliser les résultats tout en exploitant vos données », a-t-il déclaré. « De plus, je recommande toujours d’impliquer un humain dans le processus avant que tout ne soit mis en ligne. Plusieurs entreprises ont encore constaté des erreurs dans les rapports générés par l’IA. Que ce soit pour assurer que le message reste conforme à la marque ou qu’il soit approprié, il est important de garder un humain dans la boucle. »
Clarifier les règles d’utilisation de l’IA
Les entreprises doivent également fournir des outils d’IA internes approuvés et établir une règle claire : ne jamais mettre d’informations confidentielles ou réglementées dans des systèmes d’IA publics.
« Elles doivent aussi surveiller où circulent les données sensibles, notamment le copier-coller dans les outils d’IA, ce qui constitue aujourd’hui un point aveugle majeur que la plupart des entreprises ignorent complètement », a déclaré Timsah. « Plus important encore, les entreprises doivent changer leur façon d’évaluer les employés. »
Timsah encourage également les dirigeants à ne pas se contenter de récompenser la production soignée. « Exigez que les employés expliquent leur raisonnement et démontrent leur compréhension », a-t-elle dit. « L’IA peut générer des réponses, mais elle ne peut pas remplacer la responsabilité ou la propriété. »
La première politique mise en place par l’équipe de Timsah chez i-GENTIC était simple et claire : les employés pouvaient utiliser des outils d’IA approuvés, mais ne pouvaient pas entrer d’informations confidentielles, clients, financières ou propriétaires dans des systèmes d’IA publics.
« Nous avons mis l’accent sur la clarté, pas sur la restriction », a-t-elle noté. « Cela a instauré la confiance parce que l’employé savait que l’utilisation de l’IA était autorisée, mais avec des limites claires. Cela a aussi renforcé la responsabilité, car tout le monde comprenait ce qui était sûr et ce qui ne l’était pas. »
La formation en entreprise doit se concentrer sur des exemples concrets, pas sur des politiques vagues que personne ne lit. Les employés doivent comprendre clairement ce qui est sûr et ce qui ne l’est pas.
« Utiliser l’IA pour réécrire un email générique, c’est acceptable », a déclaré Timsah. « Télécharger des contrats clients, des données financières ou des informations propriétaires dans un outil d’IA public, ce n’est pas acceptable. Utiliser l’IA pour brainstormer des idées, c’est acceptable. Présenter une analyse générée par l’IA que vous ne comprenez pas comme votre propre travail, ce ne l’est pas. »
Quand faire appel à une assistance extérieure
L’usage abusif de l’IA par un employé devient une question juridique lorsqu’il y a intention et préjudice.
« Cela inclut la fuite de données confidentielles, le vol de propriété intellectuelle, la manipulation d’informations financières ou la fraude avec l’aide de l’IA », a noté Timsah. « À ce moment-là, les entreprises peuvent faire appel à des enquêteurs, des régulateurs ou des forces de l’ordre. »
Les décideurs doivent aussi savoir que la plupart des abus commencent par la commodité, pas par une intention malveillante, mais une fois qu’ils causent un vrai préjudice, une exposition financière ou une tromperie, ils entrent dans le domaine juridique. « La distinction clé est de savoir si l’abus a entraîné une exposition, une perte ou une dissimulation intentionnelle », a ajouté Timsah.
Enfin, former les employés
Les experts soulignent qu’il est important que les organisations traitent l’utilisation de l’IA comme tout autre comportement à haut risque et forment les employés à l’utiliser en toute sécurité.
De plus, lors de la formation des employés à l’utilisation de l’IA, la direction doit leur faire comprendre que l’utilisation de l’IA ne les exonère pas de responsabilité.
« Les employés restent responsables de s’assurer que les informations qu’ils téléchargent sur les plateformes d’IA sont exactes et conformes à la loi », a déclaré Kelsey Szamet, associée chez Kingsley Szamet Employment Lawyers. « Ils doivent aussi être conscients que le téléchargement d’informations confidentielles ou propriétaires sur des plateformes d’IA peut entraîner leur exposition permanente sur la plateforme. »
Du point de vue de l’emploi, la cohérence est essentielle. Si un employé est licencié pour abus de l’IA et qu’un autre ne l’est pas, cela pose des problèmes de discrimination et de représailles. « Plus la politique et la formation sont solides, moins il y a de risques de litiges », a déclaré Szamet.
La préoccupation principale n’est pas que les employés utiliseront l’IA. Ils le feront. « La vraie inquiétude, c’est que les entreprises anticipent cela avant que cela ne devienne un problème », a ajouté Szamet.
📬 Inscrivez-vous au Briefing Quotidien
Notre briefing gratuit, rapide et ludique sur l’économie mondiale, livré chaque matin en semaine.
Inscrivez-moi