Karyawan menggunakan AI dengan cara yang merugikan. Perusahaan mungkin tidak menyadarinya

Karyawan menggunakan AI dengan cara yang membahayakan. Perusahaan mungkin tidak menyadarinya

Quartz · China News Service lewat Getty Images

Brian O’Connell

Kamis, 26 Februari 2026 pukul 7:00 PM GMT+9 7 menit baca

Kecerdasan buatan telah menghantam dunia kerja seperti gempa bumi, dan, semakin lama, perusahaan menghadapi dampak susulan yang menyusul.

Salah satu masalah yang sedang berkembang adalah meningkatnya apa yang disebut “shadow AI” (AI bayangan), ketika para pekerja memakai AI dengan cara yang tidak seharusnya, baik tanpa sengaja maupun tidak.

Menurut studi terbaru dari University of Melbourne dan KPMG, 47% profesional karier yang disurvei telah menggunakan AI di tempat kerja secara tidak semestinya, dan 63% mengatakan mereka telah melihat staf lain menggunakan AI secara tidak semestinya. Kasus-kasus tersebut beragam, mulai dari menggunakan AI untuk mengobrol dalam tes penilaian kinerja internal perusahaan hingga memasukkan data perusahaan yang sensitif ke alat AI pihak ketiga.

Melakukannya membawa risiko besar bagi perusahaan, demikian catatan studi tersebut.

“Penggunaan invisible atau shadow AI ini tidak hanya memperparah risiko — tetapi juga sangat menghambat kemampuan organisasi untuk mendeteksi, mengelola, dan mengurangi risiko,” demikian bunyi laporan tersebut.

Perusahaan menghadapi ilusi kompetensi yang digerakkan oleh AI

Para ahli tempat kerja mengatakan perubahan nyata dengan AI bukan bahwa karyawan tiba-tiba menjadi tidak jujur. Perubahannya adalah AI mengambil jalan pintas dengan cepat, mudah, dan secara tak terlihat.

“Sebelum AI, menyembunyikan pekerjaan yang buruk lebih sulit,” kata Zahra Timsah, pemimpin tata kelola AI dan CEO i-GENTIC AI, sebuah platform kepatuhan AI agenik. “Sekarang, seorang karyawan dapat menghasilkan laporan yang rapi dalam hitungan menit, dan manajer menganggapnya kompeten. Ini menciptakan ilusi produktivitas.”

Sebagai contoh, Timsah mengutip seorang karyawan yang menggunakan AI untuk menghasilkan analisis dan mempresentasikannya dengan percaya diri, tetapi tidak dapat membelanya saat diminta keterangan. “Perusahaan mengambil keputusan berdasarkan pekerjaan yang tidak benar-benar dipahami siapa pun,” tambah Timsah. “Ancaman terbesar bukanlah mencontek saat ujian. Ancaman terbesarnya adalah perusahaan diam-diam kehilangan kecerdasan internal mereka sambil meyakini bahwa tim mereka berpikir secara independen.”

Eksekutif perusahaan terkemuka lainnya mengatakan data menunjukkan bahwa perusahaan baru sekarang melihat puncak gunung es terkait penggunaan shadow AI. Pertimbangkan gambaran yang lebih lengkap dari studi Melbourne:

— 44% pekerja di A.S. menggunakan alat AI tanpa otorisasi yang tepat,

— 46% telah mengunggah informasi sensitif perusahaan dan kekayaan intelektual ke platform AI publik, dan 64% mengakui bahwa mereka mengerahkan usaha yang lebih sedikit dalam pekerjaan mereka karena bisa bersandar pada AI.

— Lebih dari setengah, 57%, melakukan kesalahan dalam pekerjaan mereka karena penggunaan AI yang tidak diawasi, dan 53% menyembunyikan penggunaan AI mereka sepenuhnya, dengan menyajikan konten yang dihasilkan AI sebagai milik mereka sendiri.

“Bukan hanya orang-orang yang mengalihkan AI sebagai pekerjaan mereka sendiri; mereka juga meracuni ‘sumur’ korporat dengan bergantung pada hasil AI yang asal-asalan,” kata Nick Misner, COO Cybrary, sebuah platform pengembangan profesional keamanan siber berbasis di Atlanta. “Sementara AI mempercepat kecepatan kita menulis kode, AI juga memperkenalkan lebih banyak utang dan kerentanan keamanan ke dalam organisasi.”

Cerita berlanjut  

Misner mencatat ini bukan tren yang terisolasi; ini adalah kegagalan sistemik dari kesiapan organisasi.

“Kami melihat adopsi AI jauh melampaui tata kelola,” katanya. “Laporan Gallup tentang State of the Global Workplace memberi tahu kita bahwa 79% tenaga kerja global berada di suatu tempat di antara ‘melakukan yang minimum’ dan ‘secara aktif tidak terlibat.’”

Akibatnya, ketika Anda memberi pekerja yang tidak terlibat alat yang kuat tanpa panduan yang berarti, mereka tidak akan menggunakannya untuk menjadi lebih produktif. “Mereka akan menggunakannya untuk melakukan pekerjaan yang sama dengan usaha lebih sedikit, atau yang lebih buruk, untuk mengambil jalan pintas dengan cara yang menciptakan risiko organisasi yang nyata,” catatnya.

Ancaman ini tidak hanya soal mencontek saat ujian, meskipun dalam kasus KPMG Australia yang dilaporkan minggu ini, 28 karyawan tertangkap menggunakan AI untuk mencontek ujian internal, termasuk seorang rekan yang didenda $10.000 karena mencontek ujian etika AI.

“Contoh itu menggambarkan ironi dengan sangat tepat,” kata Misner. “Ancaman yang lebih besar adalah bahwa organisasi sedang terbang buta. Jika hampir setengah tenaga kerja Anda menggunakan AI secara tidak semestinya dan Anda bahkan tidak mengetahuinya, paparan risiko Anda sangat besar, mulai dari kebocoran data hingga pelanggaran kepatuhan hingga terkikisnya keterampilan yang benar-benar dibutuhkan orang-orang Anda.”

Mengeluarkan penggunaan AI yang berbahaya dari balik bayang-bayang

Pihak C-suite harus segera mengambil langkah dengan proposal, kebijakan, dan sanksi untuk memastikan AI digunakan secara etis di perusahaan mereka. Strategi-strategi ini harus berada di bagian teratas daftar prioritas mereka.

Belajar dari masa lalu

Ada dasar yang kuat untuk mengatakan bahwa angka Melbourne/KPMG tidak unik untuk AI.

“Kami melihat pola serupa ketika internet dan mesin pencari pertama kali masuk ke tempat kerja,” kata Joe Schaeppi, co-founder Solsten, sebuah perusahaan keterlibatan pengguna berbasis AI di Minneapolis, Minn. “Setiap kali alat baru yang kuat muncul, penyalahgunaan itu tidak terhindarkan; itu sifat manusia.”

Seiring adopsi AI meningkat, kata Schaeppi, manajemen kemungkinan akan melihat lebih banyak eksperimen dan perilaku di area abu-abu, tetapi seperti semua teknologi, tata kelola dan pagar pengaman akan berkembang. “Perusahaan seperti Anthropic sudah mengambil pendekatan yang lebih berfokus pada perusahaan, dengan membangun aturan dan batasan untuk mengurangi risiko saat teknologi tersebut matang,” katanya. “Jika Anda adalah perusahaan dan melihat perilaku yang tidak semestinya pada alat apa pun, kekhawatiran harus diarahkan pada budaya dan bagaimana Anda menegakkan kebijakan serta prosedur.”

Dorong pengawasan manusia

Agar keterlibatan AI di tempat kerja tetap terkendali, manajemen harus menugaskan tim analisis AI untuk meninjau akses data dan izin untuk jenis data apa pun yang sangat penting bagi masa depan bisnis.

“Berikutnya, kumpulan data sintetis bukan hal baru dan merupakan cara yang bagus untuk tetap memodelkan hasil sambil memanfaatkan data Anda,” katanya. “Selain itu, saya selalu akan melibatkan manusia dalam loop sebelum apa pun mulai berjalan. Beberapa perusahaan masih menemukan angka pelaporan AI yang salah. Baik untuk memastikan pesan masih sesuai merek atau sesuai, penting untuk menjaga manusia dalam loop.”

Jadikan aturan penggunaan AI sangat jelas

Perusahaan juga harus menyediakan alat AI internal yang disetujui dan menetapkan satu aturan yang jelas. Jangan pernah memasukkan informasi rahasia atau yang diatur ke dalam sistem AI publik.

“Mereka juga harus memantau ke mana data sensitif mengalir, terutama salin-tempel ke alat AI, yang kini menjadi celah buta besar yang dilewatkan sepenuhnya oleh kebanyakan perusahaan,” kata Timsah. “Paling penting, perusahaan harus mengubah cara mereka mengevaluasi karyawan. “

Timsah juga mendorong pemimpin perusahaan untuk menghindari memberi penghargaan hanya pada output yang rapi. “Wajibkan karyawan menjelaskan alasan mereka dan menunjukkan pemahaman,” katanya. “AI dapat menghasilkan jawaban, tetapi AI tidak dapat menggantikan kepemilikan atau akuntabilitas.”

Kebijakan pertama yang diterapkan tim Timsah di i-GENTIC adalah sederhana dan jelas: karyawan boleh menggunakan alat AI yang disetujui, tetapi mereka tidak boleh memasukkan informasi rahasia, klien, keuangan, atau milik pribadi ke dalam sistem AI publik.

“Kami berfokus pada kejelasan, bukan pembatasan,” katanya. “Ini menciptakan kepercayaan karena karyawan tahu penggunaan AI diperbolehkan, tetapi dengan batasan yang jelas. Ini juga membangun akuntabilitas, karena semua orang memahami apa yang aman dan apa yang tidak.”

Pelatihan di dalam perusahaan harus berfokus pada contoh yang praktis, bukan kebijakan samar yang tidak dibaca siapa pun. Karyawan perlu memahami dengan jelas apa yang aman dan apa yang tidak.

“Menggunakan AI untuk menulis ulang email generik itu boleh,” kata Timsah. “Mengunggah kontrak klien, data keuangan, atau informasi milik pribadi ke alat AI publik itu tidak boleh. Menggunakan AI untuk bertukar ide itu boleh. Menyajikan analisis yang dihasilkan AI yang tidak Anda pahami sebagai pekerjaan Anda sendiri itu tidak.”

Kapan perlu bantuan penegakan dari luar

Penyalahgunaan AI oleh karyawan menjadi isu hukum ketika ada niat dan dampak buruk.

“Ini termasuk membocorkan data rahasia, mencuri kekayaan intelektual, memanipulasi informasi keuangan, atau melakukan penipuan dengan bantuan AI,” demikian catat Timsah. “Pada titik itu, perusahaan dapat melibatkan penyelidik, regulator, atau aparat penegak hukum.”

Pengambil keputusan perusahaan juga harus tahu bahwa sebagian besar penyalahgunaan bermula dari kemudahan, bukan niat yang jahat, tetapi begitu hal itu menyebabkan kerugian nyata, paparan finansial, atau penipuan, maka ia masuk wilayah hukum. “Perbedaan kuncinya adalah apakah penyalahgunaan itu menghasilkan paparan, kehilangan, atau penyembunyian yang disengaja,” tambah Timsah.

Terakhir, fokus pada pelatihan

Para ahli mengatakan penting untuk dicatat bahwa organisasi harus memperlakukan penggunaan AI seperti perilaku berisiko tinggi lainnya dan mengedukasi karyawan tentang cara menggunakannya dengan aman.

Selain itu, saat mengedukasi karyawan tentang penggunaan AI, manajemen harus membuat mereka sadar bahwa menggunakan AI tidak membuat mereka lepas dari tanggung jawab.

“Karyawan tetap bertanggung jawab untuk memastikan bahwa informasi yang mereka unggah ke platform AI itu akurat dan tidak melanggar hukum apa pun,” kata Kelsey Szamet, partner di Kingsley Szamet Employment Lawyers. “Karyawan juga harus menyadari bahwa mengunggah informasi rahasia dan milik pribadi ke platform AI dapat mengakibatkan informasi tersebut terekspos secara permanen di platform.”

Dari perspektif ketenagakerjaan, konsistensi adalah kuncinya. Jika satu karyawan diberhentikan karena penyalahgunaan AI dan yang lain tidak, itu menimbulkan masalah tanggung gugat terkait diskriminasi dan pembalasan. “Semakin kuat kebijakan dan proses pelatihannya yang ada, semakin kecil risiko tuntutan hukum,” kata Szamet.

Kekhawatiran yang lebih besar bukanlah bahwa karyawan akan menggunakan AI. Mereka akan. “Yang jadi perhatian adalah bahwa perusahaan akan menangani ini lebih dulu sebelum itu menjadi masalah,” tambah Szamet.

Syarat dan Kebijakan Privasi

Dasbor Privasi

Info Lebih Lanjut

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan