Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Ratusan kontrak diselesaikan dalam USDT atau BTC
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Futures Kickoff
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Karyawan menggunakan AI dengan cara yang merugikan — dan perusahaan mungkin tidak menyadarinya
Kecerdasan buatan telah mengguncang dunia kerja seperti gempa bumi, dan semakin banyak perusahaan yang menghadapi dampak setelahnya.
Salah satu masalah yang berkembang pesat adalah pertumbuhan yang disebut “shadow AI,” di mana pekerja menggunakan AI dengan cara yang seharusnya tidak dilakukan, baik secara tidak sengaja maupun tidak.
Menurut sebuah studi terbaru dari Universitas Melbourne dan KPMG, 47% profesional karir yang disurvei telah menggunakan AI secara tidak tepat di tempat kerja, dan 63% mengatakan mereka telah melihat staf lain menggunakan AI secara tidak tepat. Kasus-kasus tersebut bervariasi, mulai dari menggunakan AI untuk mengobrol dalam tes penilaian kinerja internal perusahaan hingga memasukkan data sensitif perusahaan ke dalam alat AI pihak ketiga.
Melakukan hal tersebut membawa risiko besar bagi perusahaan, catat studi tersebut.
“Penggunaan AI yang tidak terlihat atau shadow AI ini tidak hanya memperburuk risiko – tetapi juga sangat menghambat kemampuan organisasi untuk mendeteksi, mengelola, dan mengurangi risiko,” tulis laporan tersebut.
Perusahaan menghadapi ilusi kompetensi yang didorong oleh AI
Para ahli tempat kerja mengatakan bahwa perubahan nyata dengan AI bukanlah bahwa karyawan tiba-tiba menjadi tidak jujur. Perubahannya adalah bahwa AI mengambil jalan pintas dengan cepat, mudah, dan secara tidak terlihat.
“Sebelum AI, menyembunyikan pekerjaan yang buruk lebih sulit,” kata Zahra Timsah, pemimpin tata kelola AI dan CEO i-GENTIC AI, sebuah platform kepatuhan AI yang bersifat agen. “Sekarang, seorang karyawan dapat menghasilkan laporan yang rapi dalam hitungan menit, dan manajer menganggapnya kompeten. Ini menciptakan ilusi produktivitas.”
Sebagai contoh, Timsah menyebutkan seorang karyawan yang menggunakan AI untuk menghasilkan analisis dan menyajikannya dengan percaya diri, tetapi tidak mampu membela saat ditanya. “Perusahaan membuat keputusan berdasarkan pekerjaan yang sebenarnya tidak dipahami siapa pun,” tambah Timsah. “Ancaman terbesar bukanlah menyontek ujian. Melainkan perusahaan secara diam-diam kehilangan kecerdasan internal sambil percaya bahwa tim mereka berpikir secara mandiri.”
Eksekutif perusahaan terkenal lainnya mengatakan data menunjukkan bahwa perusahaan baru saja melihat puncak dari gunung es penggunaan shadow AI. Pertimbangkan gambaran lengkap dari studi Melbourne:
— 44% pekerja di AS menggunakan alat AI tanpa izin yang tepat,
— 46% mengunggah informasi sensitif perusahaan dan kekayaan intelektual ke platform AI publik, dan 64% mengakui mengurangi usaha mereka dalam pekerjaan karena mereka bisa bergantung pada AI.
— Lebih dari setengahnya, 57%, membuat kesalahan dalam pekerjaan mereka karena penggunaan AI yang tidak terkendali, dan 53% menyembunyikan penggunaan AI mereka sepenuhnya, menampilkan konten yang dihasilkan AI sebagai karya mereka sendiri.
“Bukan hanya bahwa orang menganggap AI sebagai karya mereka sendiri; mereka juga meracuni sumber daya perusahaan dengan mengandalkan AI yang tidak tepat,” kata Nick Misner, COO Cybrary, platform pengembangan profesional keamanan siber yang berbasis di Atlanta. “Sementara AI mempercepat kecepatan kita dalam coding, itu juga memperkenalkan lebih banyak utang dan kerentanan keamanan ke dalam organisasi.”
Misner mencatat bahwa ini bukan tren yang terisolasi; melainkan kegagalan sistemik dalam kesiapan organisasi.
“Kami melihat adopsi AI jauh melampaui tata kelola,” katanya. “Laporan State of the Global Workplace dari Gallup memberi tahu kita bahwa 79% tenaga kerja global berada di antara ‘melakukan yang minimum’ dan ‘aktif tidak terlibat’.”
Akibatnya, ketika Anda memberikan alat yang kuat kepada pekerja yang tidak terlibat tanpa panduan yang berarti, mereka tidak akan menggunakannya untuk menjadi lebih produktif. “Mereka akan menggunakannya untuk melakukan pekerjaan yang sama dengan usaha lebih sedikit atau, yang lebih buruk, memotong sudut dengan cara yang menimbulkan risiko organisasi yang nyata,” katanya.
Ancaman ini bukan hanya tentang menyontek ujian, meskipun dalam kasus KPMG Australia yang dilaporkan minggu ini, 28 karyawan tertangkap menggunakan AI untuk menyontek ujian internal, termasuk seorang mitra yang didenda $10.000 karena menyontek ujian etika AI.
“Contoh itu sangat menggambarkan ironi,” kata Misner. “Ancaman yang lebih besar adalah bahwa organisasi berjalan dalam kegelapan. Jika hampir setengah dari tenaga kerja Anda menggunakan AI secara tidak tepat dan Anda bahkan tidak menyadarinya, risiko eksposur Anda sangat besar, mulai dari kebocoran data, pelanggaran kepatuhan, hingga pengikisan keterampilan yang benar-benar dibutuhkan orang Anda.”
Mengeluarkan penggunaan AI yang jahat dari bayang-bayang
Para eksekutif harus mengambil langkah dengan usulan, kebijakan, dan sanksi untuk memastikan AI digunakan secara etis di perusahaan mereka. Strategi ini harus menjadi prioritas utama.
Belajar dari masa lalu
Ada argumen kuat bahwa angka-angka dari Melbourne/KPMG tidak unik untuk AI.
“Kami melihat pola serupa saat internet dan mesin pencari pertama kali masuk ke tempat kerja,” kata Joe Schaeppi, salah satu pendiri Solsten, perusahaan keterlibatan pengguna berbasis AI di Minneapolis, Minn. “Setiap kali alat baru yang kuat muncul, penyalahgunaan tidak bisa dihindari; itu sifat manusia.”
Seiring pertumbuhan adopsi AI, Schaeppi mengatakan manajemen kemungkinan akan melihat lebih banyak eksperimen dan perilaku abu-abu, tetapi seperti teknologi lain, tata kelola dan pengaman akan berkembang. “Perusahaan seperti Anthropic sudah mengambil pendekatan yang lebih berfokus pada perusahaan, membangun aturan dan batasan untuk mengurangi risiko seiring teknologi matang,” katanya. “Jika Anda perusahaan dan melihat perilaku tidak pantas di alat apa pun, perhatian harus ditempatkan pada budaya dan bagaimana Anda menegakkan kebijakan serta prosedur.”
Fokus pada pengawasan manusia
Untuk menjaga agar penggunaan AI di tempat kerja tetap terkendali, manajemen harus menugaskan tim analisis AI untuk meninjau akses data dan izin perusahaan terhadap jenis data yang sangat penting bagi masa depan bisnis.
“Selanjutnya, dataset sintetis bukanlah hal baru dan merupakan cara yang bagus untuk memodelkan hasil sambil memanfaatkan data Anda,” katanya. “Selain itu, saya selalu melibatkan manusia dalam proses sebelum sesuatu diluncurkan. Banyak perusahaan masih menemukan angka laporan AI salah. Apakah itu memastikan pesan tetap sesuai merek atau tepat, penting untuk menjaga manusia dalam proses.”
Jelas dalam aturan penggunaan AI
Perusahaan juga harus menyediakan alat AI internal yang disetujui dan menetapkan satu aturan yang jelas. Jangan pernah memasukkan informasi rahasia atau yang diatur ke dalam sistem AI publik.
“Perusahaan juga harus memantau aliran data sensitif, terutama salin-tempel ke alat AI, yang sekarang menjadi celah besar yang sering diabaikan oleh kebanyakan perusahaan,” kata Timsah. “Yang paling penting, perusahaan harus mengubah cara mereka menilai karyawan.”
Timsah juga mendorong pemimpin perusahaan untuk menghindari memberi penghargaan hanya pada output yang rapi. “Minta karyawan menjelaskan alasan mereka dan menunjukkan pemahaman,” katanya. “AI bisa menghasilkan jawaban, tetapi tidak bisa menggantikan kepemilikan atau akuntabilitas.”
Kebijakan pertama yang diterapkan tim Timsah di i-GENTIC sangat sederhana dan jelas: karyawan boleh menggunakan alat AI yang disetujui, tetapi tidak boleh memasukkan informasi rahasia, klien, keuangan, atau milik perusahaan ke dalam sistem AI publik.
“Kami fokus pada kejelasan, bukan pembatasan,” katanya. “Ini membangun kepercayaan karena karyawan tahu bahwa penggunaan AI diperbolehkan, tetapi dengan batasan yang jelas. Ini juga membangun akuntabilitas, karena semua orang memahami apa yang aman dan apa yang tidak.”
Pelatihan di dalam perusahaan harus berfokus pada contoh praktis, bukan kebijakan samar yang tidak dibaca siapa pun. Karyawan perlu memahami dengan jelas apa yang aman dan apa yang tidak.
“Menggunakan AI untuk menulis ulang email umum itu oke,” kata Timsah. “Mengunggah kontrak klien, data keuangan, atau informasi milik perusahaan ke alat AI publik tidak oke. Menggunakan AI untuk berbrainstorm ide itu oke. Menampilkan analisis yang dihasilkan AI yang tidak Anda pahami sebagai karya sendiri tidak oke.”
Kapan harus mencari bantuan penegakan dari luar
Penyalahgunaan AI oleh karyawan menjadi masalah hukum jika ada niat dan kerugian.
“Ini termasuk membocorkan data rahasia, mencuri kekayaan intelektual, memanipulasi informasi keuangan, atau melakukan penipuan dengan bantuan AI,” kata Timsah. “Pada titik ini, perusahaan dapat melibatkan penyidik, regulator, atau aparat penegak hukum.”
Pengambil keputusan perusahaan juga harus tahu bahwa sebagian besar penyalahgunaan dimulai sebagai kemudahan, bukan niat jahat, tetapi begitu menyebabkan kerugian nyata, eksposur keuangan, atau penipuan, itu melanggar wilayah hukum. “Perbedaan utama adalah apakah penyalahgunaan menyebabkan eksposur, kerugian, atau penutupan secara sengaja,” tambah Timsah.
Terakhir, fokus pada pelatihan
Para ahli mengatakan penting untuk memperlakukan penggunaan AI seperti perilaku berisiko tinggi lainnya dan mendidik karyawan tentang cara menggunakannya dengan aman.
Selain itu, saat mendidik karyawan tentang penggunaan AI, manajemen harus membuat mereka sadar bahwa menggunakan AI tidak membebaskan mereka dari tanggung jawab.
“Karyawan tetap bertanggung jawab memastikan bahwa informasi yang mereka unggah ke platform AI akurat dan tidak melanggar hukum,” kata Kelsey Szamet, mitra di Kingsley Szamet Employment Lawyers. “Karyawan juga harus sadar bahwa mengunggah informasi rahasia dan milik perusahaan ke platform AI dapat menyebabkan informasi tersebut dipublikasikan secara permanen di platform.”
Dari sudut pandang ketenagakerjaan, konsistensi adalah kunci. Jika satu karyawan dipecat karena penyalahgunaan AI dan yang lain tidak, itu menimbulkan masalah diskriminasi dan balas dendam. “Semakin baik kebijakan dan pelatihan yang diterapkan, semakin kecil risiko litigasi,” kata Szamet.
Kekhawatiran terbesar bukanlah bahwa karyawan akan menggunakan AI. Mereka pasti akan. “Kekhawatiran adalah bahwa perusahaan akan mengatasi ini sebelum menjadi masalah,” tambah Szamet.
📬 Daftar untuk Daily Brief
Briefing gratis, cepat, dan menyenangkan tentang ekonomi global, dikirim setiap pagi hari kerja.
Daftarkan saya