【Hukum dan Keadilan】 Risiko hukum di balik "Pekerja AI" tidak boleh diabaikan

robot
Pembuatan abstrak sedang berlangsung

Hua Liu

Baru-baru ini, sebuah perusahaan media game di Shandong mencoba melatih karyawan yang mengundurkan diri menjadi “manusia AI” agar tetap bekerja, dan kasus ini menarik perhatian. Seorang karyawan perusahaan bernama Xiao Yu mengatakan kepada reporter bahwa rekan dalam peristiwa itu benar-benar mengundurkan diri; percobaan kali ini dilakukan setelah persetujuannya, dan ia sendiri juga merasa cukup menyenangkan. Xiao Yu mengatakan, sebelum mengundurkan diri, rekan tersebut adalah spesialis urusan sumber daya manusia, dan tiruan digitalnya saat ini dapat melakukan pekerjaan sederhana seperti memberikan konsultasi, mengirim undangan, serta membuat PPT dan tabel.

Jika dilihat dari permukaan, ini tampak seperti uji coba teknologi yang tidak terlalu berbahaya. Karyawan yang keluar “menyetujui” dan “merasa menyenangkan,” sementara perusahaan mendapatkan “tenaga kerja digital” berbiaya rendah dan berefisiensi tinggi. Namun, jika kita singkap tampakannya, upaya yang tampak hangat ini sesungguhnya menyentuh area abu-abu mengenai hak ketenagakerjaan dan etika teknologi di era AI, sehingga layak untuk kita telaah dengan tenang.

Dari sisi hukum, meskipun peristiwa ini seolah menghindari risiko kepatuhan karena “persetujuan dari pihak yang bersangkutan,” hal itu tidak berarti kita boleh lengah. Catatan obrolan karyawan yang mengundurkan diri, email kerja, kebiasaan kerja pribadi, dan sebagainya termasuk informasi pribadi yang ditetapkan dalam Undang-Undang Perlindungan Informasi Pribadi, bukan “aset” perusahaan. Bagi karyawan yang mengundurkan diri, jika hanya karena “rasanya seru” lalu secara sembarangan mengalihkan haknya, kemungkinan besar akan menimbulkan risiko keamanan. Sebab “tiruan digital” seperti ini sangat mudah membuat pihak lain dapat menghubungi dirinya dan bahkan dirinya sendiri; jika tiruan digital tersebut melanggar hak orang lain, pihak terkait juga dapat diminta untuk menanggung tanggung jawab bersama.

Selain itu, perlu dipertanyakan apakah apa yang disebut “persetujuan” ini benar-benar memadai dan sukarela. Dalam hubungan kerja–upah, karyawan biasanya berada pada posisi yang relatif lemah. Saat mengundurkan diri, apakah “persetujuan” tersebut akan terpengaruh oleh aturan tidak tertulis “berpisah dengan baik,” ataukah kekhawatiran terhadap surat rekomendasi di masa depan dan reputasi industri? Di mana batas “persetujuan” ini? Apakah hanya terbatas pada bentuk “tiruan” yang masih canggung pada saat ini, atau mencakup “versi lanjutan” yang lebih dalam yang mungkin muncul setelah iterasi teknologi di masa depan—yang dapat meniru pemikiran dan emosinya secara lebih mendalam? Ketika kebiasaan kerja seseorang, cara berkomunikasi, bahkan sebagian logika berpikirnya didata dan disimpan secara permanen, apakah “keabadian digital” seperti ini akan merampas hak pekerja untuk “berpisah dari masa lalu dan memulai kehidupan baru”?

Perusahaan menjadikan karyawan yang mengundurkan diri sebagai “manusia AI,” sehingga mengaburkan batas antara “manusia” dan “alat,” yakni melakukan proses “objektifikasi” lebih lanjut terhadap pekerja. Karyawan tidak lagi merupakan individu dengan emosi unik, kreativitas, dan sifat yang tidak dapat ditiru, melainkan menjadi “modul fungsi” yang dapat dipecah, dianalisis, disusun ulang, dan digunakan tanpa batas. Ketika perusahaan dengan mudah dapat “mendistilasi” pengalaman dan gaya karyawan menjadi AI, sinyal yang disampaikan itu dingin: individu dapat digantikan, dan nilai intinya terletak pada bagian yang bisa didata. Dalam jangka panjang, dunia kerja bisa berubah menjadi lini produksi algoritma yang sama sekali tidak bernuansa, sementara subjektivitas manusia akan sangat melemah.

Peraturan “Pengelolaan Layanan Informasi untuk Orang Virtual Digital” (disingkat “Peraturan”), yang sedang dimintakan masukan saat ini, memberi panduan penting untuk menormalkan tindakan semacam ini. “Peraturan” menekankan bahwa penyediaan layanan untuk manusia digital harus memperoleh persetujuan pribadi, serta perlu membangun mekanisme seperti identifikasi risiko dan pengendalian berdasarkan klasifikasi tingkat. Terutama, perlu melindungi kelompok khusus seperti anak di bawah umur. Ini mengingatkan kita bahwa meskipun memperoleh “persetujuan,” perusahaan tetap harus memikul tanggung jawab pengelolaan yang sesuai, agar penggunaan “tiruan digital” tidak melampaui batas dan tidak disalahgunakan. Jika tidak, ketika “tiruan digital” melanggar hak orang lain atau data terkait bocor, bukan hanya pihak terkait yang bisa terseret dalam sengketa, perusahaan pun akan menghadapi risiko hukum yang besar.

Pada intinya, perkembangan teknologi adalah pedang bermata dua, dan gagangnya seharusnya dipegang oleh diri kita sendiri. Menghadapi gelombang kecerdasan buatan, pekerja perlu belajar melindungi hak atas data mereka, dan secara aktif saat mengundurkan diri menandatangani klausul pembatasan penggunaan data; perusahaan perlu menemukan titik keseimbangan antara mengejar efisiensi dan menghormati martabat pribadi; sementara otoritas pengawas perlu mempercepat penyempurnaan peraturan perundang-undangan terkait untuk membentengi martabat personal di era digital.

Artikel kolom edisi ini hanya mewakili pendapat pribadi penulis

(Penyunting: Dong Pingping )

     【Disclaimer】Artikel ini hanya mewakili pendapat pribadi penulis, dan tidak ada hubungannya dengan Hexun. Situs Hexun bersikap netral terhadap pernyataan, penilaian, dan pandangan yang dimuat dalam artikel ini; tidak memberikan jaminan tersurat atau tersirat apa pun terkait akurasi, keandalan, atau kelengkapan atas isi yang tercakup. Pembaca hanya dapat menjadikannya sebagai referensi, dan harap menanggung seluruh tanggung jawab sendiri. Email: news_center@staff.hexun.com
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan