Pertimbangan Etis dalam Penerapan DeepSeek AI di Fintech


Devin Partida adalah Pemimpin Redaksi dari ReHack. Sebagai seorang penulis, karyanya telah dimuat di Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf, dan lainnya.


Temukan berita dan acara fintech teratas!

Berlangganan buletin FinTech Weekly

Dibaca oleh eksekutif di JP Morgan, Coinbase, Blackrock, Klarna, dan lainnya


Kecerdasan buatan (AI) adalah salah satu teknologi yang paling menjanjikan tetapi juga paling mengkhawatirkan secara unik di fintech saat ini. Sekarang setelah DeepSeek mengguncang seluruh ranah AI, kemungkinan dan jebarannya yang spesifik menuntut perhatian.

Meskipun ChatGPT membawa AI generatif ke arus utama pada tahun 2022, DeepSeek membawanya ke level yang lebih tinggi ketika model DeepSeek-R1-nya diluncurkan pada tahun 2025.

Algoritmanya bersifat open-source dan gratis, tetapi kinerjanya telah menunjukkan standar yang serupa dengan alternatif proprietary berbayar. Karena itu, ini menjadi peluang bisnis yang menggoda bagi perusahaan fintech yang berharap memanfaatkan AI, tetapi juga menghadirkan beberapa pertanyaan etis.


Bacaan yang direkomendasikan:

*   **Model R1 DeepSeek Memicu Perdebatan tentang Masa Depan Pengembangan AI**
*   **Model AI DeepSeek: Peluang dan Risiko bagi Perusahaan Teknologi Kecil**

Privasi Data

Seperti banyak aplikasi AI, privasi data menjadi perhatian. Model bahasa besar (LLM) seperti DeepSeek memerlukan sejumlah besar informasi, dan dalam sektor seperti fintech, data tersebut mungkin sensitif.

DeepSeek memiliki komplikasi tambahan karena merupakan perusahaan asal Tiongkok. Pemerintah Tiongkok dapat mengakses semua informasi pada pusat data milik perusahaan yang dimiliki secara Tiongkok atau meminta data dari perusahaan di dalam negara tersebut. Akibatnya, model ini dapat menghadirkan risiko terkait pengintaian asing dan propaganda.

Kebocoran data oleh pihak ketiga adalah kekhawatiran lain. DeepSeek sudah mengalami kebocoran yang mengekspos lebih dari 1 juta catatan, yang dapat menimbulkan keraguan mengenai keamanan alat-alat AI tersebut.

Bias AI

Model pembelajaran mesin seperti DeepSeek rentan terhadap bias. Karena model AI sangat ahli dalam mendeteksi dan mempelajari pola-pola halus yang mungkin luput dari perhatian manusia, mereka dapat mengadopsi prasangka yang tidak disadari dari data pelatihan mereka. Saat mereka belajar dari informasi yang timpang itu, mereka dapat melanggengkan dan memperburuk masalah ketidaksetaraan.

Kekhawatiran semacam ini sangat menonjol dalam keuangan. Karena institusi keuangan secara historis telah menahan peluang dari kelompok minoritas, data historis mereka menunjukkan bias yang signifikan. Melatih DeepSeek pada kumpulan data tersebut dapat menyebabkan tindakan yang semakin bias seperti AI menolak pinjaman atau hipotek berdasarkan etnis seseorang, bukan berdasarkan kelayakan kredit.

Kepercayaan Konsumen

Ketika masalah-masalah terkait AI memenuhi tajuk berita, masyarakat umum menjadi semakin curiga terhadap layanan-layanan tersebut. Hal itu dapat menyebabkan terkikisnya kepercayaan antara bisnis fintech dan kliennya jika tidak mengelola kekhawatiran ini secara transparan.

DeepSeek mungkin menghadapi hambatan yang unik di sini. Perusahaan tersebut dilaporkan membangun modelnya hanya dengan $6 juta dan, sebagai perusahaan Tiongkok yang berkembang cepat, mungkin mengingatkan orang pada kekhawatiran privasi yang menimpa TikTok. Publik mungkin tidak antusias untuk mempercayai model AI yang anggarannya rendah dan dikembangkan dengan cepat dengan data mereka, terutama ketika pemerintah Tiongkok mungkin memiliki pengaruh.

Cara Memastikan Penempatan DeepSeek yang Aman dan Etis

Pertimbangan etis ini tidak berarti perusahaan fintech tidak bisa menggunakan DeepSeek secara aman, tetapi penekanan tetap pada pentingnya implementasi yang cermat. Organisasi dapat menerapkan DeepSeek secara etis dan aman dengan mematuhi praktik-praktik terbaik ini.

Jalankan DeepSeek di Server Lokal

Salah satu langkah yang paling penting adalah menjalankan alat AI di pusat data domestik. Meskipun DeepSeek adalah perusahaan asal Tiongkok, bobot modelnya bersifat open, sehingga memungkinkan untuk dijalankan di server AS dan mengurangi kekhawatiran terkait kebocoran privasi dari pemerintah Tiongkok.

Namun, tidak semua pusat data dapat diandalkan secara setara. Idealnya, perusahaan fintech akan meng-host DeepSeek pada perangkat keras mereka sendiri. Jika itu tidak memungkinkan, pihak kepemimpinan harus memilih host dengan cermat, hanya bekerja sama dengan pihak yang memiliki jaminan uptime tinggi dan standar keamanan seperti ISO 27001 dan NIST 800-53.

Minimalkan Akses ke Data Sensitif

Saat membangun aplikasi berbasis DeepSeek, perusahaan fintech perlu mempertimbangkan jenis data yang dapat diakses model tersebut. AI hanya seharusnya dapat mengakses apa yang dibutuhkannya untuk menjalankan fungsinya. Menghapus data yang dapat diakses dari informasi personally identifiable information (PII) yang tidak diperlukan juga merupakan hal yang ideal.

Ketika DeepSeek memiliki lebih sedikit detail sensitif, dampak dari setiap kebocoran akan lebih kecil. Meminimalkan pengumpulan PII juga kunci untuk tetap patuh pada hukum seperti General Data Protection Regulation (GDPR) dan Gramm-Leach-Bliley Act (GLBA).

Terapkan Kontrol Keamanan Siber

Peraturan seperti GDPR dan GLBA juga biasanya mewajibkan langkah-langkah perlindungan untuk mencegah kebocoran sejak awal. Bahkan di luar legislasi seperti itu, riwayat DeepSeek dengan kebocoran menyoroti kebutuhan akan perlindungan keamanan tambahan.

Setidaknya, fintech harus mengenkripsi semua data yang dapat diakses AI saat disimpan dan saat dikirim. Pengujian penetrasi berkala untuk menemukan dan memperbaiki kerentanan juga ideal.

Organisasi fintech juga harus mempertimbangkan pemantauan otomatis untuk aplikasi DeepSeek mereka, karena otomatisasi seperti itu menghemat $2,2 juta dalam biaya kebocoran secara rata-rata, berkat respons yang lebih cepat dan lebih efektif.

Audit dan Pantau Semua Aplikasi AI

Bahkan setelah mengikuti langkah-langkah ini, penting untuk tetap waspada. Audit aplikasi berbasis DeepSeek sebelum menempatkannya untuk mencari tanda-tanda bias atau kerentanan keamanan. Ingat bahwa beberapa masalah mungkin tidak terlihat pada awalnya, jadi tinjauan berkelanjutan diperlukan.

Buat satuan tugas khusus untuk memantau hasil solusi AI dan memastikan solusi tersebut tetap etis serta patuh terhadap peraturan apa pun. Sebaiknya juga bersikap transparan kepada pelanggan mengenai praktik ini. Jaminan tersebut dapat membantu membangun kepercayaan di bidang yang sebaliknya meragukan.

Perusahaan Fintech Harus Mempertimbangkan Etika AI

Data fintech sangat sensitif, sehingga semua organisasi di sektor ini harus menganggap serius alat yang mengandalkan data seperti AI. DeepSeek bisa menjadi sumber daya bisnis yang menjanjikan, tetapi hanya jika penggunaannya mengikuti pedoman etika dan keamanan yang ketat.

Setelah para pemimpin fintech memahami kebutuhan akan kehati-hatian seperti itu, mereka dapat memastikan investasi DeepSeek mereka dan proyek AI lainnya tetap aman dan adil.

DEEPSEEK-2,04%
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan