Pertimbangan Etis dalam Penerapan DeepSeek AI di Fintech


Devin Partida adalah Pemimpin Redaksi ReHack. Sebagai penulis, karyanya telah dimuat di Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf, dan lainnya.


Temukan berita dan acara fintech teratas!

Berlangganan newsletter FinTech Weekly

Dibaca oleh eksekutif di JP Morgan, Coinbase, Blackrock, Klarna, dan lainnya


Kecerdasan buatan (AI) adalah salah satu teknologi yang paling menjanjikan tetapi juga paling mengkhawatirkan secara unik dalam fintech saat ini. Sekarang setelah DeepSeek mengirimkan gelombang kejut di seluruh ekosistem AI, kemungkinan spesifik dan jebakannya menuntut perhatian.

Sementara ChatGPT membawa AI generatif ke arus utama pada tahun 2022, DeepSeek membawanya ke level baru ketika model DeepSeek-R1-nya diluncurkan pada tahun 2025.

Algoritmanya bersifat open-source dan gratis, tetapi telah menunjukkan kinerja yang setara dengan alternatif berpemilik berbayar. Karena itu, ini merupakan peluang bisnis yang menggiurkan bagi perusahaan fintech yang ingin memanfaatkan AI, tetapi juga menghadirkan beberapa pertanyaan etis.


Bacaan yang direkomendasikan:

*   **Model R1 DeepSeek Memicu Perdebatan tentang Masa Depan Pengembangan AI**
*   **Model AI DeepSeek: Peluang dan Risiko bagi Perusahaan Teknologi Kecil**

Privasi Data

Seperti halnya banyak aplikasi AI, privasi data menjadi perhatian. Model bahasa besar (LLM) seperti DeepSeek memerlukan jumlah informasi yang substansial, dan dalam sektor seperti fintech, sebagian besar data ini mungkin bersifat sensitif.

DeepSeek memiliki komplikasi tambahan karena merupakan perusahaan asal Tiongkok. Pemerintah Tiongkok dapat mengakses semua informasi pada pusat data yang dimiliki perusahaan Tiongkok, atau meminta data dari perusahaan di dalam negeri. Akibatnya, model ini dapat menimbulkan risiko yang terkait dengan spionase dan propaganda asing.

Kebocoran data oleh pihak ketiga menjadi perhatian lain. DeepSeek sudah mengalami kebocoran yang mengekspos lebih dari 1 juta catatan, yang dapat menimbulkan keraguan atas keamanan alat AI tersebut.

Bias AI

Model pembelajaran mesin seperti DeepSeek rentan terhadap bias. Karena model AI sangat mahir dalam mendeteksi dan belajar dari pola-pola halus yang mungkin tidak disadari manusia, mereka dapat mengadopsi prasangka yang tidak disadari dari data pelatihan mereka. Ketika mereka belajar dari informasi yang timpang tersebut, mereka dapat melanggengkan dan memperburuk masalah ketimpangan.

Kekhawatiran seperti ini sangat menonjol di bidang keuangan. Karena institusi keuangan secara historis menahan peluang dari kelompok minoritas, data historis mereka menunjukkan bias yang signifikan. Melatih DeepSeek pada kumpulan data ini dapat mengarah pada tindakan yang makin bias seperti penolakan pinjaman atau hipotek oleh AI berdasarkan etnis seseorang, bukan berdasarkan kelayakan kredit.

Kepercayaan Konsumen

Ketika isu-isu terkait AI memenuhi halaman utama, masyarakat umum menjadi semakin curiga terhadap layanan-layanan ini. Hal itu dapat menyebabkan terkikisnya kepercayaan antara bisnis fintech dan kliennya jika tidak mengelola kekhawatiran ini secara transparan.

DeepSeek mungkin menghadapi hambatan yang unik di sini. Perusahaan tersebut dilaporkan membangun modelnya hanya dengan $6 juta dan, sebagai perusahaan Tiongkok yang berkembang pesat, mungkin mengingatkan orang pada kekhawatiran privasi yang memengaruhi TikTok. Publik mungkin tidak antusias untuk mempercayai model AI dengan anggaran rendah yang dikembangkan dengan cepat untuk data mereka, terutama ketika pemerintah Tiongkok mungkin memiliki pengaruh.

Cara Memastikan Penerapan DeepSeek yang Aman dan Etis

Pertimbangan etis ini tidak berarti perusahaan fintech tidak bisa menggunakan DeepSeek secara aman, tetapi hal itu menekankan pentingnya penerapan yang cermat. Organisasi dapat menerapkan DeepSeek secara etis dan aman dengan mematuhi praktik-praktik terbaik ini.

Jalankan DeepSeek di Server Lokal

Salah satu langkah paling penting adalah menjalankan alat AI di pusat data dalam negeri. Meskipun DeepSeek adalah perusahaan asal Tiongkok, bobot modelnya bersifat open, sehingga memungkinkan untuk dijalankan di server A.S. dan memitigasi kekhawatiran terkait kebocoran privasi dari pemerintah Tiongkok.

Namun, tidak semua pusat data sama andalnya. Idealnya, bisnis fintech akan meng-host DeepSeek pada perangkat keras mereka sendiri. Jika itu tidak memungkinkan, pihak kepemimpinan harus memilih host dengan cermat, hanya bermitra dengan pihak yang memiliki jaminan uptime tinggi dan standar keamanan seperti ISO 27001 dan NIST 800-53.

Minimalkan Akses ke Data Sensitif

Saat membangun aplikasi berbasis DeepSeek, perusahaan fintech harus mempertimbangkan jenis data yang dapat diakses oleh model. AI seharusnya hanya dapat mengakses apa yang dibutuhkan untuk menjalankan fungsinya. Menghapus data yang dapat diakses yang tidak diperlukan personally identifiable information (PII) juga merupakan hal yang ideal.

Ketika DeepSeek menyimpan lebih sedikit detail sensitif, dampak dari setiap kebocoran akan menjadi lebih kecil. Meminimalkan pengumpulan PII juga kunci untuk tetap mematuhi hukum seperti General Data Protection Regulation (GDPR) dan Gramm-Leach-Bliley Act (GLBA).

Terapkan Kontrol Keamanan Siber

Regulasi seperti GDPR dan GLBA juga umumnya mewajibkan langkah perlindungan untuk mencegah kebocoran sejak awal. Bahkan di luar legislasi tersebut, riwayat DeepSeek terkait kebocoran menyoroti perlunya langkah-langkah keamanan tambahan.

Setidaknya, fintech harus mengenkripsi semua data yang dapat diakses AI saat tersimpan (at rest) dan saat ditransmisikan (in transit). Pengujian penetrasi berkala untuk menemukan dan memperbaiki kerentanan juga ideal.

Organisasi fintech juga harus mempertimbangkan pemantauan otomatis aplikasi DeepSeek mereka, karena otomatisasi seperti itu menyimpan rata-rata $2,2 juta dalam biaya kebocoran, berkat respons yang lebih cepat dan lebih efektif.

Audit dan Pantau Semua Aplikasi AI

Bahkan setelah mengikuti langkah-langkah ini, penting untuk tetap waspada. Audit aplikasi berbasis DeepSeek sebelum menerapkannya untuk mencari tanda bias atau kerentanan keamanan. Ingat bahwa beberapa masalah mungkin tidak terlihat pada awalnya, jadi peninjauan berkelanjutan diperlukan.

Buat satuan tugas khusus untuk memantau hasil solusi AI dan memastikan solusi tersebut tetap etis serta mematuhi peraturan apa pun. Sebaiknya juga transparan kepada pelanggan mengenai praktik ini. Jaminan tersebut dapat membantu membangun kepercayaan di bidang yang sebenarnya meragukan.

Perusahaan Fintech Harus Mempertimbangkan Etika AI

Data fintech sangat sensitif, sehingga semua organisasi di sektor ini harus menganggap serius alat berbasis data seperti AI. DeepSeek bisa menjadi sumber daya bisnis yang menjanjikan, tetapi hanya jika penggunaannya mengikuti pedoman etika dan keamanan yang ketat.

Setelah para pemimpin fintech memahami kebutuhan akan kehati-hatian seperti itu, mereka dapat memastikan investasi DeepSeek mereka dan proyek AI lainnya tetap aman dan adil.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan