Pertimbangan Etis dalam Penerapan DeepSeek AI di Fintech


Devin Partida adalah Pemimpin Redaksi ReHack. Sebagai penulis, karyanya telah ditampilkan di Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf, dan lainnya.


Temukan berita dan acara fintech teratas!

Berlangganan buletin FinTech Weekly

Dibaca oleh para eksekutif di JP Morgan, Coinbase, Blackrock, Klarna, dan lainnya


Kecerdasan buatan (AI) adalah salah satu teknologi yang paling menjanjikan namun juga paling unik dalam menimbulkan kekhawatiran di fintech saat ini. Kini setelah DeepSeek mengirimkan gelombang kejut di seluruh ranah AI, kemungkinan-kemungkinan dan jebarannya yang spesifik menuntut perhatian.

Sementara ChatGPT membawa AI generatif ke arus utama pada 2022, DeepSeek membawanya ke level yang lebih tinggi ketika model DeepSeek-R1-nya diluncurkan pada 2025.

Algoritmanya sumber terbuka dan gratis, tetapi telah menunjukkan kinerja pada standar yang serupa dengan alternatif milik/berbayar yang bersifat proprietari. Karena itu, ini menjadi peluang bisnis yang menggoda bagi perusahaan fintech yang ingin memanfaatkan AI, namun juga memunculkan beberapa pertanyaan etis.


Bacaan yang direkomendasikan:

*   **Model R1 DeepSeek Memicu Debat tentang Masa Depan Pengembangan AI**
*   **Model AI DeepSeek: Peluang dan Risiko bagi Perusahaan Teknologi Skala Kecil**

Privasi Data

Seperti banyak aplikasi AI lainnya, privasi data adalah sebuah kekhawatiran. Model bahasa besar (LLM) seperti DeepSeek memerlukan jumlah informasi yang substansial, dan dalam sektor seperti fintech, sebagian besar data ini mungkin sensitif.

DeepSeek memiliki komplikasi tambahan karena merupakan perusahaan asal Tiongkok. Pemerintah Tiongkok dapat mengakses semua informasi pada pusat data yang dimiliki secara Tiongkok atau meminta data dari perusahaan di dalam negeri. Akibatnya, model ini dapat menimbulkan risiko terkait spionase asing dan propaganda.

Kebocoran data dari pihak ketiga menjadi perhatian lainnya. DeepSeek telah mengalami kebocoran yang mengekspos lebih dari 1 juta catatan, yang dapat menimbulkan keraguan mengenai keamanan alat-alat AI tersebut.

Bias AI

Model pembelajaran mesin seperti DeepSeek rentan terhadap bias. Karena model AI begitu jago dalam mengenali dan belajar dari pola-pola halus yang mungkin luput dari perhatian manusia, mereka dapat mengadopsi prasangka yang tidak disadari dari data pelatihan mereka. Saat mereka belajar dari informasi yang timpang tersebut, mereka dapat melanggengkan dan memperburuk masalah ketimpangan.

Kekhawatiran seperti ini sangat menonjol dalam bidang keuangan. Karena institusi keuangan secara historis menahan peluang dari kelompok minoritas, data historis mereka menunjukkan adanya bias yang signifikan. Melatih DeepSeek pada kumpulan data tersebut dapat mengarah pada tindakan yang lebih bias, seperti AI menolak pinjaman atau hipotek berdasarkan etnis seseorang, bukan berdasarkan kelayakan kredit.

Kepercayaan Konsumen

Seiring masalah yang terkait AI memenuhi tajuk berita, masyarakat umum menjadi semakin curiga terhadap layanan-layanan ini. Hal itu dapat menyebabkan terkikisnya kepercayaan antara bisnis fintech dan para kliennya jika tidak mengelola kekhawatiran ini secara transparan.

DeepSeek mungkin menghadapi hambatan yang unik di sini. Perusahaan tersebut dilaporkan membangun modelnya hanya dengan $6 juta dan, sebagai perusahaan Tiongkok yang berkembang cepat, mungkin mengingatkan orang pada kekhawatiran privasi yang memengaruhi TikTok. Publik mungkin tidak antusias untuk mempercayai model AI berbiaya rendah yang dikembangkan secara cepat dengan data mereka, terutama ketika pemerintah Tiongkok mungkin memiliki pengaruh.

Cara Memastikan Penerapan DeepSeek yang Aman dan Etis

Pertimbangan etis ini tidak berarti perusahaan fintech tidak dapat menggunakan DeepSeek dengan aman, tetapi hal ini menekankan pentingnya penerapan yang cermat. Organisasi dapat menerapkan DeepSeek secara etis dan aman dengan mematuhi praktik terbaik berikut.

Jalankan DeepSeek di Server Lokal

Salah satu langkah yang paling penting adalah menjalankan alat AI di pusat data dalam negeri. Meskipun DeepSeek adalah perusahaan asal Tiongkok, bobot modelnya terbuka, sehingga memungkinkan untuk dijalankan di server AS dan mengurangi kekhawatiran tentang kebocoran privasi dari pemerintah Tiongkok.

Namun, tidak semua pusat data memiliki tingkat keandalan yang sama. Idealnya, bisnis fintech akan meng-host DeepSeek pada perangkat keras mereka sendiri. Jika itu tidak memungkinkan, pihak pimpinan harus memilih host dengan cermat, hanya bermitra dengan pihak yang menawarkan jaminan uptime tinggi dan standar keamanan seperti ISO 27001 dan NIST 800-53.

Minimalkan Akses ke Data Sensitif

Saat membangun aplikasi berbasis DeepSeek, perusahaan fintech sebaiknya mempertimbangkan jenis data yang dapat diakses oleh model tersebut. AI hanya boleh dapat mengakses apa yang diperlukan untuk menjalankan fungsinya. Menghapus data yang dapat diakses namun tidak diperlukan, seperti informasi pribadi yang dapat diidentifikasi (PII), juga merupakan hal yang ideal.

Ketika DeepSeek memegang lebih sedikit detail sensitif, dampak dari setiap kebocoran akan lebih kecil. Meminimalkan pengumpulan PII juga menjadi kunci untuk tetap patuh pada hukum seperti General Data Protection Regulation (GDPR) dan Gramm-Leach-Bliley Act (GLBA).

Terapkan Kontrol Keamanan Siber

Regulasi seperti GDPR dan GLBA juga biasanya mewajibkan langkah-langkah perlindungan untuk mencegah kebocoran sejak awal. Bahkan di luar legislasi seperti itu, sejarah DeepSeek terkait kebocoran menyoroti perlunya perlindungan keamanan tambahan.

Setidaknya, perusahaan fintech harus mengenkripsi semua data yang dapat diakses AI saat disimpan (at rest) dan saat ditransmisikan (in transit). Pengujian penetrasi rutin untuk menemukan dan memperbaiki kerentanan juga ideal.

Organisasi fintech juga sebaiknya mempertimbangkan pemantauan otomatis untuk aplikasi DeepSeek mereka, karena otomatisasi tersebut menghemat $2,2 juta biaya kebocoran secara rata-rata, berkat respons yang lebih cepat dan lebih efektif.

Audit dan Pantau Semua Aplikasi AI

Bahkan setelah mengikuti langkah-langkah ini, penting untuk tetap waspada. Audit aplikasi berbasis DeepSeek sebelum menerapkannya untuk mencari tanda bias atau kerentanan keamanan. Ingat bahwa beberapa masalah mungkin tidak terlihat pada awalnya, jadi tinjauan berkelanjutan diperlukan.

Buat satuan tugas khusus untuk memantau hasil solusi AI dan memastikan bahwa solusi tersebut tetap etis dan patuh pada peraturan apa pun. Lebih baik juga bersikap transparan kepada pelanggan mengenai praktik ini. Keyakinan yang diberikan dapat membantu membangun kepercayaan di bidang yang sebelumnya meragukan.

Perusahaan Fintech Harus Mempertimbangkan Etika AI

Data fintech sangat sensitif, jadi semua organisasi di sektor ini harus menganggap serius alat yang bergantung pada data seperti AI. DeepSeek bisa menjadi sumber daya bisnis yang menjanjikan, tetapi hanya jika penggunaannya mengikuti pedoman etika dan keamanan yang ketat.

Setelah para pemimpin fintech memahami kebutuhan akan kehati-hatian seperti itu, mereka dapat memastikan bahwa investasi DeepSeek mereka dan proyek AI lainnya tetap aman dan adil.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan