Pertimbangan Etis dalam Penerapan DeepSeek AI di Fintech


Devin Partida adalah Pemimpin Redaksi ReHack. Sebagai penulis, karyanya pernah dimuat di Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf, dan lainnya.


Temukan berita dan acara fintech teratas!

Berlangganan buletin FinTech Weekly

Dibaca oleh para eksekutif di JP Morgan, Coinbase, Blackrock, Klarna, dan lainnya


Kecerdasan buatan (AI) adalah salah satu teknologi yang paling menjanjikan namun sekaligus paling mengkhawatirkan secara unik dalam fintech saat ini. Sekarang setelah DeepSeek mengirimkan gelombang kejut ke seluruh lanskap AI, kemungkinan dan jebarannya yang spesifik menuntut perhatian.

Sementara ChatGPT membawa AI generatif ke arus utama pada 2022, DeepSeek mendorongnya ke level baru ketika model DeepSeek-R1-nya diluncurkan pada 2025.

Algoritmanya open-source dan gratis, tetapi telah menunjukkan kinerja dengan standar yang serupa dengan alternatif proprietari berbayar. Karena itu, ini adalah peluang bisnis yang menggoda bagi perusahaan fintech yang ingin memanfaatkan AI, tetapi juga memunculkan beberapa pertanyaan etis.


Bacaan yang direkomendasikan:

*   **Model R1 DeepSeek Memicu Perdebatan tentang Masa Depan Pengembangan AI**
*   **Model AI DeepSeek: Peluang dan Risiko bagi Perusahaan Teknologi Skala Kecil**

Privasi Data

Seperti banyak aplikasi AI lainnya, privasi data menjadi perhatian. Model bahasa besar (LLM) seperti DeepSeek memerlukan sejumlah besar informasi, dan dalam sektor seperti fintech, sebagian besar data ini mungkin bersifat sensitif.

DeepSeek memiliki komplikasi tambahan karena merupakan perusahaan asal Tiongkok. Pemerintah Tiongkok dapat mengakses semua informasi pada pusat data yang dimiliki secara Tiongkok atau meminta data dari perusahaan di dalam negeri. Akibatnya, model ini dapat menimbulkan risiko terkait mata-mata asing dan propaganda.

Kebocoran data dari pihak ketiga juga menjadi kekhawatiran lain. DeepSeek sudah mengalami kebocoran yang mengekspos lebih dari 1 juta catatan, yang dapat menimbulkan keraguan tentang keamanan alat-alat AI.

Bias AI

Model pembelajaran mesin seperti DeepSeek rentan terhadap bias. Karena model AI sangat mahir dalam mendeteksi dan belajar dari pola-pola halus yang mungkin tidak disadari manusia, mereka dapat mengadopsi prasangka yang tidak disadari dari data pelatihannya. Saat mereka belajar dari informasi yang timpang itu, mereka dapat memperpanjang dan memperburuk masalah ketimpangan.

Kekhawatiran seperti ini terutama menonjol di bidang keuangan. Karena institusi keuangan secara historis menahan kesempatan dari kelompok minoritas, data historis mereka menunjukkan adanya bias yang signifikan. Melatih DeepSeek pada kumpulan data ini bisa mengarah pada tindakan yang semakin bias seperti AI yang menolak pinjaman atau hipotek berdasarkan etnis seseorang, bukan berdasarkan kelayakan kredit.

Kepercayaan Konsumen

Saat isu-isu terkait AI memenuhi judul berita, masyarakat umum menjadi semakin curiga terhadap layanan-layanan ini. Hal itu dapat menyebabkan terkikisnya kepercayaan antara bisnis fintech dan para kliennya jika bisnis tersebut tidak mengelola kekhawatiran ini secara transparan.

DeepSeek mungkin menghadapi hambatan yang unik di sini. Perusahaan tersebut, menurut laporan, membangun modelnya dengan biaya hanya $6 juta dan, sebagai perusahaan asal Tiongkok yang berkembang cepat, dapat mengingatkan orang pada kekhawatiran privasi yang memengaruhi TikTok. Publik mungkin tidak antusias untuk mempercayai model AI beranggaran rendah yang dikembangkan dengan cepat dengan data mereka, terutama ketika pemerintah Tiongkok mungkin memiliki beberapa pengaruh.

Cara Memastikan Penerapan DeepSeek yang Aman dan Etis

Pertimbangan etis ini tidak berarti perusahaan fintech tidak bisa menggunakan DeepSeek dengan aman, tetapi semuanya menegaskan pentingnya penerapan yang hati-hati. Organisasi dapat menerapkan DeepSeek secara etis dan aman dengan mematuhi praktik-praktik terbaik berikut.

Jalankan DeepSeek di Server Lokal

Salah satu langkah yang paling penting adalah menjalankan alat AI pada pusat data di dalam negeri. Meskipun DeepSeek adalah perusahaan asal Tiongkok, bobot modelnya open, sehingga memungkinkan untuk menjalankannya di server U.S. dan mengurangi kekhawatiran tentang kebocoran privasi dari pemerintah Tiongkok.

Namun, tidak semua pusat data memiliki keandalan yang sama. Idealnya, bisnis fintech akan meng-host DeepSeek pada perangkat keras mereka sendiri. Jika itu tidak memungkinkan, pimpinan harus memilih host dengan cermat, hanya bermitra dengan pihak yang memiliki jaminan waktu aktif yang tinggi dan standar keamanan seperti ISO 27001 dan NIST 800-53.

Minimalkan Akses ke Data Sensitif

Saat membangun aplikasi berbasis DeepSeek, perusahaan fintech harus mempertimbangkan jenis data yang dapat diakses oleh model tersebut. AI hanya boleh dapat mengakses apa yang dibutuhkannya untuk menjalankan fungsinya. Menghapus data yang dapat diakses yang tidak diperlukan, informasi pribadi yang dapat diidentifikasi (PII), juga merupakan langkah yang ideal.

Ketika DeepSeek menyimpan lebih sedikit detail sensitif, dampak dari setiap kebocoran akan menjadi lebih kecil. Meminimalkan pengumpulan PII juga menjadi kunci untuk tetap patuh pada hukum seperti General Data Protection Regulation (GDPR) dan Gramm-Leach-Bliley Act (GLBA).

Terapkan Kontrol Keamanan Siber

Regulasi seperti GDPR dan GLBA juga biasanya mewajibkan langkah-langkah perlindungan untuk mencegah kebocoran sejak awal. Bahkan di luar legislasi tersebut, riwayat DeepSeek terkait kebocoran menyoroti perlunya perlindungan keamanan tambahan.

Setidaknya, fintech harus mengenkripsi semua data yang dapat diakses AI, baik saat disimpan (at rest) maupun saat dikirim (in transit). Pengujian penetrasi secara berkala untuk menemukan dan memperbaiki kerentanan juga ideal.

Organisasi fintech juga harus mempertimbangkan pemantauan otomatis atas aplikasi DeepSeek mereka, karena otomatisasi seperti itu menghemat $2,2 juta biaya kebocoran secara rata-rata, berkat respons yang lebih cepat dan lebih efektif.

Audit dan Pantau Semua Aplikasi AI

Bahkan setelah mengikuti langkah-langkah ini, penting untuk tetap waspada. Audit aplikasi berbasis DeepSeek sebelum menerapkannya untuk mencari tanda bias atau kerentanan keamanan. Ingat bahwa beberapa masalah mungkin tidak terlihat pada awalnya, sehingga tinjauan yang berkelanjutan diperlukan.

Buat satuan tugas khusus untuk memantau hasil solusi AI dan memastikan solusi tersebut tetap etis dan patuh terhadap semua regulasi yang berlaku. Sebaiknya Anda juga bersikap transparan kepada pelanggan mengenai praktik ini. Rasa tenang tersebut dapat membantu membangun kepercayaan di bidang yang sebetulnya meragukan.

Perusahaan Fintech Harus Mempertimbangkan Etika AI

Data fintech sangat sensitif, sehingga semua organisasi di sektor ini harus menganggap serius alat-alat yang bergantung pada data seperti AI. DeepSeek bisa menjadi sumber daya bisnis yang menjanjikan, tetapi hanya jika penggunaannya mengikuti pedoman etika dan keamanan yang ketat.

Setelah para pemimpin fintech memahami kebutuhan akan kehati-hatian seperti itu, mereka dapat memastikan investasi DeepSeek mereka dan proyek AI lainnya tetap aman dan adil.

DEEPSEEK13,51%
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan