Các vấn đề đạo đức trong việc triển khai AI DeepSeek trong lĩnh vực Fintech


Devin Partida là Tổng Biên tập của ReHack. Với tư cách là một nhà văn, tác phẩm của cô ấy đã được đăng tải trên Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf và nhiều nơi khác.


Khám phá các tin tức và sự kiện fintech hàng đầu!

Đăng ký nhận bản tin của FinTech Weekly

Được đọc bởi các giám đốc điều hành tại JP Morgan, Coinbase, Blackrock, Klarna và hơn thế nữa


Trí tuệ nhân tạo (AI) là một trong những công nghệ hứa hẹn nhất nhưng cũng gây lo ngại một cách đặc biệt trong fintech ngày nay. Khi DeepSeek đã tạo ra những chấn động trong toàn bộ lĩnh vực AI, thì những khả năng và rủi ro cụ thể của nó đòi hỏi sự quan tâm.

Trong khi ChatGPT đã đưa AI tạo sinh vào dòng chính vào năm 2022, DeepSeek đã nâng nó lên tầm cao mới khi mô hình DeepSeek-R1 của họ ra mắt vào năm 2025.

Thuật toán là mã nguồn mở và miễn phí nhưng đã thể hiện ở mức độ tương tự như các giải pháp độc quyền trả phí. Vì vậy, đây là một cơ hội kinh doanh hấp dẫn đối với các công ty fintech mong muốn tận dụng AI, nhưng nó cũng đặt ra một số câu hỏi về đạo đức.


Tài liệu đọc được khuyến nghị:

*   **Mô hình R1 của DeepSeek khơi dậy tranh luận về tương lai phát triển AI**
*   **Mô hình AI của DeepSeek: Cơ hội và rủi ro cho các công ty công nghệ nhỏ**

Quyền riêng tư dữ liệu

Như với nhiều ứng dụng AI khác, quyền riêng tư dữ liệu là một mối quan ngại. Các mô hình ngôn ngữ lớn (LLM) như DeepSeek cần một lượng thông tin đáng kể, và trong một lĩnh vực như fintech, phần lớn dữ liệu này có thể nhạy cảm.

DeepSeek còn có thêm một phức tạp: đây là công ty của Trung Quốc. Chính phủ Trung Quốc có thể truy cập mọi thông tin trên các trung tâm dữ liệu do công ty sở hữu tại Trung Quốc hoặc yêu cầu dữ liệu từ các công ty trong nước. Do đó, mô hình có thể mang đến các rủi ro liên quan đến gián điệp nước ngoài và tuyên truyền.

Rò rỉ dữ liệu của bên thứ ba là một mối lo khác. DeepSeek đã từng chịu một vụ rò rỉ, phơi bày hơn 1 triệu bản ghi, điều này có thể làm dấy lên nghi ngờ về tính an toàn của các công cụ AI.

Thiên kiến AI

Các mô hình học máy như DeepSeek dễ bị thiên kiến. Do các mô hình AI rất giỏi trong việc phát hiện và học từ các mẫu tinh vi mà con người có thể bỏ lỡ, chúng có thể tiếp thu những định kiến vô thức từ dữ liệu huấn luyện. Khi chúng học từ những thông tin bị lệch đó, chúng có thể duy trì và làm trầm trọng thêm các vấn đề bất bình đẳng.

Những nỗi lo này đặc biệt nổi bật trong tài chính. Bởi vì các tổ chức tài chính trong lịch sử đã hạn chế cơ hội đối với các nhóm thiểu số, dữ liệu lịch sử của họ thường thể hiện sự thiên kiến đáng kể. Việc huấn luyện DeepSeek trên các tập dữ liệu này có thể dẫn đến các hành động tiếp tục bị thiên vị như AI từ chối các khoản vay hoặc thế chấp dựa trên sắc tộc của một người thay vì khả năng tín dụng.

Niềm tin của người tiêu dùng

Khi các vấn đề liên quan đến AI tràn ngập các tiêu đề tin tức, công chúng nói chung ngày càng trở nên nghi ngờ đối với những dịch vụ này. Điều đó có thể dẫn đến sự suy giảm niềm tin giữa một doanh nghiệp fintech và khách hàng của họ nếu họ không quản lý minh bạch những lo ngại này.

DeepSeek có thể gặp một rào cản đặc thù ở đây. Theo thông tin, công ty đã xây dựng mô hình của mình chỉ với $6 triệu và, với tư cách là một công ty Trung Quốc phát triển nhanh, có thể khiến người ta nhớ đến các lo ngại về quyền riêng tư từng ảnh hưởng đến TikTok. Công chúng có thể không mặn mà với việc tin tưởng một mô hình AI có chi phí thấp và được phát triển nhanh, để xử lý dữ liệu của họ, đặc biệt khi chính phủ Trung Quốc có thể có một mức độ ảnh hưởng nhất định.

Cách đảm bảo triển khai DeepSeek an toàn và có đạo đức

Những cân nhắc về đạo đức này không có nghĩa là các công ty fintech không thể sử dụng DeepSeek một cách an toàn, nhưng chúng nhấn mạnh tầm quan trọng của việc triển khai cẩn thận. Các tổ chức có thể triển khai DeepSeek một cách có đạo đức và an toàn bằng cách tuân thủ các phương pháp tốt nhất này.

Chạy DeepSeek trên máy chủ cục bộ

Một trong những bước quan trọng nhất là chạy công cụ AI trên các trung tâm dữ liệu trong nước. Mặc dù DeepSeek là một công ty của Trung Quốc, các trọng số mô hình của họ là mã nguồn mở, nhờ đó có thể chạy trên các máy chủ tại Mỹ và giảm thiểu lo ngại về rò rỉ quyền riêng tư từ chính phủ Trung Quốc.

Tuy nhiên, không phải mọi trung tâm dữ liệu đều đáng tin cậy như nhau. Lý tưởng nhất, các doanh nghiệp fintech sẽ lưu trữ DeepSeek trên phần cứng của chính họ. Khi điều đó không khả thi, ban lãnh đạo nên chọn nhà cung cấp một cách cẩn thận, chỉ hợp tác với những đơn vị có cam kết cao về thời gian hoạt động ổn định và các tiêu chuẩn bảo mật như ISO 27001 và NIST 800-53.

Giảm thiểu quyền truy cập vào dữ liệu nhạy cảm

Khi xây dựng một ứng dụng dựa trên DeepSeek, các công ty fintech nên cân nhắc loại dữ liệu mà mô hình có thể truy cập. AI chỉ nên có khả năng truy cập những gì cần thiết để thực hiện chức năng của nó. Việc loại bỏ mọi thông tin nhận dạng cá nhân (PII) không cần thiết mà có thể truy cập được cũng là lý tưởng.

Khi DeepSeek lưu giữ ít chi tiết nhạy cảm hơn, thì mọi sự cố rò rỉ sẽ ít gây tác động hơn. Giảm thiểu việc thu thập PII cũng là chìa khóa để tuân thủ các quy định như Đạo luật Bảo vệ Dữ liệu Chung (General Data Protection Regulation - GDPR) và Đạo luật Gramm-Leach-Bliley (GLBA).

Triển khai các biện pháp kiểm soát an ninh mạng

Các quy định như GDPR và GLBA cũng thường yêu cầu các biện pháp bảo vệ để ngăn chặn rò rỉ ngay từ đầu. Ngay cả ngoài khuôn khổ các đạo luật đó, lịch sử rò rỉ của DeepSeek cho thấy nhu cầu cần có thêm các biện pháp bảo mật.

Tối thiểu, các doanh nghiệp fintech nên mã hóa toàn bộ dữ liệu mà AI có thể truy cập khi lưu trữ (at rest) và khi truyền tải (in transit). Việc kiểm thử xâm nhập định kỳ để tìm và khắc phục lỗ hổng cũng là lý tưởng.

Các tổ chức fintech cũng nên cân nhắc việc giám sát tự động các ứng dụng DeepSeek của họ, vì việc tự động hóa như vậy giúp tiết kiệm trung bình $2.2 triệu chi phí do vi phạm, nhờ các phản hồi nhanh hơn và hiệu quả hơn.

Kiểm toán và giám sát tất cả các ứng dụng AI

Ngay cả sau khi làm theo các bước này, điều quan trọng là phải luôn cảnh giác. Hãy kiểm toán ứng dụng dựa trên DeepSeek trước khi triển khai để tìm dấu hiệu của thiên kiến hoặc các lỗ hổng bảo mật. Hãy nhớ rằng một số vấn đề có thể không nhận thấy ngay từ đầu, vì vậy cần có việc rà soát liên tục.

Lập một ban chuyên trách riêng để giám sát kết quả của giải pháp AI và đảm bảo nó vẫn có đạo đức và tuân thủ mọi quy định liên quan. Tốt nhất cũng nên minh bạch với khách hàng về thực hành này. Sự trấn an có thể giúp xây dựng niềm tin trong một lĩnh vực vốn dĩ còn đáng ngờ.

Các công ty Fintech phải cân nhắc đạo đức AI

Dữ liệu fintech đặc biệt nhạy cảm, vì vậy mọi tổ chức trong lĩnh vực này phải coi trọng các công cụ phụ thuộc vào dữ liệu như AI. DeepSeek có thể là một nguồn lực kinh doanh đầy hứa hẹn, nhưng chỉ khi việc sử dụng nó tuân theo các nguyên tắc nghiêm ngặt về đạo đức và bảo mật.

Khi các nhà lãnh đạo fintech hiểu được nhu cầu phải cẩn trọng như vậy, họ có thể đảm bảo các khoản đầu tư DeepSeek của mình và các dự án AI khác vẫn an toàn và công bằng.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim