Các vấn đề đạo đức trong việc triển khai AI DeepSeek trong lĩnh vực Fintech


Devin Partida là Tổng biên tập của ReHack. Với tư cách là một nhà văn, các tác phẩm của cô đã xuất hiện trên Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf và nhiều tờ khác.


Khám phá tin tức và sự kiện fintech hàng đầu!

Đăng ký nhận bản tin FinTech Weekly

Được các lãnh đạo đọc tại JP Morgan, Coinbase, Blackrock, Klarna và hơn thế nữa


Trí tuệ nhân tạo (AI) là một trong những công nghệ hứa hẹn nhất nhưng cũng đáng lo ngại một cách đặc thù trong fintech hiện nay. Giờ đây, khi DeepSeek đã tạo ra những chấn động trên toàn bộ lĩnh vực AI, những khả năng và rủi ro cụ thể của nó đòi hỏi phải được chú ý.

Trong khi ChatGPT đã đưa AI tạo sinh vào dòng chính thống vào năm 2022, DeepSeek đã nâng nó lên tầm cao mới khi mô hình DeepSeek-R1 của hãng ra mắt vào năm 2025.

Thuật toán này là mã nguồn mở và miễn phí, nhưng đã đạt được hiệu suất tương tự như các lựa chọn độc quyền có trả phí. Vì vậy, đây là một cơ hội kinh doanh hấp dẫn đối với các công ty fintech muốn tận dụng AI, nhưng nó cũng đặt ra một số câu hỏi về đạo đức.


Tài liệu đọc được đề xuất:

*   **Mô hình R1 của DeepSeek khơi dậy tranh luận về tương lai phát triển AI**
*   **Mô hình AI của DeepSeek: Cơ hội và rủi ro cho các công ty công nghệ nhỏ**

Quyền riêng tư dữ liệu

Như với nhiều ứng dụng AI khác, quyền riêng tư dữ liệu là một mối quan tâm. Các mô hình ngôn ngữ lớn (LLM) như DeepSeek cần một lượng thông tin đáng kể, và trong một lĩnh vực như fintech, phần dữ liệu này có thể rất nhạy cảm.

DeepSeek còn có thêm một rắc rối là hãng này là công ty Trung Quốc. Chính phủ Trung Quốc có thể truy cập mọi thông tin trên các trung tâm dữ liệu do người Trung Quốc sở hữu hoặc yêu cầu dữ liệu từ các công ty trong phạm vi quốc gia đó. Do đó, mô hình có thể tiềm ẩn các rủi ro liên quan đến gián điệp nước ngoài và tuyên truyền.

Các sự cố rò rỉ dữ liệu từ bên thứ ba cũng là một mối lo khác. DeepSeek đã từng chịu một vụ rò rỉ, làm lộ ra hơn 1 triệu bản ghi, điều này có thể khiến người ta nghi ngờ về tính bảo mật của các công cụ AI.

Thiên kiến AI

Các mô hình học máy như DeepSeek dễ bị thiên kiến. Bởi vì các mô hình AI giỏi đến mức có thể nhận diện và học hỏi từ những mẫu tinh vi mà con người có thể bỏ sót, chúng có thể tiếp nhận những định kiến vô thức từ dữ liệu huấn luyện. Khi chúng học từ những thông tin bị lệch đó, chúng có thể duy trì và làm trầm trọng hơn các vấn đề bất bình đẳng.

Những nỗi lo như vậy đặc biệt nổi bật trong tài chính. Bởi vì các tổ chức tài chính trong lịch sử đã hạn chế cơ hội của các nhóm thiểu số, nên dữ liệu lịch sử của họ thường thể hiện sự thiên kiến đáng kể. Việc huấn luyện DeepSeek trên các bộ dữ liệu này có thể dẫn đến những hành động tiếp tục mang thiên kiến, chẳng hạn như AI từ chối các khoản vay hoặc thế chấp dựa trên sắc tộc của một người thay vì dựa trên khả năng tín dụng.

Niềm tin của người tiêu dùng

Khi các vấn đề liên quan đến AI xuất hiện dày đặc trên tiêu đề tin tức, công chúng nói chung ngày càng trở nên nghi ngờ các dịch vụ này. Điều đó có thể dẫn đến sự xói mòn niềm tin giữa một doanh nghiệp fintech và khách hàng của họ nếu họ không quản lý minh bạch những mối lo này.

DeepSeek có thể đối mặt với một rào cản riêng ở đây. Theo thông tin, công ty đã xây dựng mô hình của mình chỉ với 6 triệu USD và, với tư cách là một công ty Trung Quốc đang tăng trưởng nhanh, hãng có thể khiến người ta nhớ lại các lo ngại về quyền riêng tư đã từng ảnh hưởng đến TikTok. Công chúng có thể sẽ không mặn mà với việc tin tưởng một mô hình AI ngân sách thấp, được phát triển nhanh chóng, khi họ giao dữ liệu của mình, đặc biệt khi chính phủ Trung Quốc có thể có một số ảnh hưởng.

Cách đảm bảo triển khai DeepSeek an toàn và có đạo đức

Những cân nhắc về đạo đức này không có nghĩa là các công ty fintech không thể sử dụng DeepSeek một cách an toàn, nhưng chúng nhấn mạnh tầm quan trọng của việc triển khai cẩn thận. Các tổ chức có thể triển khai DeepSeek một cách có đạo đức và an toàn bằng cách tuân thủ các thực hành tốt nhất sau đây.

Chạy DeepSeek trên máy chủ nội địa

Một trong những bước quan trọng nhất là chạy công cụ AI trên các trung tâm dữ liệu trong nước. Dù DeepSeek là công ty Trung Quốc, các trọng số mô hình của hãng là mã nguồn mở, khiến việc chạy trên máy chủ tại Mỹ trở nên khả thi và có thể giảm thiểu các lo ngại về rò rỉ dữ liệu từ chính phủ Trung Quốc.

Tuy nhiên, không phải mọi trung tâm dữ liệu đều đáng tin cậy như nhau. Lý tưởng nhất, các doanh nghiệp fintech sẽ lưu trữ DeepSeek trên phần cứng của riêng họ. Khi điều đó không khả thi, ban lãnh đạo nên chọn nhà cung cấp một cách cẩn thận, chỉ hợp tác với những nơi có cam kết uptime cao và các tiêu chuẩn bảo mật như ISO 27001 và NIST 800-53.

Giảm thiểu quyền truy cập vào dữ liệu nhạy cảm

Khi xây dựng một ứng dụng dựa trên DeepSeek, các công ty fintech nên cân nhắc kiểu dữ liệu mà mô hình có thể truy cập. AI chỉ nên có khả năng truy cập những gì cần thiết để thực hiện chức năng của nó. Việc loại bỏ khỏi dữ liệu có thể truy cập bất kỳ thông tin nhận dạng cá nhân (PII) nào không cần thiết cũng là lý tưởng.

Khi DeepSeek nắm giữ ít chi tiết nhạy cảm hơn, thì mọi sự cố rò rỉ sẽ ít gây tác động hơn. Giảm thiểu việc thu thập PII cũng là chìa khóa để duy trì tuân thủ các luật như General Data Protection Regulation (GDPR) và Gramm-Leach-Bliley Act (GLBA).

Triển khai các kiểm soát an ninh mạng

Các quy định như GDPR và GLBA cũng thường yêu cầu các biện pháp bảo vệ để ngăn chặn rò rỉ ngay từ đầu. Ngay cả ngoài phạm vi các điều luật đó, lịch sử rò rỉ của DeepSeek cho thấy nhu cầu cần có thêm các biện pháp đảm bảo an ninh.

Tối thiểu, các công ty fintech nên mã hóa toàn bộ dữ liệu mà AI có thể truy cập khi lưu trữ và khi truyền tải. Việc kiểm thử xâm nhập định kỳ để tìm và khắc phục lỗ hổng cũng rất lý tưởng.

Các tổ chức fintech cũng nên xem xét việc giám sát tự động các ứng dụng DeepSeek của họ, vì tự động hóa như vậy giúp tiết kiệm trung bình 2,2 triệu USD chi phí do rò rỉ, nhờ các phản hồi nhanh hơn và hiệu quả hơn.

Kiểm toán và giám sát tất cả các ứng dụng AI

Ngay cả sau khi đã làm theo các bước này, vẫn cần duy trì sự cảnh giác. Kiểm toán ứng dụng dựa trên DeepSeek trước khi triển khai để tìm dấu hiệu thiên kiến hoặc các lỗ hổng bảo mật. Hãy nhớ rằng một số vấn đề có thể không nhận thấy ngay từ đầu, vì vậy cần có đánh giá liên tục.

Thành lập một nhóm đặc nhiệm chuyên trách để theo dõi kết quả của giải pháp AI và đảm bảo nó vẫn có đạo đức và tuân thủ mọi quy định liên quan. Cũng nên minh bạch với khách hàng về thực hành này. Sự trấn an có thể giúp xây dựng niềm tin trong một lĩnh vực vốn đầy những điều đáng ngờ.

Các công ty Fintech phải cân nhắc đạo đức AI

Dữ liệu fintech đặc biệt nhạy cảm, nên mọi tổ chức trong lĩnh vực này phải coi trọng các công cụ phụ thuộc dữ liệu như AI một cách nghiêm túc. DeepSeek có thể là một nguồn lực kinh doanh đầy hứa hẹn, nhưng chỉ khi việc sử dụng của nó tuân theo các nguyên tắc chặt chẽ về đạo đức và an ninh.

Khi các nhà lãnh đạo fintech hiểu được nhu cầu phải cẩn trọng như vậy, họ có thể đảm bảo các khoản đầu tư DeepSeek của mình và các dự án AI khác vẫn an toàn và công bằng.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$2.25KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.29KNgười nắm giữ:2
    0.00%
  • Vốn hóa:$2.26KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$0.1Người nắm giữ:1
    0.00%
  • Vốn hóa:$2.23KNgười nắm giữ:1
    0.00%
  • Ghim