Các vấn đề đạo đức trong việc triển khai AI DeepSeek trong lĩnh vực Fintech


Devin Partida là Tổng biên tập của ReHack. Với tư cách là một nhà văn, các tác phẩm của cô đã xuất hiện trên Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf và nhiều nơi khác.


Khám phá tin tức và sự kiện fintech hàng đầu!

Đăng ký nhận bản tin của FinTech Weekly

Được đọc bởi các lãnh đạo tại JP Morgan, Coinbase, Blackrock, Klarna và hơn thế nữa


Trí tuệ nhân tạo (AI) là một trong những công nghệ đầy hứa hẹn nhưng cũng đặc biệt đáng lo ngại trong fintech ngày nay. Khi DeepSeek đã tạo ra những làn sóng chấn động trong toàn bộ lĩnh vực AI, các khả năng cụ thể cũng như những rủi ro của nó đòi hỏi sự chú ý.

Trong khi ChatGPT đưa AI tạo sinh vào xu hướng chủ đạo vào năm 2022, DeepSeek đã nâng nó lên tầm cao mới khi mô hình DeepSeek-R1 của hãng ra mắt vào năm 2025.

Thuật toán là mã nguồn mở và miễn phí nhưng đã hoạt động với tiêu chuẩn tương tự như các giải pháp độc quyền trả phí. Vì vậy, đây là một cơ hội kinh doanh đầy hấp dẫn đối với các công ty fintech muốn tận dụng AI, nhưng nó cũng đặt ra một số câu hỏi về đạo đức.


Tài liệu đọc được khuyến nghị:

*   **Mô hình R1 của DeepSeek khơi dậy tranh luận về tương lai phát triển AI**
*   **Mô hình AI của DeepSeek: Cơ hội và rủi ro cho các công ty công nghệ nhỏ**

Quyền riêng tư dữ liệu

Như với nhiều ứng dụng AI khác, quyền riêng tư dữ liệu là một vấn đề đáng quan tâm. Các mô hình ngôn ngữ lớn (LLM) như DeepSeek cần một lượng thông tin đáng kể, và trong một lĩnh vực như fintech, phần lớn dữ liệu này có thể rất nhạy cảm.

DeepSeek còn có một tình huống phức tạp bổ sung vì là một công ty của Trung Quốc. Chính phủ Trung Quốc có thể truy cập mọi thông tin trên các trung tâm dữ liệu do công ty Trung Quốc sở hữu hoặc yêu cầu dữ liệu từ các công ty trong nước. Do đó, mô hình có thể mang đến các rủi ro liên quan đến gián điệp nước ngoài và tuyên truyền.

Rò rỉ dữ liệu từ bên thứ ba cũng là một mối lo khác. DeepSeek đã từng gặp sự cố rò rỉ, phơi bày hơn 1 triệu bản ghi, điều này có thể làm dấy lên nghi ngờ về tính an toàn của các công cụ AI.

Thiên vị AI

Các mô hình học máy như DeepSeek dễ bị thiên vị. Bởi vì các mô hình AI rất giỏi trong việc phát hiện và học hỏi từ những mẫu tinh vi mà con người có thể bỏ lỡ, chúng có thể tiếp thu những định kiến vô thức từ dữ liệu huấn luyện. Khi chúng học từ những thông tin bị lệch như vậy, chúng có thể duy trì và làm trầm trọng thêm các vấn đề về bất bình đẳng.

Những lo ngại như vậy đặc biệt phổ biến trong tài chính. Do các tổ chức tài chính trong lịch sử đã hạn chế cơ hội đối với các nhóm thiểu số, dữ liệu lịch sử của họ thường cho thấy sự thiên vị đáng kể. Việc huấn luyện DeepSeek trên các bộ dữ liệu này có thể dẫn đến các hành động tiếp tục bị thiên vị như AI từ chối khoản vay hoặc thế chấp dựa trên sắc tộc của một người thay vì khả năng tín dụng.

Niềm tin của người tiêu dùng

Khi các vấn đề liên quan đến AI tràn ngập tiêu đề, công chúng nhìn chung ngày càng trở nên nghi ngờ những dịch vụ này. Điều đó có thể dẫn đến sự suy giảm niềm tin giữa một doanh nghiệp fintech và khách hàng của họ nếu không quản lý minh bạch những lo ngại này.

DeepSeek có thể phải đối mặt với một rào cản riêng ở đây. Theo thông tin, công ty đã xây dựng mô hình của mình chỉ với $6 triệu và, khi là một công ty Trung Quốc phát triển nhanh, có thể khiến người ta nhớ lại những lo ngại về quyền riêng tư đã ảnh hưởng đến TikTok. Công chúng có thể không mặn mà khi tin tưởng một mô hình AI có ngân sách thấp và phát triển nhanh vào dữ liệu của họ, đặc biệt khi chính phủ Trung Quốc có thể có một mức độ ảnh hưởng nào đó.

Cách đảm bảo triển khai DeepSeek an toàn và có đạo đức

Những cân nhắc về đạo đức này không có nghĩa là các công ty fintech không thể sử dụng DeepSeek một cách an toàn, nhưng chúng nhấn mạnh tầm quan trọng của việc triển khai cẩn thận. Các tổ chức có thể triển khai DeepSeek một cách có đạo đức và an toàn bằng cách tuân thủ các phương thực hành tốt nhất này.

Chạy DeepSeek trên các máy chủ nội bộ

Một trong những bước quan trọng nhất là chạy công cụ AI trên các trung tâm dữ liệu trong nước. Mặc dù DeepSeek là một công ty Trung Quốc, các trọng số mô hình của hãng là mã nguồn mở, khiến việc chạy trên các máy chủ ở Mỹ trở nên khả thi và giúp giảm thiểu lo ngại về rò rỉ quyền riêng tư từ chính phủ Trung Quốc.

Tuy nhiên, không phải tất cả các trung tâm dữ liệu đều đáng tin cậy như nhau. Lý tưởng nhất, các doanh nghiệp fintech sẽ lưu trữ DeepSeek trên phần cứng của chính họ. Khi điều đó không khả thi, lãnh đạo nên chọn một nhà cung cấp cẩn thận, chỉ hợp tác với những đơn vị có cam kết đảm bảo thời gian hoạt động (uptime) cao và các tiêu chuẩn bảo mật như ISO 27001 và NIST 800-53.

Giảm thiểu quyền truy cập vào dữ liệu nhạy cảm

Khi xây dựng một ứng dụng dựa trên DeepSeek, các công ty fintech nên cân nhắc loại dữ liệu mà mô hình có thể truy cập. AI chỉ nên có thể truy cập những gì cần thiết để thực hiện chức năng của mình. Việc loại bỏ (scrubbing) bất kỳ thông tin nhận dạng cá nhân (PII) không cần thiết từ dữ liệu có thể truy cập cũng là lý tưởng.

Khi DeepSeek nắm giữ ít chi tiết nhạy cảm hơn, thì mọi sự cố rò rỉ sẽ ít gây ảnh hưởng hơn. Giảm thiểu việc thu thập PII cũng là chìa khóa để tuân thủ các quy định như Quy định Bảo vệ Dữ liệu Chung (GDPR) và Đạo luật Gramm-Leach-Bliley (GLBA).

Triển khai các biện pháp kiểm soát an ninh mạng

Các quy định như GDPR và GLBA cũng thường yêu cầu các biện pháp bảo vệ để ngăn ngừa rò rỉ ngay từ đầu. Ngay cả ngoài khuôn khổ của các đạo luật như vậy, lịch sử rò rỉ dữ liệu của DeepSeek cho thấy nhu cầu cần có thêm các biện pháp bảo mật.

Tối thiểu, các fintech nên mã hóa toàn bộ dữ liệu mà AI có thể truy cập khi lưu trữ (at rest) và cả khi truyền qua đường truyền (in transit). Kiểm thử thâm nhập định kỳ để tìm và khắc phục lỗ hổng cũng là lý tưởng.

Các tổ chức fintech cũng nên cân nhắc giám sát tự động các ứng dụng DeepSeek của mình, vì việc tự động hóa như vậy giúp tiết kiệm trung bình $2.2 triệu chi phí do rò rỉ, nhờ các phản hồi nhanh hơn và hiệu quả hơn.

Kiểm toán và giám sát tất cả các ứng dụng AI

Ngay cả sau khi thực hiện các bước này, điều quan trọng là vẫn phải cảnh giác. Hãy kiểm toán ứng dụng dựa trên DeepSeek trước khi triển khai để tìm các dấu hiệu thiên vị hoặc lỗ hổng bảo mật. Hãy nhớ rằng một số vấn đề có thể không nhận thấy ngay từ đầu, vì vậy việc rà soát liên tục là cần thiết.

Thành lập một nhóm đặc nhiệm chuyên trách để theo dõi kết quả của giải pháp AI và đảm bảo nó vẫn có đạo đức cũng như tuân thủ mọi quy định liên quan. Cũng nên minh bạch với khách hàng về thực hành này. Sự trấn an có thể giúp xây dựng niềm tin trong một lĩnh vực vốn đã phần nào đáng ngờ.

Các công ty fintech phải cân nhắc đạo đức của AI

Dữ liệu fintech đặc biệt nhạy cảm, vì vậy mọi tổ chức trong lĩnh vực này phải coi trọng các công cụ phụ thuộc vào dữ liệu như AI một cách nghiêm túc. DeepSeek có thể là một nguồn lực kinh doanh đầy hứa hẹn, nhưng chỉ khi việc sử dụng tuân theo các nguyên tắc nghiêm ngặt về đạo đức và bảo mật.

Khi các lãnh đạo fintech hiểu được nhu cầu phải cẩn trọng như vậy, họ có thể đảm bảo các khoản đầu tư DeepSeek của mình và các dự án AI khác vẫn an toàn và công bằng.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$2.23KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.23KNgười nắm giữ:0
    0.00%
  • Vốn hóa:$2.23KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$0.1Người nắm giữ:1
    0.00%
  • Vốn hóa:$2.23KNgười nắm giữ:0
    0.00%
  • Ghim