Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Pre-IPOs
Mở khóa quyền truy cập đầy đủ vào các IPO cổ phiếu toàn cầu
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Khuyến mãi
AI
Gate AI
Trợ lý AI đa năng đồng hành cùng bạn
Gate AI Bot
Sử dụng Gate AI trực tiếp trong ứng dụng xã hội của bạn
GateClaw
Gate Tôm hùm xanh, mở hộp là dùng ngay
Gate for AI Agent
Hạ tầng AI, Gate MCP, Skills và CLI
Gate Skills Hub
Hơn 10.000 kỹ năng
Từ văn phòng đến giao dịch, thư viện kỹ năng một cửa giúp AI tiện lợi hơn
GateRouter
Lựa chọn thông minh từ hơn 30 mô hình AI, với 0% phí bổ sung
Lớp Phán Xét: Tại Sao AI Chưa Thật Sự Thông Minh Cho Đến Khi Các Nhà Lãnh Đạo Thông Minh Hơn
Guillermo Delgado Aparicio là Nhà Lãnh đạo AI Toàn cầu tại Nisum.
Khám phá tin tức và sự kiện fintech hàng đầu!
Đăng ký nhận bản tin FinTech Weekly
Được đọc bởi các giám đốc điều hành tại JP Morgan, Coinbase, Blackrock, Klarna và nhiều hơn nữa
AI trong fintech bao gồm nhiều trường hợp sử dụng, từ phát hiện gian lận và giao dịch thuật toán đến xếp hạng tín dụng động và đề xuất sản phẩm cá nhân hóa. Tuy nhiên, một báo cáo của Cơ quan Quản lý Tài chính cho thấy rằng trong số 75% các công ty sử dụng AI, chỉ 34% hiểu cách hoạt động của nó.
Vấn đề không chỉ là thiếu nhận thức. Đó là sự hiểu lầm sâu sắc về sức mạnh và phạm vi của phân tích dữ liệu, lĩnh vực mà AI xuất phát từ đó. Việc áp dụng rộng rãi các công cụ AI sinh tạo đã đưa chủ đề này lên cấp cao nhất của doanh nghiệp. Nhưng nhiều người trong số những người quyết định cách triển khai AI không hiểu các nguyên lý cơ bản của tính toán, thống kê và các thuật toán nâng cao.
Lấy ví dụ, Luật Benford, một nguyên tắc thống kê đơn giản giúp phát hiện gian lận bằng cách nhận diện các mẫu trong các số. AI dựa trên loại toán học này, chỉ mở rộng quy mô để xử lý hàng triệu giao dịch cùng lúc. Bỏ qua những lời phóng đại, nền tảng vẫn là thống kê và thuật toán.
Đây là lý do tại sao việc nâng cao kiến thức về AI ở cấp quản lý cao lại quan trọng. Những nhà lãnh đạo không thể phân biệt rõ ràng nơi phân tích kết thúc và AI bắt đầu sẽ gặp rủi ro quá tin tưởng vào các hệ thống mà họ không hiểu hoặc sử dụng chúng một cách thiếu thận trọng vì sợ hãi. Và lịch sử cho thấy điều gì xảy ra khi các nhà ra quyết định hiểu sai công nghệ: các cơ quan quản lý từng cố gắng cấm các cuộc gọi IP quốc tế, chỉ để chứng kiến công nghệ vượt qua các quy định. Cơ chế tương tự đang diễn ra với AI. Bạn không thể chặn hoặc áp dụng mù quáng; bạn cần có phán đoán, bối cảnh và khả năng điều hướng một cách có trách nhiệm.
Các nhà lãnh đạo fintech phải khắc phục những khoảng trống này để sử dụng AI một cách có trách nhiệm và hiệu quả. Điều đó có nghĩa là hiểu rõ nơi kết thúc của phân tích dữ liệu và bắt đầu của AI, xây dựng kỹ năng để điều hướng các hệ thống này, và áp dụng phán đoán hợp lý để quyết định khi nào và như thế nào để tin tưởng vào kết quả của chúng.
Giới hạn, điểm mù và ảo tưởng của AI
Phân tích dữ liệu phân tích dữ liệu quá khứ và hiện tại để giải thích những gì đã xảy ra và tại sao. AI phát triển dựa trên nền tảng đó, sử dụng phân tích nâng cao để dự đoán những gì sẽ xảy ra tiếp theo và ngày càng nhiều hơn, để quyết định hoặc hành động tự động.
Với khả năng xử lý dữ liệu xuất sắc, dễ hiểu tại sao các nhà lãnh đạo fintech lại xem AI như một “đòn bẩy ma thuật” của họ. Nhưng nó không thể giải quyết mọi vấn đề. Con người vẫn có lợi thế vốn có trong việc nhận diện mẫu, đặc biệt khi dữ liệu không đầy đủ hoặc “bẩn”. AI có thể gặp khó khăn trong việc hiểu các sắc thái ngữ cảnh mà con người có thể nhanh chóng nắm bắt.
Tuy nhiên, đó là một sai lầm khi nghĩ rằng dữ liệu không hoàn chỉnh làm AI trở nên vô dụng. Các mô hình phân tích có thể hoạt động với dữ liệu thiếu đầy đủ. Nhưng biết khi nào triển khai AI và khi nào dựa vào phán đoán của con người để điền vào chỗ trống mới là thử thách thực sự. Nếu không có sự giám sát cẩn thận này, AI có thể gây ra những rủi ro đáng kể.
Một vấn đề như vậy là thành kiến. Khi các fintech huấn luyện AI dựa trên các bộ dữ liệu cũ, họ thường thừa hưởng những gánh nặng đi kèm. Ví dụ, tên gọi của khách hàng có thể vô tình đóng vai trò như một đại diện cho giới tính, hoặc họ tên có thể suy ra các đặc điểm về dân tộc, làm lệch điểm tín dụng theo những cách mà không cơ quan quản lý nào chấp thuận. Những thành kiến này, dễ bị che giấu trong toán học, thường cần sự giám sát của con người để phát hiện và sửa chữa.
Khi các mô hình AI tiếp xúc với các tình huống mà chúng chưa được huấn luyện, điều này có thể gây ra dịch mô hình. Biến động thị trường, thay đổi quy định, hành vi khách hàng ngày càng phức tạp, và các biến động kinh tế vĩ mô đều có thể ảnh hưởng đến hiệu quả của mô hình mà không có sự giám sát và điều chỉnh của con người.
Khó khăn trong việc điều chỉnh lại các thuật toán tăng lên rõ rệt khi các fintech sử dụng các hộp đen không cho phép nhìn thấy mối quan hệ giữa các biến. Trong điều kiện này, họ mất khả năng chuyển giao kiến thức đó cho các nhà ra quyết định trong quản lý. Thêm vào đó, các lỗi và thành kiến vẫn ẩn trong các mô hình mập mờ, làm giảm độ tin cậy và khả năng tuân thủ.
Những điều các nhà lãnh đạo fintech cần biết
Một khảo sát của Deloitte cho thấy 80% cho biết hội đồng quản trị của họ ít hoặc không có kinh nghiệm về AI. Nhưng các giám đốc cấp cao không thể coi AI là vấn đề của “nhóm kỹ thuật”. Trách nhiệm về AI nằm trong tay lãnh đạo, nghĩa là các nhà lãnh đạo fintech cần nâng cao kỹ năng.
Linh hoạt phân tích chéo
Trước khi triển khai AI, các nhà lãnh đạo fintech cần có khả năng chuyển đổi tư duy—nhìn vào các con số, bài toán kinh doanh, hoạt động, và đạo đức—và nhận diện cách các yếu tố này chồng chéo và hình thành kết quả của AI. Họ cần hiểu cách độ chính xác thống kê của mô hình liên quan đến rủi ro tín dụng. Và nhận biết khi một biến số trông có vẻ hợp lý về mặt tài chính (như lịch sử trả nợ) có thể mang lại rủi ro xã hội hoặc quy định thông qua mối liên hệ với các nhóm được bảo vệ, như tuổi tác hoặc dân tộc.
Kỹ năng này đến từ việc làm việc cùng các nhân viên tuân thủ để phân tích các quy định, trao đổi với các quản lý sản phẩm về trải nghiệm người dùng, và xem xét kết quả mô hình cùng các nhà khoa học dữ liệu để phát hiện dấu hiệu dịch chuyển hoặc thành kiến.
Trong fintech, tránh rủi ro hoàn toàn là điều không thể, nhưng với khả năng phân tích chéo, các nhà lãnh đạo có thể xác định rõ những rủi ro đáng để chấp nhận và những rủi ro có thể làm giảm giá trị cổ đông. Kỹ năng này cũng giúp nâng cao khả năng phát hiện và hành động chống lại thành kiến, không chỉ từ góc độ tuân thủ mà còn từ góc độ chiến lược và đạo đức.
Ví dụ, giả sử một mô hình chấm điểm tín dụng dựa trên AI có xu hướng thiên về một nhóm khách hàng nhất định. Sửa chữa sự mất cân bằng đó không chỉ là một công việc của khoa học dữ liệu; nó còn bảo vệ uy tín của công ty. Đối với các fintech cam kết thúc đẩy bao gồm tài chính hoặc đối mặt với sự giám sát ESG, tuân thủ pháp luật không đủ. Phán đoán có nghĩa là biết điều đúng, chứ không chỉ là điều được phép.
Kiến thức về khả năng giải thích
Khả năng giải thích là nền tảng của sự tin tưởng. Nếu không có nó, các nhà ra quyết định, khách hàng và cơ quan quản lý sẽ đặt câu hỏi tại sao một mô hình lại đi đến kết luận cụ thể.
Điều đó có nghĩa là các giám đốc phải có khả năng phân biệt giữa các mô hình có thể giải thích được và những mô hình cần các giải thích hậu kiểm (như giá trị SHAP hoặc LIME). Họ cần đặt câu hỏi khi logic của mô hình không rõ ràng và nhận biết khi “độ chính xác” đơn thuần không thể biện minh cho một quyết định hộp đen.
Thành kiến không xuất hiện từ hư không; nó phát sinh khi các mô hình được huấn luyện và triển khai mà không có sự giám sát đủ. Khả năng giải thích giúp các nhà lãnh đạo có khả năng phát hiện sớm các vấn đề đó và hành động trước khi gây thiệt hại.
AI giống như chế độ tự lái trên máy bay. Phần lớn thời gian, nó hoạt động trơn tru, nhưng khi gặp bão, phi công phải kiểm soát. Trong tài chính, nguyên tắc tương tự cũng áp dụng. Các nhóm cần có khả năng dừng giao dịch, điều chỉnh chiến lược hoặc thậm chí ngừng một sản phẩm khi điều kiện thay đổi. Khả năng giải thích đi đôi với khả năng can thiệp, đảm bảo các lãnh đạo cấp cao hiểu AI và duy trì kiểm soát, ngay cả khi hoạt động ở quy mô lớn.
Suy nghĩ về mô hình xác suất
Các giám đốc quen với các quyết định xác định, như nếu điểm tín dụng dưới 650 thì từ chối hồ sơ. Nhưng AI không hoạt động theo cách đó và đây là một sự thay đổi tư duy lớn.
Đối với các nhà lãnh đạo, tư duy xác suất đòi hỏi ba khả năng:
Ví dụ, một mô hình AI xác suất của fintech có thể cảnh báo khách hàng là rủi ro cao, nhưng điều đó không nhất thiết có nghĩa là “từ chối”. Nó có thể có nghĩa là “điều tra thêm” hoặc “điều chỉnh điều kiện vay”. Nếu không có sự tinh tế này, tự động hóa có thể trở thành một công cụ thô sơ, làm giảm lòng tin của khách hàng trong khi làm tăng khả năng bị phản đối bởi các cơ quan quản lý.