AI trong Tuân Thủ Không Phải Là Một Hộp Đen — Đó Là Một Bài Kiểm Tra Về Trách Nhiệm: Phỏng vấn với Roman Eloshvili

Roman Eloshvili là người sáng lập ComplyControl, một startup phát hiện gian lận và tuân thủ dựa trên AI cho các tổ chức tài chính.


Khám phá những tin tức và sự kiện fintech hàng đầu!

Đăng ký nhận bản tin của FinTech Weekly

Được đọc bởi các lãnh đạo tại JP Morgan, Coinbase, Blackrock, Klarna và hơn thế nữa


AI trong Tuân thủ Thực sự Đang Được Thử Nghiệm Thế Nào: Công nghệ, hay Con Người?

Trong các dịch vụ tài chính, tuân thủ không còn chỉ là một chức năng. Đó là một điểm chịu áp lực chủ động—nơi quy định, rủi ro và vận hành va chạm vào nhau. Khi các công nghệ AI được đưa vào không gian này, một câu hỏi liên tục được nêu lại: chúng ta thực sự có thể tự động hóa đến mức nào, và ai sẽ chịu trách nhiệm khi mọi thứ đi sai?

Sự hấp dẫn của AI trong phát hiện gian lận và tuân thủ rất dễ hiểu. Các tổ chức tài chính đang phải đối mặt với kỳ vọng ngày càng tăng trong việc xử lý một lượng dữ liệu khổng lồ, phản hồi các mối đe dọa đang thay đổi và tuân thủ các quy định biến động—tất cả mà không phải đánh đổi tốc độ hay độ chính xác. Tự động hóa, đặc biệt khi được thúc đẩy bởi học máy, mang lại một cách để giảm áp lực vận hành. Nhưng nó cũng làm dấy lên những lo ngại sâu hơn về quản trị, khả năng giải thích và kiểm soát.

Những căng thẳng này không phải là lý thuyết. Chúng đang diễn ra theo thời gian thực, khi các công ty tài chính triển khai các mô hình AI vào những vai trò trước đây do các nhà phân tích con người đảm nhiệm. Ở hậu trường, những rủi ro mới đang xuất hiện: dương tính giả, các lỗ hổng kiểm toán, và các quyết định mang tính thuật toán vẫn mơ hồ đối với cả người dùng lẫn cơ quan quản lý.

Đồng thời, các chuyên gia tuân thủ đang được yêu cầu chuyển đổi vai trò. Thay vì tự tay kiểm tra thủ công mọi giao dịch, họ giờ đây đang giám sát những công cụ được đưa vào. Việc định hình lại—từ người thực thi sang người đánh giá—đòi hỏi không chỉ các kỹ năng kỹ thuật mới, mà còn là ý thức mạnh hơn về trách nhiệm đạo đức và trách nhiệm theo quy trình. AI có thể mở rộng phân tích dữ liệu. Nó có thể gắn cờ các điểm không nhất quán. Nhưng nó không thể giải thích trọn vẹn ý định, diễn giải bối cảnh, hay gánh chịu trách nhiệm.

Hiểu rõ những giới hạn này là vô cùng quan trọng. Và ít ai có vị trí phù hợp hơn để khám phá chúng hơn Roman Eloshvili, người sáng lập công ty công nghệ tuân thủ ComplyControl có trụ sở tại Vương quốc Anh. Công việc của ông nằm đúng ở giao điểm giữa rủi ro, tự động hóa và giám sát—nơi hiệu quả theo thuật toán gặp sự soi xét của quy định.

Với hơn một thập kỷ làm trong lĩnh vực này, Roman đã tận mắt chứng kiến cách các đội tuân thủ đang thay đổi và cách AI đang định hình lại cả quy trình làm việc lẫn trách nhiệm của họ. Ông lập luận rằng lời hứa của AI không nằm ở việc loại bỏ vai trò con người, mà ở việc định hình lại chúng—mang lại sự rõ ràng mới về việc máy móc nên xử lý phần nào, và con người vẫn phải chịu trách nhiệm phần nào.

Sự thay đổi này đòi hỏi nhiều hơn các nâng cấp về kỹ thuật. Nó cần một sự điều chỉnh về mặt văn hóa xoay quanh trách nhiệm giải trình. Các hệ thống minh bạch, quy trình có thể kiểm toán và trách nhiệm con người được phân công rõ ràng không còn chỉ là các tính năng—mà là tiêu chuẩn tối thiểu. Khi AI được đưa vào hạ tầng quan trọng, nó không chỉ giải quyết vấn đề. Nó giới thiệu một nhóm quyết định mới đòi hỏi sự quản trị chiến lược chủ động.

Trong cuộc trò chuyện này với FinTech Weekly, Roman chia sẻ góc nhìn thực tế về những gì cần thiết để tích hợp AI một cách có trách nhiệm vào tuân thủ và phòng chống gian lận. Quan điểm của ông không xem tự động hóa như một tất yếu, mà như một lựa chọn—một lựa chọn cần có sự phán xét của con người liên tục, sự rõ ràng trong vận hành, và tinh thần sẵn sàng đặt những câu hỏi khó về nơi niềm tin thực sự đang nằm.

Chúng tôi rất vui được chia sẻ những hiểu biết của ông vào thời điểm khi nhiều người trong fintech đang đặt câu hỏi không phải “có nên áp dụng AI hay không”—mà là “làm thế nào để áp dụng mà không đánh mất những tiêu chuẩn đã khiến hệ thống tài chính vận hành hiệu quả ngay từ đầu”.


1. Anh đã xây dựng sự nghiệp ở ngã tư giữa tuân thủ và công nghệ. Anh có thể nhớ khoảnh khắc khi anh nhận ra rằng AI có thể thay đổi căn bản cách quản lý rủi ro được thực hiện không?

Tôi sẽ không nói rằng chỉ có một khoảnh khắc cụ thể đã làm mọi thứ thay đổi. Thay vào đó, đó là một quá trình diễn ra dần dần. Tôi đã dành một phần lớn sự nghiệp làm việc với các ngân hàng châu Âu đã được thiết lập, và một điều tôi liên tục nhận thấy là nhiều đơn vị trong số đó còn khá tụt hậu khi nói đến các giải pháp ngân hàng số. Sự tương phản đặc biệt rõ ràng so với các trung tâm fintech tiên tiến hơn.

Vài năm trước, khi chủ đề phát triển AI lại bắt đầu nóng lên, tự nhiên tôi thấy tò mò và tìm hiểu. Và khi tôi nghiên cứu công nghệ và cách nó vận hành, tôi nhận ra rằng trí tuệ nhân tạo có khả năng thay đổi đáng kể cách các ngân hàng xử lý việc tuân thủ của mình, đưa họ tiến gần hơn với các đối tác fintech hiện đại và linh hoạt.

Chính điều đó đã dẫn tôi đến việc ra mắt công ty của mình vào năm 2023. Độ phức tạp của tuân thủ và quản lý rủi ro chỉ tiếp tục tăng lên từng năm. Trước thực tế đó, sứ mệnh của chúng tôi thật đơn giản: mang các giải pháp được hỗ trợ bởi AI đến cho các công ty tài chính và giúp họ đối phó hiệu quả hơn với những thách thức ngày càng gia tăng như vậy.

2. Dưới góc nhìn chuyên môn của anh, vai trò của các chuyên gia con người đã thay đổi như thế nào khi các công cụ AI trở nên tiên tiến hơn trong tuân thủ và phát hiện gian lận?

Trước khi nói bất cứ điều gì khác, hãy để tôi làm rõ một điều ngay từ đầu. Có một mối lo phổ biến ở nhiều lĩnh vực rằng AI sẽ thay thế người lao động con người. Và đối với các chuyên gia về tuân thủ và rủi ro thì câu trả lời của tôi là không — ít nhất là chưa phải ngay lúc này.

Mặc dù trí tuệ nhân tạo đã và đang biến đổi ngành của chúng tôi, nhưng nó vẫn chưa phải là thứ không thể sai. Vì vậy, sự tham gia của con người vẫn là một yếu tố thiết yếu. Các quy định tuân thủ thay đổi liên tục, và phải có ai đó chịu trách nhiệm khi các hệ thống không theo kịp hoặc mắc sai lầm. Ở mức phát triển hiện tại, AI vẫn gặp khó khăn khi giải thích rõ ràng các quyết định của mình, nên nó chưa sẵn sàng để bị bỏ mặc một mình. Đặc biệt là trong một lĩnh vực mà niềm tin và tính minh bạch là tối quan trọng.

Tuy vậy, AI đang chủ động làm cho các quy trình tuân thủ trở nên dễ dàng hơn. Ví dụ, tùy thuộc vào cấu hình, các hệ thống AI hiện có thể gắn cờ các giao dịch đáng ngờ hoặc thậm chí chặn tạm thời trong khi yêu cầu xác minh thêm. Không cần con người thực sự phải rà soát thủ công từng chi tiết, trừ khi có điều gì đó thực sự nổi bật là bất thường. Và khi các hệ thống này phát triển, chúng sẽ tiếp tục giảm nhu cầu làm thủ công, cho phép các đội tập trung hơn vào những tác vụ tinh xảo thực sự cần đến “chạm” của con người.

Tôi tin rằng chúng ta sẽ thấy sự gia tăng của một mô hình lai, trong đó các chuyên gia tuân thủ cũng ngày càng thành thạo trong việc sử dụng các công cụ AI. Họ sẽ là những người triển khai và duy trì các hệ thống AI, trong khi bản thân AI sẽ đơn giản hóa công việc của họ bằng cách hiểu dữ liệu phức tạp và đưa ra các khuyến nghị. Tuy nhiên, phán quyết cuối cùng sẽ vẫn thuộc về con người.

3. Khi làm việc với AI trong các lĩnh vực nhạy cảm như tuân thủ tài chính, anh đã cá nhân tiếp cận thách thức duy trì niềm tin và trách nhiệm giải trình trong ra quyết định như thế nào?

Đương nhiên. Như tôi đã nói, khi bạn sử dụng AI trong tuân thủ, niềm tin là điều then chốt.

Vì vậy, chúng tôi đã xây dựng các hệ thống AI của mình để hoàn toàn minh bạch. Chúng không vận hành như một “hộp đen”—mọi khuyến nghị mà hệ thống đưa ra đều dựa trên các quy tắc và dữ liệu có thể truy vết. Chúng tôi lưu giữ đầy đủ lịch sử kiểm toán về cách mỗi quyết định được đưa ra, để nó có thể được giải thích đầy đủ. Thực hành này đã chứng minh vô cùng giá trị khi làm việc với các cơ quan quản lý.

Lời chốt cuối cùng luôn thuộc về cán bộ phụ trách tuân thủ. AI chỉ đưa ra một gợi ý được biện minh rõ ràng để con người sau đó có thể dễ dàng kiểm tra và ra quyết định chấp thuận hoặc từ chối.

4. Kinh nghiệm của anh kéo dài hơn 10 năm. Nhận thức của anh về tự động hóa và giám sát của con người đã thay đổi ra sao trong suốt sự nghiệp, đặc biệt là khi AI đang trở nên tự chủ hơn?

Chắc chắn rồi. Nói rộng hơn về tình hình ứng dụng AI, công nghệ này càng tiến xa, thì mức độ tự chủ mà chúng ta dần dần cho phép cũng sẽ càng cao — với điều kiện là nó đã được thử nghiệm kỹ lưỡng và tiếp tục chứng minh độ tin cậy.

Nhưng phần thay đổi nhiều hơn nữa trong phương trình này là vai trò của chuyên gia con người. Thay vì giám sát vi mô từng trường hợp, các cán bộ tuân thủ hiện ngày càng đóng vai trò như những người giám sát chiến lược. Họ có thể xem xét toàn bộ các nhóm các trường hợp tương tự trong thời gian ngắn, xác thực hiệu suất của hệ thống và tinh chỉnh mô hình dựa trên kết quả.

Nói cách khác, vai trò “trên thực tế” của các cán bộ tuân thủ đang chuyển từ việc tự tay làm công việc sang việc quản lý các hệ thống AI khi hệ thống đó làm giúp họ.

5. Làm việc trong quản lý rủi ro do AI dẫn dắt đồng nghĩa với việc phải đối mặt với các câu hỏi đạo đức phức tạp. Anh đã cá nhân phát triển một khung phương pháp để đưa ra các lựa chọn có trách nhiệm như thế nào khi thiết kế hoặc triển khai các giải pháp dựa trên AI?

Chúng tôi xây dựng cách tiếp cận dựa trên hai ý tưởng then chốt: giám sát rõ ràng và các nguyên tắc Responsible AI (AI có trách nhiệm). Mỗi mô hình chúng tôi sử dụng đều có một người chịu trách nhiệm được chỉ định. Các đánh giá rủi ro, rà soát hiệu suất và kiểm tra tuân thủ đều được thực hiện thường xuyên.

Chúng tôi cũng đảm bảo rằng các hệ thống của mình có thể kiểm toán được. Nếu thuật toán đưa ra một quyết định, quy trình đó có thể được xem xét và xác minh. Sự minh bạch này là một phần cốt lõi trong cam kết của chúng tôi đối với việc phát triển AI có trách nhiệm.

6. Trong hành trình của mình, bài học chuyên môn khó khăn nhất mà anh đã rút ra về giới hạn—hay những rủi ro—của việc dựa quá nhiều vào tự động hóa trong các lĩnh vực quan trọng như phòng chống gian lận là gì?

Một bài học mà chắc chắn chúng ta cần ghi nhớ là ngay cả các mô hình đã được huấn luyện tốt vẫn có thể “ảo giác” — có thể sai theo những cách tinh vi nhưng nghiêm trọng.

AI có thể bỏ sót các kế hoạch gian lận phức tạp, hoặc nó có thể kích hoạt quá nhiều cảnh báo giả. Đó chính là lý do tại sao việc kết hợp AI với chuyên môn của con người lại quan trọng đến vậy — con người mang theo khả năng phán đoán linh hoạt và tốt hơn trong việc đánh giá đạo đức cũng như bối cảnh tổng thể theo những cách mà AI không thể thực hiện.

Sự cân bằng giữa hai lời hứa sẽ mang lại kết quả tốt hơn và đáng tin cậy hơn. AI có thể được dùng để bao phủ lượng khối lượng công việc khổng lồ và làm giảm độ phức tạp của chúng, trong khi con người, lần lượt, được dùng để duy trì mức độ chính xác và niềm tin phù hợp.

7. Đối với các chuyên gia trẻ bước vào tuân thủ, quản lý rủi ro hoặc phát triển AI ngày nay, anh khuyên họ nên vun đắp những nguyên tắc hoặc thói quen cá nhân nào để thành công và thích nghi trong một môi trường thay đổi nhanh chóng như vậy?

Trước hết: đừng bao giờ ngừng học hỏi. Tiến bộ công nghệ không có nút “tạm dừng”, và bạn cần phải bắt kịp nếu không sẽ bị bỏ lại phía sau. Ở đây không có vùng trung gian nào cả.

Thứ hai, hãy suy nghĩ một cách toàn diện. Khi AI tiến bộ, ranh giới giữa các vai trò đang mờ dần—công nghệ, tài chính và quy định đang trở thành một “hỗn hợp”. Tôi tin rằng việc có một bộ kỹ năng rộng và một tâm thế cởi mở sẽ là những phẩm chất quyết định cho các chuyên gia tương lai trong lĩnh vực này.

Thứ ba — và cũng là sự tiếp nối tự nhiên của hai ý trên — hãy biết thích nghi. Thay đổi là liên tục, và khả năng điều chỉnh nhanh sẽ là một lợi thế lớn cho bạn.

Và cuối cùng, hãy phát triển kỹ năng giao tiếp tốt và học cách trở thành một người chơi trong nhóm. Như chúng tôi đã đề cập, tuân thủ nằm ở giao điểm của doanh nghiệp, công nghệ và pháp luật. Vì vậy, khả năng chuyển “số” và trò chuyện với những người từ tất cả các lĩnh vực này sẽ là một kỹ năng giá trị cần trau dồi.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim