Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Pre-IPOs
Mở khóa quyền truy cập đầy đủ vào các IPO cổ phiếu toàn cầu
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
AI tại Châu Âu: Những ý nghĩa có thể của Luật AI
Ảnh của Maico Amorim trên Unsplash
Đạo luật AI (AI Act) vẫn chỉ là bản dự thảo, nhưng các nhà đầu tư và chủ doanh nghiệp tại Liên minh châu Âu (European Union) đã bắt đầu lo lắng về các kết quả có thể xảy ra.
Nó có ngăn Liên minh châu Âu trở thành một đối thủ cạnh tranh có giá trị trong không gian toàn cầu không?
Theo các cơ quan quản lý, không phải vậy. Nhưng hãy xem chuyện gì đang diễn ra.
Đạo luật AI và đánh giá rủi ro
Đạo luật AI phân chia các rủi ro do trí tuệ nhân tạo gây ra thành nhiều nhóm rủi ro khác nhau, nhưng trước khi làm điều đó, nó thu hẹp định nghĩa về trí tuệ nhân tạo để chỉ bao gồm những hệ thống dựa trên học máy và logic.
Điều này không chỉ nhằm mục đích phân biệt các hệ thống AI với những phần mềm đơn giản hơn, mà còn giúp chúng ta hiểu lý do vì sao EU muốn phân loại rủi ro.
Các cách sử dụng khác nhau của AI được phân loại thành rủi ro không thể chấp nhận, rủi ro cao, và
rủi ro thấp hoặc tối thiểu. Các hoạt động thuộc nhóm rủi ro không thể chấp nhận được xem là bị cấm.
Loại hoạt động này bao gồm:
Có một số trường hợp sử dụng nhất định, lẽ ra nên được xem là tương tự với một số hoạt động nằm trong các hoạt động bị cấm, nhưng lại thuộc nhóm các “hoạt động rủi ro cao”.
Những trường hợp này bao gồm các hệ thống được dùng để tuyển dụng nhân sự hoặc để đánh giá và phân tích mức độ tín nhiệm tín dụng (và điều này có thể gây nguy hiểm cho fintech). Trong các trường hợp này, mọi doanh nghiệp tạo ra hoặc sử dụng loại hệ thống này cần phải tạo ra các báo cáo chi tiết để giải thích cách hệ thống hoạt động và các biện pháp được thực hiện nhằm tránh rủi ro cho con người và đảm bảo minh bạch nhất có thể.
Mọi thứ trông có vẻ rõ ràng và đúng đắn, nhưng vẫn có một số vấn đề mà các cơ quan quản lý cần giải quyết.
Đạo luật có vẻ quá chung chung
Một trong những khía cạnh khiến đa số chủ doanh nghiệp và nhà đầu tư lo ngại nhất là việc thiếu sự chú ý tới các lĩnh vực AI cụ thể.
Ví dụ, những công ty sản xuất và sử dụng các hệ thống dựa trên AI cho mục đích chung có thể được xem là những công ty sử dụng trí tuệ nhân tạo cho các trường hợp sử dụng rủi ro cao.
Điều này có nghĩa là họ phải tạo ra các báo cáo chi tiết, tốn thời gian và tiền bạc. Do các SME cũng không có ngoại lệ, và vì chúng chiếm phần lớn nhất trong nền kinh tế châu Âu, theo thời gian họ có thể trở nên kém cạnh tranh hơn.
Và chính là sự khác biệt giữa các công ty AI của Mỹ và của châu Âu mới làm dấy lên những lo ngại lớn: trên thực tế, châu Âu không có các công ty AI lớn như ở Mỹ, vì môi trường AI tại châu Âu chủ yếu được tạo ra bởi các SME và các startup.
Theo một cuộc khảo sát do appliedAI thực hiện, đa số lớn các nhà đầu tư sẽ tránh đầu tư vào các startup được gắn nhãn “rủi ro cao”, chính xác là vì những phức tạp liên quan tới việc phân loại này.
ChatGPT đã thay đổi kế hoạch của EU
Các cơ quan quản lý của EU lẽ ra đã đóng lại tài liệu vào ngày 19 tháng 4, nhưng phần thảo luận liên quan tới các định nghĩa khác nhau về các hệ thống dựa trên AI và các trường hợp sử dụng của chúng đã làm chậm việc trình giao bản dự thảo cuối cùng.
Hơn nữa, các công ty công nghệ cho thấy không phải tất cả họ đều đồng ý với phiên bản hiện tại của tài liệu.
Điểm gây ra các đợt chậm trễ nhiều nhất là sự phân biệt giữa các mô hình nền tảng và AI cho mục đích chung.
Một ví dụ về các mô hình AI nền tảng là ChatGPT của OpenAI: các hệ thống này được huấn luyện bằng lượng lớn dữ liệu và có thể tạo ra mọi loại đầu ra.
AI cho mục đích chung bao gồm những hệ thống có thể được điều chỉnh cho nhiều trường hợp sử dụng và nhiều lĩnh vực khác nhau.
Các cơ quan quản lý của EU muốn quản lý chặt chẽ các mô hình nền tảng, vì chúng có thể đặt ra nhiều rủi ro hơn và ảnh hưởng tiêu cực tới cuộc sống của con người.
Cách Mỹ và Trung Quốc đang quản lý AI
Nếu chúng ta xem xét cách các cơ quan quản lý của EU đối xử với AI thì có một điều nổi bật: trông có vẻ các cơ quan quản lý ít sẵn sàng hợp tác hơn.
Tại Mỹ, chẳng hạn, chính quyền Biden đã tìm kiếm các ý kiến công khai về mức độ an toàn của các hệ thống như ChatGPT, trước khi thiết kế một khung quản lý có thể.
Tại Trung Quốc, chính phủ đã quản lý AI và việc thu thập dữ liệu trong nhiều năm, và mối quan ngại chính của nước này vẫn là ổn định xã hội.
Cho đến nay, quốc gia có vẻ được định vị tốt cho quản lý AI là Vương quốc Anh (UK), quốc gia đã chọn một cách tiếp cận “nhẹ” - nhưng không có gì bí mật khi Vương quốc Anh muốn trở thành một nhà dẫn đầu trong việc áp dụng AI và fintech.
Fintech và Đạo luật AI
Khi nói đến các công ty và startup cung cấp dịch vụ tài chính, tình hình còn phức tạp hơn nữa.
Trên thực tế, nếu Đạo luật vẫn giữ nguyên như phiên bản hiện tại, các fintech sẽ không chỉ cần phải tuân theo các quy định tài chính hiện hành, mà còn phải gắn với khung quản lý mới này.
Việc đánh giá mức độ tín nhiệm tín dụng có thể được gắn nhãn là một trường hợp sử dụng rủi ro cao chỉ là một ví dụ về gánh nặng mà các công ty fintech cần phải gánh chịu, khiến họ không thể linh hoạt như trước đây để thu hút đầu tư và cạnh tranh.
Kết luận
Như Peter Sarlin, Giám đốc điều hành của Silo AI, đã chỉ ra, vấn đề không phải là quy định, mà là quy định kém.
Việc quá chung chung có thể gây hại cho đổi mới và tất cả các công ty tham gia vào việc sản xuất, phân phối và sử dụng các sản phẩm và dịch vụ dựa trên AI.
Nếu các nhà đầu tư của EU lo ngại về những rủi ro tiềm ẩn do một nhãn mác cho biết rằng một startup hay công ty thuộc nhóm “rủi ro cao”, thì môi trường AI tại Liên minh châu Âu có thể bị ảnh hưởng tiêu cực, trong khi Mỹ đang tìm kiếm các ý kiến công khai để cải thiện công nghệ của mình và Trung Quốc đã có một quan điểm rõ ràng về việc nên quản lý trí tuệ nhân tạo như thế nào.
Theo Robin Röhm, đồng sáng lập của Apheris, một trong các kịch bản có thể xảy ra là các startup sẽ chuyển sang Mỹ - một quốc gia có lẽ còn rất nhiều thứ để mất khi nói tới blockchain và các loại tiền mã hóa, nhưng có thể giành chiến thắng trong cuộc đua AI.
Nếu bạn muốn biết thêm về fintech và khám phá tin tức, sự kiện và quan điểm về fintech, hãy đăng ký bản tin FTW Newsletter!