Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
AI tại Châu Âu: Những ý nghĩa có thể của Luật AI
Ảnh của Maico Amorim trên Unsplash
Đạo luật AI (AI Act) vẫn còn chỉ là một bản dự thảo, nhưng các nhà đầu tư và chủ doanh nghiệp trong Liên minh châu Âu (EU) đã bắt đầu lo lắng trước những khả năng xảy ra.
Liệu nó có thể ngăn Liên minh châu Âu trở thành một đối thủ cạnh tranh có giá trị trong không gian toàn cầu không?
Theo các cơ quan quản lý, không phải như vậy. Nhưng hãy xem điều gì đang diễn ra.
Đạo luật AI và đánh giá rủi ro
Đạo luật AI phân chia các rủi ro do trí tuệ nhân tạo gây ra thành những nhóm rủi ro khác nhau, nhưng trước khi làm điều đó, nó thu hẹp định nghĩa về trí tuệ nhân tạo để chỉ bao gồm các hệ thống dựa trên học máy và logic.
Điều này không chỉ nhằm mục đích phân biệt các hệ thống AI với những phần mềm đơn giản hơn, mà còn giúp chúng ta hiểu vì sao EU muốn phân loại rủi ro.
Các cách sử dụng khác nhau của AI được phân loại thành rủi ro không thể chấp nhận, rủi ro cao, và
rủi ro thấp hoặc tối thiểu. Những hoạt động thuộc nhóm rủi ro không thể chấp nhận được xem là bị cấm.
Loại hình hoạt động này bao gồm:
Có một số trường hợp sử dụng, nhìn chung nên được coi là tương tự với một số hoạt động nằm trong nhóm bị cấm, nhưng lại thuộc nhóm “các hoạt động rủi ro cao”.
Những trường hợp này bao gồm các hệ thống được dùng để tuyển dụng nhân viên hoặc để đánh giá và phân tích mức độ tín nhiệm tín dụng của con người (và điều này có thể nguy hiểm đối với fintech). Trong các trường hợp này, mọi doanh nghiệp tạo ra hoặc sử dụng loại hệ thống này đều phải cung cấp các báo cáo chi tiết để giải thích hệ thống hoạt động như thế nào và các biện pháp được thực hiện để tránh rủi ro cho con người, đồng thời minh bạch nhất có thể.
Mọi thứ có vẻ rõ ràng và đúng đắn, nhưng vẫn có một số vấn đề mà các cơ quan quản lý cần giải quyết.
Đạo luật có vẻ quá chung chung
Một trong những khía cạnh khiến nhiều chủ doanh nghiệp và nhà đầu tư lo ngại nhất là việc thiếu sự quan tâm đến các lĩnh vực AI cụ thể.
Ví dụ, các công ty tạo ra và sử dụng các hệ thống AI cho mục đích chung có thể được coi là những công ty sử dụng trí tuệ nhân tạo cho các trường hợp sử dụng rủi ro cao.
Điều này có nghĩa là họ phải tạo ra các báo cáo chi tiết, tốn thời gian và tiền bạc. Vì các SME không có ngoại lệ, và vì chúng chiếm phần lớn trong nền kinh tế châu Âu, họ có thể trở nên kém cạnh tranh hơn theo thời gian.
Và chính sự khác biệt giữa các công ty AI của Mỹ và châu Âu là điều làm dấy lên các lo ngại lớn: thực tế là châu Âu không có những công ty AI lớn như ở Mỹ, vì môi trường AI ở châu Âu chủ yếu được tạo ra bởi các SME và startup.
Theo một cuộc khảo sát do appliedAI thực hiện, đa số lớn các nhà đầu tư sẽ tránh đầu tư vào các startup được gắn nhãn “rủi ro cao”, chính xác là vì sự phức tạp liên quan đến việc phân loại này.
ChatGPT đã thay đổi kế hoạch của EU
Các cơ quan quản lý EU lẽ ra đã đóng tài liệu vào ngày 19 tháng 4, nhưng phần thảo luận liên quan đến các định nghĩa khác nhau về các hệ thống dựa trên AI và các trường hợp sử dụng của chúng đã làm chậm việc công bố bản dự thảo cuối cùng.
Hơn nữa, các công ty công nghệ đã cho thấy không phải tất cả trong số họ đều đồng ý với phiên bản hiện tại của tài liệu đó.
Điểm khiến chậm trễ nhiều nhất là sự phân biệt giữa các mô hình nền tảng (foundation models) và AI cho mục đích chung (general purpose AI).
Một ví dụ về các mô hình nền tảng AI là ChatGPT của OpenAI: các hệ thống này được huấn luyện bằng lượng dữ liệu lớn và có thể tạo ra mọi loại đầu ra.
AI cho mục đích chung bao gồm các hệ thống có thể được điều chỉnh cho nhiều trường hợp sử dụng và các lĩnh vực khác nhau.
Các cơ quan quản lý EU muốn siết chặt việc quản lý các mô hình nền tảng, vì chúng có thể gây ra nhiều rủi ro hơn và tác động tiêu cực đến cuộc sống của con người.
Cách Mỹ và Trung Quốc đang quản lý AI
Nếu nhìn vào cách các cơ quan quản lý EU đối xử với AI, thì có một điều nổi bật: có vẻ như các cơ quan quản lý ít sẵn sàng hợp tác hơn.
Ở Mỹ, chẳng hạn, chính quyền Biden đã tìm kiếm ý kiến đóng góp của công chúng về sự an toàn của các hệ thống như ChatGPT, trước khi thiết kế một khung pháp lý có thể áp dụng.
Tại Trung Quốc, chính phủ đã quản lý AI và việc thu thập dữ liệu trong nhiều năm, và mối quan ngại chính của họ vẫn là sự ổn định xã hội.
Cho đến nay, quốc gia có vẻ có vị thế tốt trong quản lý AI là Vương quốc Anh (UK), nước này ưu tiên một cách tiếp cận “nhẹ” - nhưng không có gì bí mật rằng UK muốn trở thành một nước dẫn đầu trong việc ứng dụng AI và fintech.
Fintech và Đạo luật AI
Khi nói đến các công ty và startup cung cấp dịch vụ tài chính, tình hình còn phức tạp hơn nữa.
Thực tế, nếu Đạo luật vẫn giữ nguyên như phiên bản hiện tại, thì các công ty fintech sẽ không chỉ cần gắn với các quy định tài chính hiện hành, mà còn phải tuân theo khung pháp lý quản lý mới này.
Việc đánh giá mức độ tín nhiệm tín dụng có thể được gắn nhãn là một trường hợp sử dụng rủi ro cao chỉ là một ví dụ về gánh nặng mà các công ty fintech phải gánh chịu, khiến họ không thể linh hoạt như trước đây để thu hút đầu tư và để cạnh tranh.
Kết luận
Như Peter Sarlin, CEO của Silo AI, đã chỉ ra, vấn đề không phải là quy định, mà là quy định tệ.
Việc quá chung chung có thể gây hại cho sự đổi mới và tất cả các công ty tham gia vào việc sản xuất, phân phối và sử dụng các sản phẩm và dịch vụ dựa trên AI.
Nếu các nhà đầu tư EU lo ngại về những rủi ro tiềm ẩn do một nhãn mác cho biết rằng một startup hoặc công ty thuộc nhóm “rủi ro cao”, thì môi trường AI trong Liên minh châu Âu có thể bị ảnh hưởng tiêu cực, trong khi Mỹ lại đang tìm kiếm ý kiến đóng góp của công chúng để cải thiện công nghệ của mình, và Trung Quốc đã có sẵn quan điểm rõ ràng về cách quản lý trí tuệ nhân tạo.
Theo Robin Röhm, đồng sáng lập Apheris, một trong những kịch bản có thể xảy ra là các startup sẽ chuyển sang Mỹ - một quốc gia có lẽ còn rất nhiều thứ để mất khi nói đến blockchain và tiền mã hóa, nhưng lại có thể giành chiến thắng trong cuộc đua AI.
Nếu bạn muốn biết thêm về fintech và khám phá tin tức, sự kiện và quan điểm về fintech, hãy đăng ký FTW Newsletter!