Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
AI tại Châu Âu: Những ý nghĩa có thể của Luật AI
Ảnh của Maico Amorim trên Unsplash
Đạo luật AI vẫn còn chỉ là bản dự thảo, nhưng các nhà đầu tư và chủ doanh nghiệp ở Liên minh châu Âu đã bắt đầu lo lắng về những kết quả có thể xảy ra.
Liệu nó có ngăn cản Liên minh châu Âu trở thành một đối thủ cạnh tranh có giá trị trong không gian toàn cầu không?
Theo các cơ quan quản lý, điều đó là không đúng. Nhưng hãy cùng xem điều gì đang diễn ra.
Đạo luật AI và đánh giá rủi ro
Đạo luật AI chia các rủi ro do trí tuệ nhân tạo gây ra thành các nhóm rủi ro khác nhau, nhưng trước khi làm vậy, nó thu hẹp định nghĩa về trí tuệ nhân tạo để chỉ bao gồm những hệ thống dựa trên học máy và logic.
Việc này không chỉ nhằm phân biệt các hệ thống AI với những phần mềm đơn giản hơn, mà còn giúp chúng ta hiểu vì sao EU muốn phân loại rủi ro.
Các ứng dụng khác nhau của AI được phân loại thành rủi ro không thể chấp nhận, rủi ro cao, và
rủi ro thấp hoặc rủi ro tối thiểu. Các hoạt động thuộc nhóm rủi ro không thể chấp nhận được coi là bị cấm.
Loại hoạt động này bao gồm:
Có một số trường hợp sử dụng, đáng lẽ phải được coi là tương tự với một số hoạt động nằm trong nhóm bị cấm, thuộc nhóm các hoạt động “rủi ro cao”.
Những trường hợp này bao gồm các hệ thống được dùng để tuyển dụng lao động hoặc để đánh giá và phân tích mức độ tín nhiệm tín dụng của con người (và điều này có thể gây nguy hiểm cho fintech). Trong các trường hợp này, tất cả các doanh nghiệp tạo ra hoặc sử dụng loại hệ thống này phải tạo ra các báo cáo chi tiết để giải thích hệ thống hoạt động như thế nào và các biện pháp được thực hiện để tránh rủi ro cho con người và minh bạch nhất có thể.
Mọi thứ nhìn có vẻ rõ ràng và đúng đắn, nhưng vẫn có một số vấn đề mà các cơ quan quản lý cần giải quyết.
Đạo luật có vẻ quá chung chung
Một trong những khía cạnh khiến những chủ doanh nghiệp và nhà đầu tư lo lắng nhất là việc thiếu sự quan tâm đến các lĩnh vực AI cụ thể.
Ví dụ, những công ty sản xuất và sử dụng các hệ thống dựa trên AI cho mục đích chung có thể bị coi là những công ty sử dụng trí tuệ nhân tạo cho các trường hợp sử dụng rủi ro cao.
Điều này có nghĩa là họ phải tạo ra các báo cáo chi tiết tốn thời gian và tiền bạc. Vì các SME không có ngoại lệ, và vì họ chiếm phần lớn nhất trong nền kinh tế châu Âu, họ có thể trở nên kém cạnh tranh hơn theo thời gian.
Và chính sự khác biệt giữa các công ty AI của Mỹ và châu Âu mới là điều làm dấy lên những lo ngại lớn: thực tế, châu Âu không có các công ty AI lớn như ở Mỹ, vì môi trường AI ở châu Âu chủ yếu được tạo ra bởi các SME và startup.
Theo một cuộc khảo sát do appliedAI thực hiện, đa số lớn các nhà đầu tư sẽ tránh đầu tư vào các startup được gắn nhãn “rủi ro cao”, chính xác là vì những phức tạp liên quan đến cách phân loại này.
ChatGPT làm thay đổi kế hoạch của EU
Các cơ quan quản lý EU lẽ ra đã đóng tài liệu vào ngày 19 tháng 4, nhưng cuộc thảo luận liên quan đến các định nghĩa khác nhau về các hệ thống dựa trên AI và các trường hợp sử dụng của chúng đã làm chậm việc giao nộp bản dự thảo cuối cùng.
Hơn nữa, các công ty công nghệ đã cho thấy rằng không phải tất cả họ đều đồng ý với phiên bản hiện tại của tài liệu.
Điểm gây ra nhiều sự chậm trễ nhất là sự phân biệt giữa các mô hình nền tảng và AI cho mục đích chung.
Một ví dụ về các mô hình nền tảng AI là ChatGPT của OpenAI: các hệ thống này được huấn luyện bằng lượng dữ liệu lớn và có thể tạo ra mọi loại đầu ra.
AI cho mục đích chung bao gồm những hệ thống có thể được điều chỉnh cho các trường hợp sử dụng và các lĩnh vực khác nhau.
Các cơ quan quản lý EU muốn siết chặt việc điều tiết các mô hình nền tảng, vì chúng có thể gây ra nhiều rủi ro hơn và ảnh hưởng tiêu cực đến cuộc sống của con người.
Cách Mỹ và Trung Quốc điều tiết AI
Nếu chúng ta xem cách các cơ quan quản lý EU đối xử với AI, sẽ có một điều nổi bật: có vẻ như các cơ quan quản lý ít sẵn sàng hợp tác hơn.
Ở Mỹ, ví dụ, chính quyền Biden đã tìm kiếm ý kiến đóng góp công khai về sự an toàn của các hệ thống như ChatGPT, trước khi thiết kế một khung điều tiết có thể áp dụng.
Ở Trung Quốc, chính phủ đã điều tiết AI và việc thu thập dữ liệu trong nhiều năm, và mối lo ngại chính của họ vẫn là sự ổn định xã hội.
Cho đến nay, quốc gia có vẻ đang ở vị trí thuận lợi cho việc điều tiết AI là Vương quốc Anh, nước đã chọn một cách tiếp cận “nhẹ” - nhưng không phải là bí mật khi Vương quốc Anh muốn trở thành người dẫn đầu về việc ứng dụng AI và fintech.
Fintech và Đạo luật AI
Khi nói đến các công ty và startup cung cấp dịch vụ tài chính, tình hình còn phức tạp hơn nữa.
Trên thực tế, nếu Đạo luật vẫn giữ nguyên như phiên bản hiện tại, các công ty fintech sẽ không chỉ cần phải gắn với các quy định tài chính hiện hành, mà còn phải tuân theo khung điều tiết mới này.
Việc đánh giá mức độ tín nhiệm tín dụng có thể được gắn nhãn là một trường hợp sử dụng rủi ro cao chỉ là một ví dụ về gánh nặng mà các công ty fintech phải gánh chịu, khiến họ không thể linh hoạt như trước đây để thu hút đầu tư và cạnh tranh.
Kết luận
Như Peter Sarlin, CEO của Silo AI, đã chỉ ra, vấn đề không phải là điều tiết, mà là điều tiết kém.
Quá chung chung có thể gây hại cho sự đổi mới và tất cả các công ty liên quan đến việc sản xuất, phân phối và sử dụng các sản phẩm và dịch vụ dựa trên AI.
Nếu các nhà đầu tư ở EU lo ngại về những rủi ro tiềm ẩn do một nhãn mác nói rằng một startup hoặc công ty thuộc nhóm “rủi ro cao”, thì môi trường AI ở Liên minh châu Âu có thể bị ảnh hưởng tiêu cực, trong khi Mỹ đang tìm kiếm ý kiến đóng góp công khai để cải thiện công nghệ của mình và Trung Quốc đã có sẵn quan điểm rõ ràng về cách điều tiết trí tuệ nhân tạo.
Theo Robin Röhm, đồng sáng lập của Apheris, một trong những kịch bản khả dĩ là các startup sẽ chuyển sang Mỹ - một quốc gia có thể sẽ mất nhiều nếu xét về blockchain và tiền mã hóa, nhưng có thể giành chiến thắng trong cuộc đua AI.
Nếu bạn muốn biết thêm về fintech và khám phá tin tức, sự kiện và quan điểm về fintech, hãy đăng ký FTW Newsletter!