Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
AI tại Châu Âu: Những ý nghĩa có thể của Luật AI
Ảnh của Maico Amorim trên Unsplash
Đạo luật AI (AI Act) vẫn chỉ là một bản dự thảo, nhưng các nhà đầu tư và chủ doanh nghiệp ở Liên minh Châu Âu (European Union) đã bắt đầu lo lắng trước những kết quả có thể xảy ra.
Liệu nó có ngăn cản Liên minh Châu Âu trở thành một đối thủ cạnh tranh có giá trị trong không gian toàn cầu hay không?
Theo các cơ quan quản lý, điều đó là không đúng. Nhưng hãy xem chuyện gì đang diễn ra.
Đạo luật AI và đánh giá rủi ro
Đạo luật AI chia các rủi ro do trí tuệ nhân tạo gây ra thành nhiều nhóm rủi ro khác nhau, nhưng trước khi làm điều đó, nó thu hẹp định nghĩa về trí tuệ nhân tạo để chỉ bao gồm những hệ thống dựa trên học máy và logic.
Việc này không chỉ nhằm mục đích phân biệt các hệ thống AI với những phần mềm đơn giản hơn, mà còn giúp chúng ta hiểu vì sao EU muốn phân loại rủi ro.
Các cách sử dụng khác nhau của AI được phân loại thành rủi ro không thể chấp nhận, rủi ro cao, và
rủi ro thấp hoặc tối thiểu. Các hoạt động thuộc nhóm rủi ro không thể chấp nhận được coi là bị cấm.
Loại hoạt động này bao gồm:
Có một số trường hợp sử dụng, cần được xem là tương tự với một số hoạt động được đưa vào danh sách các hoạt động bị cấm, nhưng lại thuộc nhóm “các hoạt động rủi ro cao”.
Những trường hợp này bao gồm các hệ thống được dùng để tuyển dụng lao động hoặc để đánh giá và phân tích khả năng tín dụng của con người (và điều này có thể gây nguy hiểm cho fintech). Trong các trường hợp này, tất cả các doanh nghiệp tạo ra hoặc sử dụng loại hệ thống này đều phải tạo ra các báo cáo chi tiết để giải thích hệ thống hoạt động như thế nào và các biện pháp đã thực hiện để tránh rủi ro cho con người, đồng thời minh bạch nhất có thể.
Mọi thứ có vẻ rõ ràng và đúng, nhưng vẫn có một số vấn đề mà các cơ quan quản lý cần giải quyết.
Đạo luật quá chung chung
Một trong những khía cạnh khiến hầu hết chủ doanh nghiệp và nhà đầu tư lo lắng là sự thiếu quan tâm đối với các lĩnh vực AI cụ thể.
Ví dụ, những công ty sản xuất và sử dụng các hệ thống AI cho mục đích chung có thể được xem là những đơn vị sử dụng trí tuệ nhân tạo cho các trường hợp sử dụng rủi ro cao.
Điều này có nghĩa là họ phải tạo ra các báo cáo chi tiết, tốn thời gian và tiền bạc. Do SME không có ngoại lệ, và vì chúng tạo thành phần lớn nhất của nền kinh tế châu Âu, nên theo thời gian họ có thể trở nên kém cạnh tranh hơn.
Và chính sự khác biệt giữa các công ty AI của Mỹ và châu Âu mới làm dấy lên những lo ngại lớn: thực tế là châu Âu không có các công ty AI lớn như ở Mỹ, bởi môi trường AI ở châu Âu chủ yếu được tạo ra bởi các SME và các startup.
Theo một cuộc khảo sát do appliedAI thực hiện, phần lớn nhà đầu tư sẽ tránh đầu tư vào các startup được gắn nhãn “rủi ro cao”, chính xác là vì những phức tạp liên quan đến việc phân loại này.
ChatGPT thay đổi kế hoạch của EU
Các cơ quan quản lý của EU lẽ ra đã đóng tài liệu vào ngày 19 tháng 4, nhưng việc thảo luận liên quan đến các định nghĩa khác nhau về các hệ thống dựa trên AI và các trường hợp sử dụng của chúng đã làm chậm tiến độ nộp bản dự thảo cuối cùng.
Ngoài ra, các công ty công nghệ cho thấy không phải tất cả họ đều đồng ý với phiên bản hiện tại của tài liệu.
Điểm gây ra sự chậm trễ nhiều nhất là sự phân biệt giữa các mô hình nền tảng (foundation models) và AI mục đích chung (general purpose AI).
Một ví dụ về các mô hình nền tảng AI là ChatGPT của OpenAI: các hệ thống này được huấn luyện bằng lượng dữ liệu lớn và có thể tạo ra mọi loại đầu ra.
AI mục đích chung bao gồm các hệ thống có thể được điều chỉnh cho nhiều trường hợp sử dụng và các lĩnh vực khác nhau.
Các cơ quan quản lý của EU muốn siết chặt việc quản lý các mô hình nền tảng, vì chúng có thể tạo ra nhiều rủi ro hơn và tác động tiêu cực đến cuộc sống của con người.
Cách Mỹ và Trung Quốc đang quản lý AI
Nếu xem xét cách các cơ quan quản lý của EU đối xử với AI, có một điều nổi bật: trông có vẻ các cơ quan quản lý kém sẵn sàng hợp tác hơn.
Ở Mỹ, ví dụ, chính quyền Biden đã tìm kiếm các ý kiến công khai về mức độ an toàn của các hệ thống như ChatGPT, trước khi thiết kế một khuôn khổ quản lý có thể có.
Ở Trung Quốc, chính phủ đã quản lý AI và việc thu thập dữ liệu trong nhiều năm, và mối quan ngại chính của họ vẫn là sự ổn định xã hội.
Cho đến nay, quốc gia có vẻ được định vị tốt cho việc quản lý AI là Vương quốc Anh (UK), nước này ưu tiên một cách tiếp cận “nhẹ” - nhưng không có gì bí mật rằng UK muốn trở thành một nhà dẫn đầu trong việc áp dụng AI và fintech.
Fintech và Đạo luật AI
Khi nói đến các công ty và startup cung cấp dịch vụ tài chính, tình hình còn phức tạp hơn.
Trên thực tế, nếu Đạo luật vẫn được giữ như phiên bản hiện tại, các công ty fintech sẽ không chỉ cần tuân thủ các quy định tài chính hiện hành, mà còn phải tuân theo khuôn khổ quản lý mới này.
Việc đánh giá khả năng tín dụng có thể bị gắn nhãn là một trường hợp sử dụng rủi ro cao chỉ là một ví dụ về gánh nặng mà các công ty fintech phải gánh chịu, khiến họ không thể linh hoạt như trước đây để thu hút đầu tư và cạnh tranh.
Kết luận
Như Peter Sarlin, CEO của Silo AI, đã chỉ ra, vấn đề không phải là quản lý, mà là quản lý kém.
Nếu quá chung chung, điều đó có thể gây hại cho sự đổi mới và tất cả các công ty tham gia vào việc sản xuất, phân phối và sử dụng các sản phẩm và dịch vụ dựa trên AI.
Nếu các nhà đầu tư ở EU lo ngại về những rủi ro tiềm ẩn do một nhãn mác cho biết rằng một startup hoặc công ty thuộc nhóm “rủi ro cao”, thì môi trường AI ở Liên minh Châu Âu có thể bị ảnh hưởng tiêu cực, trong khi Mỹ đang tìm kiếm ý kiến công khai để cải thiện công nghệ của mình và Trung Quốc đã có quan điểm rõ ràng về cách quản lý trí tuệ nhân tạo.
Theo Robin Röhm, đồng sáng lập của Apheris, một trong những kịch bản có thể xảy ra là các startup sẽ chuyển sang Mỹ - một quốc gia có thể có rất nhiều thứ để mất khi nói đến blockchain và tiền mã hóa, nhưng lại có thể giành chiến thắng trong cuộc đua AI.
Nếu bạn muốn biết thêm về fintech và khám phá các tin tức, sự kiện và quan điểm về fintech, hãy đăng ký bản tin FTW Newsletter!