Trí Tuệ Nhân Tạo tại Châu Âu: Những Điều Luật AI Có Thể Có Nghĩa Là Gì

Ảnh của Maico Amorim trên Unsplash


Luật AI vẫn chỉ là dự thảo, nhưng các nhà đầu tư và chủ doanh nghiệp tại Liên minh Châu Âu đã bắt đầu lo lắng về các kết quả có thể xảy ra.

Liệu nó có ngăn cản Liên minh Châu Âu trở thành một đối thủ cạnh tranh giá trị trên thị trường toàn cầu không?

Theo các nhà quản lý, không phải vậy. Nhưng hãy xem điều gì đang diễn ra.

Luật AI và Đánh giá Rủi ro

Luật AI chia các rủi ro do trí tuệ nhân tạo gây ra thành các loại rủi ro khác nhau, nhưng trước tiên, nó thu hẹp định nghĩa về trí tuệ nhân tạo chỉ bao gồm các hệ thống dựa trên học máy và logic.

Điều này không chỉ nhằm mục đích phân biệt các hệ thống AI với các phần mềm đơn giản hơn, mà còn giúp chúng ta hiểu tại sao EU muốn phân loại rủi ro.

Các mục đích sử dụng AI khác nhau được phân loại thành rủi ro không thể chấp nhận được, rủi ro cao, và rủi ro thấp hoặc tối thiểu. Các hoạt động nằm trong danh mục rủi ro không thể chấp nhận được được xem là bị cấm.

Các hoạt động này bao gồm:

* Các hoạt động liên quan đến kỹ thuật vượt quá ý thức của con người,  
* Các hoạt động muốn khai thác các phần dễ bị tổn thương của dân số,  
* Các hệ thống dựa trên AI được thiết lập để phân loại người dựa trên đặc điểm cá nhân hoặc hành vi,  
* Các hệ thống dựa trên AI sử dụng nhận dạng sinh trắc học trong không gian công cộng.  

Có một số trường hợp sử dụng, được xem là tương tự với một số hoạt động nằm trong danh mục bị cấm, thuộc loại “rủi ro cao”.

Chúng bao gồm các hệ thống dùng để tuyển dụng nhân viên hoặc để đánh giá và phân tích khả năng tín dụng của người dân (và điều này có thể nguy hiểm đối với fintech). Trong các trường hợp này, tất cả các doanh nghiệp tạo ra hoặc sử dụng loại hệ thống này cần phải cung cấp các báo cáo chi tiết để giải thích cách hệ thống hoạt động và các biện pháp đã thực hiện để tránh rủi ro cho người dùng và đảm bảo tính minh bạch tối đa.

Mọi thứ có vẻ rõ ràng và chính xác, nhưng vẫn còn một số vấn đề mà các nhà quản lý cần giải quyết.

Luật quá chung chung

Một trong những điều khiến các chủ doanh nghiệp và nhà đầu tư lo lắng nhất là thiếu sự chú ý đến các lĩnh vực AI cụ thể.

Ví dụ, các công ty sản xuất và sử dụng hệ thống dựa trên AI cho mục đích chung có thể bị xem là sử dụng trí tuệ nhân tạo cho các trường hợp sử dụng rủi ro cao.

Điều này có nghĩa là họ cần phải tạo ra các báo cáo chi tiết tốn thời gian và chi phí. Vì các doanh nghiệp nhỏ và vừa (SMEs) không ngoại lệ, và vì họ chiếm phần lớn nền kinh tế châu Âu, nên theo thời gian họ có thể trở nên kém cạnh tranh hơn.

Và chính sự khác biệt giữa các công ty AI của Mỹ và châu Âu là điều gây lo ngại lớn: thực tế, châu Âu không có các công ty AI lớn như Mỹ, vì môi trường AI ở châu Âu chủ yếu do các doanh nghiệp nhỏ và startup tạo ra.

Theo khảo sát do appliedAI thực hiện, phần lớn các nhà đầu tư sẽ tránh đầu tư vào các startup được gắn nhãn là “rủi ro cao”, chính xác vì những phức tạp liên quan đến phân loại này.

ChatGPT đã thay đổi kế hoạch của EU

Các nhà quản lý EU lẽ ra phải hoàn tất dự thảo vào ngày 19 tháng 4, nhưng cuộc thảo luận về các định nghĩa khác nhau của hệ thống dựa trên AI và các trường hợp sử dụng của chúng đã làm trì hoãn việc hoàn thiện dự thảo cuối cùng.

Hơn nữa, các công ty công nghệ cho thấy không phải tất cả đều đồng ý với phiên bản hiện tại của tài liệu.

Điểm gây trì hoãn lớn nhất là sự phân biệt giữa mô hình nền tảngAI mục đích chung.

Một ví dụ về mô hình nền tảng AI là ChatGPT của OpenAI: các hệ thống này được huấn luyện bằng lượng dữ liệu lớn và có thể tạo ra bất kỳ loại đầu ra nào.

AI mục đích chung bao gồm các hệ thống có thể thích nghi với các mục đích và lĩnh vực khác nhau.

Các nhà quản lý EU muốn kiểm soát chặt chẽ các mô hình nền tảng, vì chúng có thể gây ra nhiều rủi ro hơn và ảnh hưởng tiêu cực đến cuộc sống của mọi người.

Cách Mỹ và Trung Quốc điều chỉnh AI

Nếu nhìn vào cách các nhà quản lý EU xử lý AI, có điều nổi bật: dường như các nhà quản lý ít sẵn lòng hợp tác hơn.

Ở Mỹ, ví dụ, chính quyền Biden đã tìm kiếm ý kiến công chúng về độ an toàn của các hệ thống như ChatGPT, trước khi thiết kế một khung pháp lý có thể.

Ở Trung Quốc, chính phủ đã điều chỉnh AI và thu thập dữ liệu trong nhiều năm, và mối quan tâm chính của họ vẫn là ổn định xã hội.

Cho đến nay, quốc gia có vẻ đang có vị trí tốt trong việc điều chỉnh AI là Vương quốc Anh, với cách tiếp cận “nhẹ nhàng” — nhưng không có gì bí mật rằng Vương quốc Anh muốn trở thành một trung tâm trong lĩnh vực AI và fintech.

Fintech và Luật AI

Khi nói đến các công ty và startup cung cấp dịch vụ tài chính, tình hình còn phức tạp hơn.

Thật vậy, nếu dự thảo này giữ nguyên phiên bản hiện tại, các fintech sẽ không chỉ phải tuân thủ các quy định tài chính hiện hành, mà còn phải thích nghi với khung pháp lý mới này.

Việc đánh giá khả năng tín dụng có thể bị xem là một trường hợp sử dụng rủi ro cao chỉ là một ví dụ về gánh nặng mà các công ty fintech phải gánh, điều này có thể ngăn cản họ linh hoạt hơn trong việc huy động vốn và cạnh tranh.

Kết luận

Như Peter Sarlin, CEO của Silo AI, đã chỉ ra, vấn đề không phải là quy định, mà là quy định sai.

Việc quá chung chung có thể gây hại cho đổi mới sáng tạo và tất cả các công ty tham gia vào sản xuất, phân phối và sử dụng các sản phẩm và dịch vụ dựa trên AI.

Nếu các nhà đầu tư EU lo lắng về các rủi ro tiềm tàng do nhãn “rủi ro cao” gây ra, môi trường AI tại Liên minh Châu Âu có thể bị ảnh hưởng tiêu cực, trong khi Mỹ đang tìm kiếm ý kiến công chúng để cải thiện công nghệ của mình và Trung Quốc đã có quan điểm rõ ràng về cách điều chỉnh trí tuệ nhân tạo.

Theo Robin Röhm, đồng sáng lập Apheris, một trong những kịch bản có thể xảy ra là các startup sẽ chuyển sang Mỹ — một quốc gia có thể mất nhiều trong lĩnh vực blockchain và tiền mã hóa, nhưng lại có thể chiến thắng trong cuộc đua AI.


Nếu bạn muốn biết thêm về fintech và khám phá các tin tức, sự kiện, và ý kiến về fintech, hãy đăng ký nhận bản tin FTW!

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim