Xác minh phân tán cho phép Mira lọc đầu ra AI thông qua mạng mô hình độc lập để cải thiện độ tin cậy của sự thật, giảm thiểu ảo giác mà không cần đào tạo lại hoặc giám sát tập trung.
Cơ chế đồng thuận yêu cầu nhiều mô hình hoạt động độc lập đạt được sự đồng thuận trước khi bất kỳ yêu cầu bồi thường nào được chấp thuận, thay thế niềm tin vào một mô hình đơn lẻ.
Mira xác thực 3 tỷ token mỗi ngày trong ứng dụng tích hợp, hỗ trợ hơn 4,5 triệu người dùng.
Khi đầu ra được lọc thông qua quy trình đồng thuận của Mira trong môi trường sản xuất, độ chính xác của sự thật đã tăng từ 70% lên 96%.
Mira đóng vai trò là cơ sở hạ tầng thay vì sản phẩm cuối cùng bằng cách tích hợp xác thực trực tiếp vào AI của các ứng dụng như chatbot, công cụ fintech và nền tảng giáo dục.
Giới thiệu Mira
Mira là một giao thức nhằm xác minh đầu ra của hệ thống AI. Chức năng cốt lõi của nó tương tự như một lớp kiểm toán / tin cậy phi tập trung. Mỗi khi mô hình AI tạo ra đầu ra (dù là câu trả lời hay tóm tắt), Mira sẽ đánh giá xem các tuyên bố "sự thật" trong đầu ra đó có đáng tin cậy hay không trước khi nó đến tay người dùng cuối.
Hệ thống hoạt động bằng cách chia nhỏ từng đầu ra AI thành các yêu cầu nhỏ hơn. Các tuyên bố này được đánh giá độc lập bởi nhiều trình xác thực trong mạng Mira. Mỗi nút chạy mô hình AI của riêng mình, thường có kiến trúc, bộ dữ liệu hoặc phối cảnh khác nhau. Mô hình bỏ phiếu cho mỗi tuyên bố, quyết định xem đó là đúng hay theo ngữ cảnh. Kết quả cuối cùng được xác định bởi cơ chế đồng thuận: nếu đại đa số các mô hình đồng ý với tính hợp lệ của tuyên bố, Mira sẽ chấp thuận yêu cầu. Nếu có bất đồng, yêu cầu bồi thường sẽ bị gắn cờ hoặc từ chối.
Không có cơ quan trung ương hoặc mô hình ẩn để đưa ra quyết định cuối cùng. Thay vào đó, sự thật được xác định tập thể, nổi lên từ một mô hình phân tán, đa dạng. Toàn bộ quy trình minh bạch và có thể kiểm toán. Mỗi đầu ra đã được xác minh đi kèm với một chứng chỉ mã hóa: một bản ghi có thể theo dõi cho thấy những tuyên bố nào đã được đánh giá, mô hình nào tham gia và cách chúng được bỏ phiếu. Các ứng dụng, nền tảng và thậm chí cả các cơ quan quản lý có thể sử dụng chứng chỉ này để xác nhận rằng đầu ra đã vượt qua lớp xác minh của Mira.
Cảm hứng của Mira đến từ công nghệ tích hợp trí tuệ nhân tạo và cơ chế đồng thuận blockchain. Nó không cải thiện độ chính xác thông qua việc tổng hợp dự đoán, mà thông qua việc tổng hợp đánh giá để xác định độ tin cậy. Nó sẽ lọc ra, từ chối những đầu ra không vượt qua bài kiểm tra tính xác thực phân tán.
Tại sao AI cần một hệ thống xác thực giống như Mira?
Mô hình AI không phải là xác định, điều này có nghĩa là chúng không phải lúc nào cũng trả về cùng một đầu ra cho cùng một gợi ý và không thể đảm bảo tính xác thực của kết quả được tạo ra. Đây không phải là lỗi; nó trực tiếp xuất phát từ cách huấn luyện các mô hình ngôn ngữ lớn: dự đoán ký tự tiếp theo dựa trên xác suất chứ không phải xác định.
Sự xác suất này đã mang lại cho hệ thống trí tuệ nhân tạo tính linh hoạt. Nó mang lại cho chúng sự sáng tạo, khả năng nhận thức bối cảnh và khả năng giống con người. Tuy nhiên, điều này cũng có nghĩa là chúng có thể một cách tự nhiên tạo ra những thứ.
Chúng ta đã thấy hậu quả. Chatbot của Air Canada đã tạo ra một chính sách giá vé tang quyến hoàn toàn không tồn tại và chuyển tiếp nó cho người dùng. Người dùng đủ cả tin để tin tưởng chatbot, đặt vé dựa trên thông tin sai lệch và chịu tổn thất tài chính. Tòa án phán quyết rằng hãng hàng không phải chịu trách nhiệm về ảo giác của chatbot. Nói tóm lại, AI tự tin đưa ra tuyên bố và công ty đã trả tiền cho nó.
Đây chỉ là một ví dụ. Hiện tượng ảo giác tồn tại phổ biến. Chúng xuất hiện trong các tóm tắt nghiên cứu không chính xác, các ứng dụng giáo dục trình bày sự thật lịch sử sai lệch, và các bản tin do trí tuệ nhân tạo viết có chứa các tuyên bố sai hoặc gây hiểu nhầm. Điều này là do các đầu ra này thường trôi chảy và có vẻ uy tín, người dùng thường tin tưởng vào chúng.
Ngoài ảo giác ra, còn có nhiều vấn đề hệ thống khác:
Thiên vị: Các mô hình AI có thể phản ánh và khuếch đại thành kiến trong dữ liệu đào tạo của chúng. Sự thiên vị này không phải lúc nào cũng rõ ràng. Nó có thể tinh tế thông qua những thứ như cụm từ, giọng điệu hoặc mức độ ưu tiên. Ví dụ: trợ lý tuyển dụng có thể thiên vị một cách có hệ thống đối với một nhân khẩu học cụ thể. Các công cụ tài chính có thể tạo ra các đánh giá rủi ro sử dụng ngôn ngữ bóp méo hoặc kỳ thị.
Không xác định: Hỏi cùng một mô hình cùng một câu hỏi hai lần có thể dẫn đến hai câu trả lời khác nhau. Thay đổi lời nhắc một chút và kết quả có thể thay đổi bất ngờ. Sự không nhất quán này làm cho đầu ra AI khó kiểm tra, tái tạo hoặc trở nên phụ thuộc lâu dài.
Bản chất của hộp đen: Khi hệ thống trí tuệ nhân tạo đưa ra câu trả lời, nó thường không cung cấp bất kỳ giải thích hoặc lý do nào có thể truy nguyên. Nó không có dấu hiệu rõ ràng để thể hiện kết luận của mình. Do đó, khi mô hình sai, rất khó để chẩn đoán nguyên nhân hoặc thực hiện sửa chữa.
Kiểm soát tập trung: Hiện tại, hầu hết các hệ thống trí tuệ nhân tạo đều là những mô hình đóng do một vài công ty lớn kiểm soát. Nếu mô hình có khuyết điểm, thiên kiến hoặc bị kiểm duyệt, sự lựa chọn của người dùng là hạn chế. Thiếu ý kiến thứ hai, quy trình khiếu nại minh bạch hoặc các giải thích mâu thuẫn. Điều này dẫn đến một cấu trúc kiểm soát tập trung khó bị thách thức hoặc xác minh.
Các phương pháp hiện có để nâng cao độ tin cậy của đầu ra AI và những hạn chế của chúng.
Hiện tại có nhiều phương pháp để nâng cao độ tin cậy của đầu ra AI. Mỗi phương pháp đều cung cấp một phần giá trị, nhưng đều có những hạn chế, không thể đạt được mức độ tin cậy cần thiết cho các ứng dụng quan trọng.
(HITL) hợp tác giữa con người và robot: Cách tiếp cận này liên quan đến việc con người xem xét và phê duyệt đầu ra AI. Nó hoạt động hiệu quả trong các trường hợp sử dụng khối lượng thấp. Tuy nhiên, nó có thể nhanh chóng trở thành nút thắt cổ chai cho các hệ thống tạo ra hàng triệu phản hồi mỗi ngày, chẳng hạn như công cụ tìm kiếm, bot hỗ trợ hoặc ứng dụng huấn luyện. Đánh giá thủ công chậm, tốn kém và dễ bị thiên vị và mâu thuẫn. Ví dụ: Grok của xAI sử dụng gia sư AI để đánh giá và tinh chỉnh câu trả lời theo cách thủ công. Đó là một giải pháp tạm thời và Mira coi đó là một giải pháp đòn bẩy thấp: nó không mở rộng quy mô và không giải quyết các vấn đề cơ bản tồn tại trong logic AI không thể xác minh.
Bộ lọc quy tắc: Các hệ thống này sử dụng các phương pháp kiểm tra cố định, chẳng hạn như đánh dấu các thuật ngữ bị vô hiệu hóa hoặc so sánh đầu ra với biểu đồ tri thức có cấu trúc. Mặc dù chúng phù hợp với các bối cảnh hẹp hơn, nhưng chúng chỉ phù hợp với các tình huống đáp ứng mong đợi của nhà phát triển. Họ không thể xử lý các truy vấn mới lạ hoặc kết thúc mở, và họ phải vật lộn với các lỗi tinh tế hoặc tuyên bố mơ hồ.
Tự xác thực: Một số mô hình bao gồm cơ chế đánh giá sự tự tin của chúng hoặc sử dụng các mô hình hỗ trợ để đánh giá câu trả lời của chúng. Tuy nhiên, điều nổi tiếng là các hệ thống trí tuệ nhân tạo thường không tốt trong việc nhận diện lỗi của chính chúng. Sự tự tin quá mức vào các câu trả lời sai là một vấn đề đã tồn tại từ lâu, và phản hồi nội bộ thường không thể sửa chữa điều đó.
Mô hình tích hợp: Trong một số hệ thống, nhiều mô hình sẽ kiểm tra chéo lẫn nhau. Mặc dù điều này có thể cải thiện tiêu chuẩn chất lượng, nhưng các mô hình tích hợp truyền thống thường là tập trung và đồng nhất. Nếu tất cả các mô hình chia sẻ dữ liệu đào tạo tương tự hoặc đến từ cùng một nhà cung cấp, chúng có thể chia sẻ cùng một điểm mù. Độ đa dạng về cấu trúc và quan điểm sẽ bị hạn chế.
Mira cam kết giải quyết vấn đề nhận thức. Mục tiêu của nó là tạo ra một môi trường có thể nắm bắt và loại bỏ ảo giác, giảm thiểu thiên lệch thông qua việc đa dạng hóa các mô hình, làm cho kết quả đầu ra có thể được xác minh lặp lại, và không có bất kỳ thực thể đơn lẻ nào có thể kiểm soát quá trình xác minh tính xác thực. Nghiên cứu cách hoạt động của hệ thống Mira có thể giải quyết từng vấn đề nêu trên theo những cách mới mẻ.
Mira làm thế nào để cải thiện độ tin cậy của AI
Các cách tiếp cận hiện tại đối với độ tin cậy của AI, được tập trung và dựa trên một nguồn tin cậy duy nhất, là khác nhau. Mira giới thiệu một mô hình khác. Nó cho phép xác minh phi tập trung, xây dựng sự đồng thuận ở cấp độ giao thức và sử dụng các ưu đãi kinh tế để củng cố hành vi độ tin cậy. Mira không phải là một sản phẩm độc lập hay công cụ giám sát từ trên xuống, mà là một lớp cơ sở hạ tầng mô-đun có thể được tích hợp vào bất kỳ hệ thống AI nào.
Thiết kế của thỏa thuận này dựa trên một số nguyên tắc cốt lõi:
Độ chính xác của sự thật không nên phụ thuộc vào đầu ra của một mô hình.
Việc xác minh phải là tự chủ, không thể dựa vào sự giám sát liên tục của con người.
Niềm tin nên được xây dựng trên các giao thức độc lập, chứ không phải là sự kiểm soát tập trung.
Mira áp dụng nguyên lý tính toán phân tán vào xác thực AI. Khi đầu ra được gửi (chẳng hạn như đề xuất chính sách, tóm tắt tài chính hoặc trả lời của chatbot), nó trước tiên sẽ được phân tách thành các tuyên bố sự thật nhỏ hơn. Những tuyên bố này được xây dựng thành các câu hỏi hoặc tuyên bố riêng biệt và được định tuyến đến mạng nút xác thực.
Mỗi nút chạy một mô hình hoặc cấu hình AI khác nhau và đánh giá các yêu cầu được chỉ định một cách độc lập. Nó trả về một trong ba phán quyết: đúng, sai hoặc không kết luận. Mira sau đó phản hồi kết quả. Nếu ngưỡng đa số có thể định cấu hình được đáp ứng, yêu cầu bồi thường sẽ được xác thực. Nếu nó không được thỏa mãn, nó sẽ bị gắn cờ, loại bỏ hoặc một cảnh báo được trả về.
Thiết kế phân tán của Mira có nhiều lợi thế về cấu trúc:
Sự dư thừa và đa dạng: Kiểm tra chéo các tuyên bố bằng các mô hình có kiến trúc, tập dữ liệu và quan điểm khác nhau.
Khả năng chịu lỗi: Một lỗi hoặc sai sót trong một mô hình sẽ khó tái hiện trong nhiều mô hình.
Độ minh bạch: Mỗi kết quả xác thực đều được ghi lại trên chuỗi, cung cấp các dấu vết có thể kiểm toán, bao gồm các mô hình nào đã tham gia và cách chúng đã bỏ phiếu.
Tính tự chủ: Mira hoạt động song song liên tục mà không cần sự can thiệp của con người.
Quy mô: Hệ thống này có thể xử lý khối lượng công việc khổng lồ hàng tỷ token mỗi ngày.
Những hiểu biết cốt lõi của Mira dựa trên số liệu thống kê: trong khi một mô hình duy nhất có thể gây ảo giác hoặc phản ánh sự thiên vị, nhiều hệ thống độc lập có xác suất mắc cùng một sai lầm theo cùng một cách thấp hơn nhiều. Giao thức tận dụng sự đa dạng này để lọc ra nội dung không đáng tin cậy. Nguyên tắc của Mira tương tự như học tập tổng hợp, nhưng nó mở rộng ý tưởng thành một hệ thống phân tán, có thể xác minh và an toàn về mặt kinh tế tiền điện tử có thể được nhúng vào các quy trình AI trong thế giới thực.
Người ủy thác nút và tài nguyên tính toán
Cơ sở hạ tầng xác thực phi tập trung của Mira Network được hỗ trợ bởi cộng đồng các nhà đóng góp toàn cầu, những người cung cấp tài nguyên tính toán cần thiết để vận hành các nút xác thực. Những nhà đóng góp này được gọi là người ủy thác nút, đóng vai trò quan trọng trong việc mở rộng quy mô xử lý và xác thực đầu ra AI.
Người ủy thác nút là gì?
Node principal là một cá nhân hoặc thực thể thuê hoặc cung cấp tài nguyên điện toán GPU cho một nhà điều hành node đã được xác minh, thay vì tự vận hành một node validator. Mô hình ủy quyền này cho phép người tham gia đóng góp vào cơ sở hạ tầng của Mira mà không cần phải quản lý các mô hình AI phức tạp hoặc phần mềm nút. Bằng cách cung cấp quyền truy cập vào tài nguyên GPU, các hiệu trưởng cho phép các nhà khai thác nút thực hiện nhiều xác thực hơn song song, nâng cao dung lượng và độ mạnh mẽ của hệ thống.
Các đại biểu nút được khuyến khích tài chính cho sự tham gia của họ. Đổi lại việc đóng góp sức mạnh tính toán, họ sẽ được thưởng cho số lượng công việc xác thực được thực hiện bởi các nút mà họ hỗ trợ và gắn liền với chất lượng. Điều này tạo ra một cấu trúc khuyến khích phi tập trung, trong đó khả năng mở rộng mạng liên quan trực tiếp đến sự tham gia của cộng đồng hơn là đầu tư cơ sở hạ tầng phi tập trung.
Nhà điều hành nút được cung cấp bởi ai?
Tài nguyên tính toán đến từ các đối tác vận hành nút sáng lập của Mira, họ là những người tham gia chính trong hệ sinh thái cơ sở hạ tầng phi tập trung:
Io.Net: Mạng cơ sở hạ tầng vật lý phi tập trung cho tính toán GPU (DePIN), cung cấp tài nguyên GPU có thể mở rộng và tiết kiệm chi phí.
Aethir: Một nhà cung cấp GPU dưới dạng dịch vụ tập trung vào trí tuệ nhân tạo và trò chơi cho doanh nghiệp, cung cấp cơ sở hạ tầng điện toán đám mây phân tán.
Hyperbolic: Một nền tảng đám mây AI mở, cung cấp tài nguyên GPU tiết kiệm chi phí và đồng bộ cho việc phát triển AI.
Exabits: Người tiên phong trong điện toán đám mây phi tập trung AI, giải quyết vấn đề thiếu hụt GPU và tối ưu hóa phân bổ tài nguyên.
Spheron: Một nền tảng phi tập trung đơn giản hóa việc triển khai ứng dụng web, cung cấp các giải pháp minh bạch và có thể xác minh.
Mỗi đối tác chạy các nút xác thực trên mạng Mira, tận dụng sức mạnh tính toán được ủy quyền để xác thực đầu ra AI trên quy mô lớn. Những đóng góp của họ đã cho phép Mira duy trì thông lượng xác minh cao, xử lý hàng tỷ mã thông báo mỗi ngày trong khi vẫn duy trì tốc độ, khả năng chịu lỗi và phi tập trung.
Lưu ý: Mỗi người tham gia chỉ có thể mua một giấy phép ủy quyền nút. Người dùng phải chứng minh sự tham gia thực sự của mình thông qua quy trình KYC của "Xác minh video hỗ trợ".
Mira trong lĩnh vực AI sử dụng quy mô lớn và hỗ trợ dữ liệu
Theo dữ liệu do nhóm cung cấp, mạng Mira xác minh hơn 3 tỷ token mỗi ngày. Trong mô hình ngôn ngữ, mã thông báo đề cập đến một đơn vị văn bản nhỏ, thường là một đoạn từ, một từ ngắn hoặc dấu câu. Ví dụ: cụm từ "đầu ra xác thực Mira" sẽ được chia thành nhiều mã thông báo. Lượng báo cáo này cho thấy Mira đang làm việc trên rất nhiều nội dung trong các tích hợp khác nhau, bao gồm trợ lý trò chuyện, nền tảng giáo dục, sản phẩm fintech và các công cụ nội bộ sử dụng API. Ở cấp độ nội dung, thông lượng này tương đương với việc đánh giá hàng triệu đoạn văn mỗi ngày.
Hệ sinh thái của Mira, bao gồm các chương trình đối tác, được cho là hỗ trợ hơn 4,5 triệu người dùng duy nhất, với khoảng 500.000 người dùng hoạt động hàng ngày. Những người dùng này bao gồm người dùng trực tiếp của Klok, cũng như người dùng cuối của các ứng dụng của bên thứ ba tích hợp lớp xác minh của Mira trong nền. Mặc dù hầu hết người dùng có thể không tương tác trực tiếp với Mira, nhưng hệ thống hoạt động như một lớp xác minh im lặng, giúp đảm bảo rằng nội dung do AI tạo đáp ứng một ngưỡng chính xác nhất định trước khi đến người dùng cuối.
Theo một bài nghiên cứu của nhóm của Mira, các mô hình ngôn ngữ lớn trước đây chính xác thực tế trong các lĩnh vực như giáo dục và tài chính có tỷ lệ chính xác thực tế khoảng 70%, nhưng bây giờ chúng đã được xác nhận với độ chính xác 96% sau khi được sàng lọc bởi quá trình đồng thuận của Mira. Điều quan trọng cần lưu ý là những cải tiến này có thể đạt được mà không cần đào tạo lại mô hình. Thay vào đó, những cải tiến này bắt nguồn từ logic lọc của Mira. Hệ thống lọc ra nội dung không đáng tin cậy bằng cách yêu cầu nhiều mô hình chạy độc lập đồng ý. Hiệu ứng này đặc biệt quan trọng đối với ảo giác, là thông tin sai lệch do AI tạo ra, không có căn cứ, đã được báo cáo là giảm 90% trong các ứng dụng tích hợp. Bởi vì ảo giác thường cụ thể và không nhất quán, chúng không có khả năng vượt qua cơ chế đồng thuận của Mira.
Ngoài việc cải thiện độ tin cậy thực tế, Giao thức Mira được thiết kế để hỗ trợ sự tham gia mở. Xác thực không giới hạn trong một nhóm đánh giá tập trung. Để điều chỉnh các ưu đãi, Mira đã áp dụng một hệ thống ưu đãi và trừng phạt tài chính. Những người xác thực liên tục tuân theo sự đồng thuận sẽ được trả tiền dựa trên hiệu suất, trong khi những người xác thực thực hiện các phán đoán bị thao túng hoặc không chính xác sẽ phải đối mặt với hình phạt. Cấu trúc này khuyến khích hành vi trung thực và thúc đẩy sự cạnh tranh giữa các cấu hình mô hình khác nhau. Bằng cách loại bỏ sự phụ thuộc vào quản trị tập trung và nhúng các ưu đãi vào lớp giao thức, Mira cho phép xác minh phi tập trung có thể mở rộng trong môi trường lưu lượng truy cập cao trong khi vẫn đảm bảo rằng các tiêu chuẩn đầu ra không bị xâm phạm.
Kết luận
Mira cung cấp một giải pháp cấu trúc cho một trong những thách thức cấp bách nhất trong AI: khả năng dựa vào việc xác minh kết quả đầu ra trên quy mô lớn. Thay vì dựa vào mức độ tin cậy của một mô hình đơn lẻ hoặc sự giám sát của con người sau khi thực tế, Mira giới thiệu một lớp xác minh phi tập trung chạy song song với việc tạo AI. Hệ thống lọc ra nội dung không được hỗ trợ bằng cách chia nhỏ đầu ra thành các tuyên bố thực tế, phân phối chúng cho các trình xác thực độc lập và áp dụng cơ chế đồng thuận. Nó cải thiện độ tin cậy mà không cần đào tạo lại mô hình hoặc kiểm soát tập trung.
Dữ liệu cho thấy tỷ lệ áp dụng và độ chính xác thực tế đã được cải thiện đáng kể, đồng thời hiện tượng ảo giác AI đã giảm đáng kể. Mira hiện được tích hợp vào nhiều lĩnh vực khác nhau, bao gồm giao diện trò chuyện, công cụ giáo dục và nền tảng tài chính, đồng thời đang nổi lên như một lớp cơ sở hạ tầng cho các ứng dụng quan trọng về độ chính xác. Khi các giao thức trưởng thành và kiểm toán của bên thứ ba trở nên phổ biến hơn, tính minh bạch, khả năng lặp lại và sự tham gia cởi mở của Mira sẽ cung cấp một khuôn khổ tin cậy có thể mở rộng cho các hệ thống AI hoạt động trong môi trường khối lượng lớn hoặc được quản lý.
Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
Mira làm thế nào để nâng cao độ tin cậy của AI thông qua các Nút phân phối
Tác giả: Messari
Tóm tắt
Xác minh phân tán cho phép Mira lọc đầu ra AI thông qua mạng mô hình độc lập để cải thiện độ tin cậy của sự thật, giảm thiểu ảo giác mà không cần đào tạo lại hoặc giám sát tập trung.
Cơ chế đồng thuận yêu cầu nhiều mô hình hoạt động độc lập đạt được sự đồng thuận trước khi bất kỳ yêu cầu bồi thường nào được chấp thuận, thay thế niềm tin vào một mô hình đơn lẻ.
Mira xác thực 3 tỷ token mỗi ngày trong ứng dụng tích hợp, hỗ trợ hơn 4,5 triệu người dùng.
Khi đầu ra được lọc thông qua quy trình đồng thuận của Mira trong môi trường sản xuất, độ chính xác của sự thật đã tăng từ 70% lên 96%.
Mira đóng vai trò là cơ sở hạ tầng thay vì sản phẩm cuối cùng bằng cách tích hợp xác thực trực tiếp vào AI của các ứng dụng như chatbot, công cụ fintech và nền tảng giáo dục.
Giới thiệu Mira
Mira là một giao thức nhằm xác minh đầu ra của hệ thống AI. Chức năng cốt lõi của nó tương tự như một lớp kiểm toán / tin cậy phi tập trung. Mỗi khi mô hình AI tạo ra đầu ra (dù là câu trả lời hay tóm tắt), Mira sẽ đánh giá xem các tuyên bố "sự thật" trong đầu ra đó có đáng tin cậy hay không trước khi nó đến tay người dùng cuối.
Hệ thống hoạt động bằng cách chia nhỏ từng đầu ra AI thành các yêu cầu nhỏ hơn. Các tuyên bố này được đánh giá độc lập bởi nhiều trình xác thực trong mạng Mira. Mỗi nút chạy mô hình AI của riêng mình, thường có kiến trúc, bộ dữ liệu hoặc phối cảnh khác nhau. Mô hình bỏ phiếu cho mỗi tuyên bố, quyết định xem đó là đúng hay theo ngữ cảnh. Kết quả cuối cùng được xác định bởi cơ chế đồng thuận: nếu đại đa số các mô hình đồng ý với tính hợp lệ của tuyên bố, Mira sẽ chấp thuận yêu cầu. Nếu có bất đồng, yêu cầu bồi thường sẽ bị gắn cờ hoặc từ chối.
Không có cơ quan trung ương hoặc mô hình ẩn để đưa ra quyết định cuối cùng. Thay vào đó, sự thật được xác định tập thể, nổi lên từ một mô hình phân tán, đa dạng. Toàn bộ quy trình minh bạch và có thể kiểm toán. Mỗi đầu ra đã được xác minh đi kèm với một chứng chỉ mã hóa: một bản ghi có thể theo dõi cho thấy những tuyên bố nào đã được đánh giá, mô hình nào tham gia và cách chúng được bỏ phiếu. Các ứng dụng, nền tảng và thậm chí cả các cơ quan quản lý có thể sử dụng chứng chỉ này để xác nhận rằng đầu ra đã vượt qua lớp xác minh của Mira.
Cảm hứng của Mira đến từ công nghệ tích hợp trí tuệ nhân tạo và cơ chế đồng thuận blockchain. Nó không cải thiện độ chính xác thông qua việc tổng hợp dự đoán, mà thông qua việc tổng hợp đánh giá để xác định độ tin cậy. Nó sẽ lọc ra, từ chối những đầu ra không vượt qua bài kiểm tra tính xác thực phân tán.
Tại sao AI cần một hệ thống xác thực giống như Mira?
Mô hình AI không phải là xác định, điều này có nghĩa là chúng không phải lúc nào cũng trả về cùng một đầu ra cho cùng một gợi ý và không thể đảm bảo tính xác thực của kết quả được tạo ra. Đây không phải là lỗi; nó trực tiếp xuất phát từ cách huấn luyện các mô hình ngôn ngữ lớn: dự đoán ký tự tiếp theo dựa trên xác suất chứ không phải xác định.
Sự xác suất này đã mang lại cho hệ thống trí tuệ nhân tạo tính linh hoạt. Nó mang lại cho chúng sự sáng tạo, khả năng nhận thức bối cảnh và khả năng giống con người. Tuy nhiên, điều này cũng có nghĩa là chúng có thể một cách tự nhiên tạo ra những thứ.
Chúng ta đã thấy hậu quả. Chatbot của Air Canada đã tạo ra một chính sách giá vé tang quyến hoàn toàn không tồn tại và chuyển tiếp nó cho người dùng. Người dùng đủ cả tin để tin tưởng chatbot, đặt vé dựa trên thông tin sai lệch và chịu tổn thất tài chính. Tòa án phán quyết rằng hãng hàng không phải chịu trách nhiệm về ảo giác của chatbot. Nói tóm lại, AI tự tin đưa ra tuyên bố và công ty đã trả tiền cho nó.
Đây chỉ là một ví dụ. Hiện tượng ảo giác tồn tại phổ biến. Chúng xuất hiện trong các tóm tắt nghiên cứu không chính xác, các ứng dụng giáo dục trình bày sự thật lịch sử sai lệch, và các bản tin do trí tuệ nhân tạo viết có chứa các tuyên bố sai hoặc gây hiểu nhầm. Điều này là do các đầu ra này thường trôi chảy và có vẻ uy tín, người dùng thường tin tưởng vào chúng.
Ngoài ảo giác ra, còn có nhiều vấn đề hệ thống khác:
Thiên vị: Các mô hình AI có thể phản ánh và khuếch đại thành kiến trong dữ liệu đào tạo của chúng. Sự thiên vị này không phải lúc nào cũng rõ ràng. Nó có thể tinh tế thông qua những thứ như cụm từ, giọng điệu hoặc mức độ ưu tiên. Ví dụ: trợ lý tuyển dụng có thể thiên vị một cách có hệ thống đối với một nhân khẩu học cụ thể. Các công cụ tài chính có thể tạo ra các đánh giá rủi ro sử dụng ngôn ngữ bóp méo hoặc kỳ thị.
Không xác định: Hỏi cùng một mô hình cùng một câu hỏi hai lần có thể dẫn đến hai câu trả lời khác nhau. Thay đổi lời nhắc một chút và kết quả có thể thay đổi bất ngờ. Sự không nhất quán này làm cho đầu ra AI khó kiểm tra, tái tạo hoặc trở nên phụ thuộc lâu dài.
Bản chất của hộp đen: Khi hệ thống trí tuệ nhân tạo đưa ra câu trả lời, nó thường không cung cấp bất kỳ giải thích hoặc lý do nào có thể truy nguyên. Nó không có dấu hiệu rõ ràng để thể hiện kết luận của mình. Do đó, khi mô hình sai, rất khó để chẩn đoán nguyên nhân hoặc thực hiện sửa chữa.
Kiểm soát tập trung: Hiện tại, hầu hết các hệ thống trí tuệ nhân tạo đều là những mô hình đóng do một vài công ty lớn kiểm soát. Nếu mô hình có khuyết điểm, thiên kiến hoặc bị kiểm duyệt, sự lựa chọn của người dùng là hạn chế. Thiếu ý kiến thứ hai, quy trình khiếu nại minh bạch hoặc các giải thích mâu thuẫn. Điều này dẫn đến một cấu trúc kiểm soát tập trung khó bị thách thức hoặc xác minh.
Các phương pháp hiện có để nâng cao độ tin cậy của đầu ra AI và những hạn chế của chúng.
Hiện tại có nhiều phương pháp để nâng cao độ tin cậy của đầu ra AI. Mỗi phương pháp đều cung cấp một phần giá trị, nhưng đều có những hạn chế, không thể đạt được mức độ tin cậy cần thiết cho các ứng dụng quan trọng.
(HITL) hợp tác giữa con người và robot: Cách tiếp cận này liên quan đến việc con người xem xét và phê duyệt đầu ra AI. Nó hoạt động hiệu quả trong các trường hợp sử dụng khối lượng thấp. Tuy nhiên, nó có thể nhanh chóng trở thành nút thắt cổ chai cho các hệ thống tạo ra hàng triệu phản hồi mỗi ngày, chẳng hạn như công cụ tìm kiếm, bot hỗ trợ hoặc ứng dụng huấn luyện. Đánh giá thủ công chậm, tốn kém và dễ bị thiên vị và mâu thuẫn. Ví dụ: Grok của xAI sử dụng gia sư AI để đánh giá và tinh chỉnh câu trả lời theo cách thủ công. Đó là một giải pháp tạm thời và Mira coi đó là một giải pháp đòn bẩy thấp: nó không mở rộng quy mô và không giải quyết các vấn đề cơ bản tồn tại trong logic AI không thể xác minh.
Bộ lọc quy tắc: Các hệ thống này sử dụng các phương pháp kiểm tra cố định, chẳng hạn như đánh dấu các thuật ngữ bị vô hiệu hóa hoặc so sánh đầu ra với biểu đồ tri thức có cấu trúc. Mặc dù chúng phù hợp với các bối cảnh hẹp hơn, nhưng chúng chỉ phù hợp với các tình huống đáp ứng mong đợi của nhà phát triển. Họ không thể xử lý các truy vấn mới lạ hoặc kết thúc mở, và họ phải vật lộn với các lỗi tinh tế hoặc tuyên bố mơ hồ.
Tự xác thực: Một số mô hình bao gồm cơ chế đánh giá sự tự tin của chúng hoặc sử dụng các mô hình hỗ trợ để đánh giá câu trả lời của chúng. Tuy nhiên, điều nổi tiếng là các hệ thống trí tuệ nhân tạo thường không tốt trong việc nhận diện lỗi của chính chúng. Sự tự tin quá mức vào các câu trả lời sai là một vấn đề đã tồn tại từ lâu, và phản hồi nội bộ thường không thể sửa chữa điều đó.
Mô hình tích hợp: Trong một số hệ thống, nhiều mô hình sẽ kiểm tra chéo lẫn nhau. Mặc dù điều này có thể cải thiện tiêu chuẩn chất lượng, nhưng các mô hình tích hợp truyền thống thường là tập trung và đồng nhất. Nếu tất cả các mô hình chia sẻ dữ liệu đào tạo tương tự hoặc đến từ cùng một nhà cung cấp, chúng có thể chia sẻ cùng một điểm mù. Độ đa dạng về cấu trúc và quan điểm sẽ bị hạn chế.
Mira cam kết giải quyết vấn đề nhận thức. Mục tiêu của nó là tạo ra một môi trường có thể nắm bắt và loại bỏ ảo giác, giảm thiểu thiên lệch thông qua việc đa dạng hóa các mô hình, làm cho kết quả đầu ra có thể được xác minh lặp lại, và không có bất kỳ thực thể đơn lẻ nào có thể kiểm soát quá trình xác minh tính xác thực. Nghiên cứu cách hoạt động của hệ thống Mira có thể giải quyết từng vấn đề nêu trên theo những cách mới mẻ.
Mira làm thế nào để cải thiện độ tin cậy của AI
Các cách tiếp cận hiện tại đối với độ tin cậy của AI, được tập trung và dựa trên một nguồn tin cậy duy nhất, là khác nhau. Mira giới thiệu một mô hình khác. Nó cho phép xác minh phi tập trung, xây dựng sự đồng thuận ở cấp độ giao thức và sử dụng các ưu đãi kinh tế để củng cố hành vi độ tin cậy. Mira không phải là một sản phẩm độc lập hay công cụ giám sát từ trên xuống, mà là một lớp cơ sở hạ tầng mô-đun có thể được tích hợp vào bất kỳ hệ thống AI nào.
Thiết kế của thỏa thuận này dựa trên một số nguyên tắc cốt lõi:
Độ chính xác của sự thật không nên phụ thuộc vào đầu ra của một mô hình.
Việc xác minh phải là tự chủ, không thể dựa vào sự giám sát liên tục của con người.
Niềm tin nên được xây dựng trên các giao thức độc lập, chứ không phải là sự kiểm soát tập trung.
Mira áp dụng nguyên lý tính toán phân tán vào xác thực AI. Khi đầu ra được gửi (chẳng hạn như đề xuất chính sách, tóm tắt tài chính hoặc trả lời của chatbot), nó trước tiên sẽ được phân tách thành các tuyên bố sự thật nhỏ hơn. Những tuyên bố này được xây dựng thành các câu hỏi hoặc tuyên bố riêng biệt và được định tuyến đến mạng nút xác thực.
Mỗi nút chạy một mô hình hoặc cấu hình AI khác nhau và đánh giá các yêu cầu được chỉ định một cách độc lập. Nó trả về một trong ba phán quyết: đúng, sai hoặc không kết luận. Mira sau đó phản hồi kết quả. Nếu ngưỡng đa số có thể định cấu hình được đáp ứng, yêu cầu bồi thường sẽ được xác thực. Nếu nó không được thỏa mãn, nó sẽ bị gắn cờ, loại bỏ hoặc một cảnh báo được trả về.
Thiết kế phân tán của Mira có nhiều lợi thế về cấu trúc:
Sự dư thừa và đa dạng: Kiểm tra chéo các tuyên bố bằng các mô hình có kiến trúc, tập dữ liệu và quan điểm khác nhau.
Khả năng chịu lỗi: Một lỗi hoặc sai sót trong một mô hình sẽ khó tái hiện trong nhiều mô hình.
Độ minh bạch: Mỗi kết quả xác thực đều được ghi lại trên chuỗi, cung cấp các dấu vết có thể kiểm toán, bao gồm các mô hình nào đã tham gia và cách chúng đã bỏ phiếu.
Tính tự chủ: Mira hoạt động song song liên tục mà không cần sự can thiệp của con người.
Quy mô: Hệ thống này có thể xử lý khối lượng công việc khổng lồ hàng tỷ token mỗi ngày.
Những hiểu biết cốt lõi của Mira dựa trên số liệu thống kê: trong khi một mô hình duy nhất có thể gây ảo giác hoặc phản ánh sự thiên vị, nhiều hệ thống độc lập có xác suất mắc cùng một sai lầm theo cùng một cách thấp hơn nhiều. Giao thức tận dụng sự đa dạng này để lọc ra nội dung không đáng tin cậy. Nguyên tắc của Mira tương tự như học tập tổng hợp, nhưng nó mở rộng ý tưởng thành một hệ thống phân tán, có thể xác minh và an toàn về mặt kinh tế tiền điện tử có thể được nhúng vào các quy trình AI trong thế giới thực.
Người ủy thác nút và tài nguyên tính toán
Cơ sở hạ tầng xác thực phi tập trung của Mira Network được hỗ trợ bởi cộng đồng các nhà đóng góp toàn cầu, những người cung cấp tài nguyên tính toán cần thiết để vận hành các nút xác thực. Những nhà đóng góp này được gọi là người ủy thác nút, đóng vai trò quan trọng trong việc mở rộng quy mô xử lý và xác thực đầu ra AI.
Người ủy thác nút là gì?
Node principal là một cá nhân hoặc thực thể thuê hoặc cung cấp tài nguyên điện toán GPU cho một nhà điều hành node đã được xác minh, thay vì tự vận hành một node validator. Mô hình ủy quyền này cho phép người tham gia đóng góp vào cơ sở hạ tầng của Mira mà không cần phải quản lý các mô hình AI phức tạp hoặc phần mềm nút. Bằng cách cung cấp quyền truy cập vào tài nguyên GPU, các hiệu trưởng cho phép các nhà khai thác nút thực hiện nhiều xác thực hơn song song, nâng cao dung lượng và độ mạnh mẽ của hệ thống.
Các đại biểu nút được khuyến khích tài chính cho sự tham gia của họ. Đổi lại việc đóng góp sức mạnh tính toán, họ sẽ được thưởng cho số lượng công việc xác thực được thực hiện bởi các nút mà họ hỗ trợ và gắn liền với chất lượng. Điều này tạo ra một cấu trúc khuyến khích phi tập trung, trong đó khả năng mở rộng mạng liên quan trực tiếp đến sự tham gia của cộng đồng hơn là đầu tư cơ sở hạ tầng phi tập trung.
Nhà điều hành nút được cung cấp bởi ai?
Tài nguyên tính toán đến từ các đối tác vận hành nút sáng lập của Mira, họ là những người tham gia chính trong hệ sinh thái cơ sở hạ tầng phi tập trung:
Io.Net: Mạng cơ sở hạ tầng vật lý phi tập trung cho tính toán GPU (DePIN), cung cấp tài nguyên GPU có thể mở rộng và tiết kiệm chi phí.
Aethir: Một nhà cung cấp GPU dưới dạng dịch vụ tập trung vào trí tuệ nhân tạo và trò chơi cho doanh nghiệp, cung cấp cơ sở hạ tầng điện toán đám mây phân tán.
Hyperbolic: Một nền tảng đám mây AI mở, cung cấp tài nguyên GPU tiết kiệm chi phí và đồng bộ cho việc phát triển AI.
Exabits: Người tiên phong trong điện toán đám mây phi tập trung AI, giải quyết vấn đề thiếu hụt GPU và tối ưu hóa phân bổ tài nguyên.
Spheron: Một nền tảng phi tập trung đơn giản hóa việc triển khai ứng dụng web, cung cấp các giải pháp minh bạch và có thể xác minh.
Mỗi đối tác chạy các nút xác thực trên mạng Mira, tận dụng sức mạnh tính toán được ủy quyền để xác thực đầu ra AI trên quy mô lớn. Những đóng góp của họ đã cho phép Mira duy trì thông lượng xác minh cao, xử lý hàng tỷ mã thông báo mỗi ngày trong khi vẫn duy trì tốc độ, khả năng chịu lỗi và phi tập trung.
Lưu ý: Mỗi người tham gia chỉ có thể mua một giấy phép ủy quyền nút. Người dùng phải chứng minh sự tham gia thực sự của mình thông qua quy trình KYC của "Xác minh video hỗ trợ".
Mira trong lĩnh vực AI sử dụng quy mô lớn và hỗ trợ dữ liệu
Theo dữ liệu do nhóm cung cấp, mạng Mira xác minh hơn 3 tỷ token mỗi ngày. Trong mô hình ngôn ngữ, mã thông báo đề cập đến một đơn vị văn bản nhỏ, thường là một đoạn từ, một từ ngắn hoặc dấu câu. Ví dụ: cụm từ "đầu ra xác thực Mira" sẽ được chia thành nhiều mã thông báo. Lượng báo cáo này cho thấy Mira đang làm việc trên rất nhiều nội dung trong các tích hợp khác nhau, bao gồm trợ lý trò chuyện, nền tảng giáo dục, sản phẩm fintech và các công cụ nội bộ sử dụng API. Ở cấp độ nội dung, thông lượng này tương đương với việc đánh giá hàng triệu đoạn văn mỗi ngày.
Hệ sinh thái của Mira, bao gồm các chương trình đối tác, được cho là hỗ trợ hơn 4,5 triệu người dùng duy nhất, với khoảng 500.000 người dùng hoạt động hàng ngày. Những người dùng này bao gồm người dùng trực tiếp của Klok, cũng như người dùng cuối của các ứng dụng của bên thứ ba tích hợp lớp xác minh của Mira trong nền. Mặc dù hầu hết người dùng có thể không tương tác trực tiếp với Mira, nhưng hệ thống hoạt động như một lớp xác minh im lặng, giúp đảm bảo rằng nội dung do AI tạo đáp ứng một ngưỡng chính xác nhất định trước khi đến người dùng cuối.
Theo một bài nghiên cứu của nhóm của Mira, các mô hình ngôn ngữ lớn trước đây chính xác thực tế trong các lĩnh vực như giáo dục và tài chính có tỷ lệ chính xác thực tế khoảng 70%, nhưng bây giờ chúng đã được xác nhận với độ chính xác 96% sau khi được sàng lọc bởi quá trình đồng thuận của Mira. Điều quan trọng cần lưu ý là những cải tiến này có thể đạt được mà không cần đào tạo lại mô hình. Thay vào đó, những cải tiến này bắt nguồn từ logic lọc của Mira. Hệ thống lọc ra nội dung không đáng tin cậy bằng cách yêu cầu nhiều mô hình chạy độc lập đồng ý. Hiệu ứng này đặc biệt quan trọng đối với ảo giác, là thông tin sai lệch do AI tạo ra, không có căn cứ, đã được báo cáo là giảm 90% trong các ứng dụng tích hợp. Bởi vì ảo giác thường cụ thể và không nhất quán, chúng không có khả năng vượt qua cơ chế đồng thuận của Mira.
Ngoài việc cải thiện độ tin cậy thực tế, Giao thức Mira được thiết kế để hỗ trợ sự tham gia mở. Xác thực không giới hạn trong một nhóm đánh giá tập trung. Để điều chỉnh các ưu đãi, Mira đã áp dụng một hệ thống ưu đãi và trừng phạt tài chính. Những người xác thực liên tục tuân theo sự đồng thuận sẽ được trả tiền dựa trên hiệu suất, trong khi những người xác thực thực hiện các phán đoán bị thao túng hoặc không chính xác sẽ phải đối mặt với hình phạt. Cấu trúc này khuyến khích hành vi trung thực và thúc đẩy sự cạnh tranh giữa các cấu hình mô hình khác nhau. Bằng cách loại bỏ sự phụ thuộc vào quản trị tập trung và nhúng các ưu đãi vào lớp giao thức, Mira cho phép xác minh phi tập trung có thể mở rộng trong môi trường lưu lượng truy cập cao trong khi vẫn đảm bảo rằng các tiêu chuẩn đầu ra không bị xâm phạm.
Kết luận
Mira cung cấp một giải pháp cấu trúc cho một trong những thách thức cấp bách nhất trong AI: khả năng dựa vào việc xác minh kết quả đầu ra trên quy mô lớn. Thay vì dựa vào mức độ tin cậy của một mô hình đơn lẻ hoặc sự giám sát của con người sau khi thực tế, Mira giới thiệu một lớp xác minh phi tập trung chạy song song với việc tạo AI. Hệ thống lọc ra nội dung không được hỗ trợ bằng cách chia nhỏ đầu ra thành các tuyên bố thực tế, phân phối chúng cho các trình xác thực độc lập và áp dụng cơ chế đồng thuận. Nó cải thiện độ tin cậy mà không cần đào tạo lại mô hình hoặc kiểm soát tập trung.
Dữ liệu cho thấy tỷ lệ áp dụng và độ chính xác thực tế đã được cải thiện đáng kể, đồng thời hiện tượng ảo giác AI đã giảm đáng kể. Mira hiện được tích hợp vào nhiều lĩnh vực khác nhau, bao gồm giao diện trò chuyện, công cụ giáo dục và nền tảng tài chính, đồng thời đang nổi lên như một lớp cơ sở hạ tầng cho các ứng dụng quan trọng về độ chính xác. Khi các giao thức trưởng thành và kiểm toán của bên thứ ba trở nên phổ biến hơn, tính minh bạch, khả năng lặp lại và sự tham gia cởi mở của Mira sẽ cung cấp một khuôn khổ tin cậy có thể mở rộng cho các hệ thống AI hoạt động trong môi trường khối lượng lớn hoặc được quản lý.