تسمح عملية التحقق الموزع لـ Mira بفلترة مخرجات الذكاء الاصطناعي من خلال شبكة نماذج مستقلة لزيادة موثوقية الحقائق، مما يقلل من الهلوسة دون الحاجة إلى إعادة التدريب أو الإشراف المركزي.
يتطلب آلية الإجماع أن تتوصل نماذج مستقلة متعددة إلى توافق قبل الموافقة على أي مطالبة، مما يحل محل ثقة النموذج الفردي.
ميرا تتحقق من 3 مليارات رمز يوميًا في تطبيقات الدمج، وتدعم أكثر من 4.5 مليون مستخدم.
عندما يتم تصفية المخرجات في بيئة الإنتاج من خلال عملية توافق ميرا، ترتفع دقة الحقائق من 70% إلى 96%.
تعمل ميرا كالبنية التحتية بدلاً من كونها منتجًا للمستخدم النهائي من خلال دمج التحقق مباشرة في الذكاء الاصطناعي للتطبيقات مثل روبوتات الدردشة وأدوات التكنولوجيا المالية ومنصات التعليم.
مقدمة ميرا
Mira هو بروتوكول يهدف إلى التحقق من مخرجات أنظمة الذكاء الاصطناعي. وظيفته الأساسية تشبه طبقة تدقيق / ثقة لامركزية. كلما أنتج نموذج الذكاء الاصطناعي مخرجات (سواء كانت إجابات أو ملخصات)، يقوم Mira بتقييم ما إذا كانت البيانات "الحقائق" في هذه المخرجات موثوقة قبل وصولها إلى المستخدم النهائي.
يعمل النظام عن طريق تقسيم كل مخرجات الذكاء الاصطناعي إلى مطالبات أصغر. يتم تقييم هذه الادعاءات بشكل مستقل من قبل العديد من المدققين في شبكة Mira. تقوم كل عقدة بتشغيل نموذج الذكاء الاصطناعي الخاص بها ، غالبا ببنية أو مجموعة بيانات أو منظور مختلف. يصوت النموذج على كل ادعاء ، ويقرر ما إذا كان صحيحا أم سياقيا. يتم تحديد النتيجة النهائية من خلال آلية الإجماع: إذا وافقت الغالبية العظمى من النماذج على صحة المطالبة ، فستوافق Mira على المطالبة. إذا كان هناك خلاف، الإبلاغ عن المطالبة أو رفضها.
لا توجد سلطة مركزية أو نموذج خفي لاتخاذ القرار النهائي. بدلا من ذلك ، يتم تحديد الحقيقة بشكل جماعي ، وتنبثق من نموذج موزع ومتنوع. العملية برمتها شفافة وقابلة للتدقيق. يأتي كل إخراج تم التحقق منه مع شهادة تشفير: سجل يمكن تتبعه يوضح المطالبات التي تم تقييمها والنماذج المشاركة وكيف تم التصويت عليها. يمكن للتطبيقات والأنظمة الأساسية وحتى المنظمين استخدام هذه الشهادة لتأكيد أن الإخراج قد اجتاز طبقة التحقق من Mira.
يستمد Mira إلهامه من تقنيات التكامل بين الذكاء الاصطناعي وآلية توافق الكتل في سلسلة الكتل. إنه لا يزيد من الدقة من خلال تجميع التنبؤات، بل من خلال تجميع التقييمات لتحديد الموثوقية. يقوم بعملية تصفية، ويرفض تلك المخرجات التي لم تجتز اختبار الحقيقة الموزعة.
لماذا تحتاج الذكاء الاصطناعي إلى نظام التحقق مثل ميرا؟
نماذج الذكاء الاصطناعي ليست حتمية ، مما يعني أنها لا ترجع دائما نفس الإخراج لنفس المطالبات ، وليس هناك ما يضمن صحة النتائج التي تولدها. هذا ليس عيبا. إنه ينبع مباشرة من الطريقة التي يتم بها تدريب النماذج اللغوية الكبيرة: الاحتمالية ، بدلا من اليقين ، للتنبؤ بالعلامة التالية.
تمنح هذه الاحتمالية أنظمة الذكاء الاصطناعي مرونة. إنها تمنحهم الإبداع، والقدرة على إدراك السياق، والقدرات الشبيهة بالبشر. ومع ذلك، فهذا يعني أيضًا أنهم يمكنهم بشكل طبيعي خلق الأشياء.
لقد رأينا العواقب. قام روبوت الدردشة الخاص بشركة الطيران الكندية بابتكار سياسة أسعار تذاكر الحداد التي لا وجود لها، وأرسلها إلى أحد المستخدمين. وثق هذا المستخدم في روبوت الدردشة، وحجز تذكرة طيران بناءً على معلومات كاذبة، مما أدى إلى تكبد خسائر مالية. بعد حكم المحكمة، تم اعتبار شركة الطيران مسؤولة عن أوهام روبوت الدردشة. باختصار، قدمت الذكاء الاصطناعي مطالبات بثقة، ودفع الشركة ثمن ذلك.
هذا مجرد مثال واحد. الهلوسة منتشرة على نطاق واسع. تظهر في ملخصات بحثية تستشهد بشكل غير دقيق ، والتطبيقات التعليمية التي تقدم حقائق تاريخية خاطئة ، والملخصات الإخبارية المكتوبة الذكاء الاصطناعي التي تحتوي على بيانات كاذبة أو مضللة. وذلك لأن هذه المخرجات عادة ما تكون سلسة وموثوقة ، ويميل المستخدمون إلى تصديقها على أنها صحيحة.
بخلاف الهلوسة، هناك المزيد من المشكلات النظامية:
التحيز: يمكن لنماذج الذكاء الاصطناعي أن تعكس وتضخم التحيزات في بيانات التدريب الخاصة بهم. هذا التحيز ليس واضحا دائما. قد يكون دقيقا من خلال أشياء مثل الصياغة أو النغمة أو الأولوية. على سبيل المثال ، قد يكون مساعدو التوظيف منحازين بشكل منهجي تجاه ديموغرافية معينة. قد تولد الأدوات المالية تقييمات للمخاطر تستخدم لغة مشوهة أو وصمة.
عدم اليقين: قد يؤدي طرح نفس السؤال على نفس النموذج مرتين إلى الحصول على إجابتين مختلفتين. قد يؤدي تغيير طفيف في الموجه إلى تغييرات غير متوقعة في النتائج. تجعل هذه التناقضات مخرجات الذكاء الاصطناعي صعبة التدقيق أو التكرار أو الاعتماد عليها على المدى الطويل.
جوهر الصندوق الأسود: عندما تقدم أنظمة الذكاء الاصطناعي إجابات، فإنها عادةً لا تقدم أي تفسير أو استدلال يمكن تتبعه. ليس لديها دلائل واضحة لإظهار استنتاجاتها. لذلك، عندما يخطئ النموذج، يصبح من الصعب تشخيص السبب أو إجراء الإصلاح.
التحكم المركزي: في الوقت الحالي، يتم التحكم في معظم أنظمة الذكاء الاصطناعي من قبل عدد قليل من الشركات الكبرى من خلال نماذج مغلقة. إذا كان هناك عيوب في النموذج أو تحيزات أو تم فرض رقابة عليه، فإن خيارات المستخدم تكون محدودة. هناك نقص في الرأي الثاني، أو عملية استئناف شفافة، أو تفسيرات متعارضة. هذا يؤدي إلى هيكل تحكم مركزي يصعب تحديه أو التحقق منه.
الطرق الحالية لتحسين موثوقية مخرجات الذكاء الاصطناعي والقيود الموجودة عليها
هناك طرق متعددة لتحسين موثوقية مخرجات الذكاء الاصطناعي. كل طريقة تقدم قيمة جزئية، لكنها جميعها تعاني من قيود ولا تستطيع الوصول إلى مستوى الثقة المطلوب للتطبيقات الحيوية.
(HITL) التعاون بين الإنسان والروبوت: يتضمن هذا النهج مراجعة البشرية والموافقة على مخرجات الذكاء الاصطناعي. يعمل بشكل فعال في حالات الاستخدام ذات الحجم المنخفض. ومع ذلك ، يمكن أن يصبح بسرعة عنق الزجاجة للأنظمة التي تولد ملايين الردود يوميا ، مثل محركات البحث أو روبوتات الدعم أو تطبيقات التدريب. المراجعات اليدوية بطيئة ومكلفة وعرضة للتحيز والتناقضات. على سبيل المثال ، يستخدم Grok من xAI معلمي الذكاء الاصطناعي لتقييم الإجابات وتحسينها يدويا. إنه حل مؤقت ، وترى ميرا أنه حل منخفض الرافعة المالية: إنه لا يتوسع ، ولا يحل المشكلات الأساسية الموجودة في منطق الذكاء الاصطناعي التي لا يمكن التحقق منها.
عوامل تصفية القواعد: تستخدم هذه الأنظمة أساليب فحص ثابتة، مثل وضع علامة على المصطلحات المعطلة أو مقارنة المخرجات برسم بياني معرفي منظم. على الرغم من أنها مناسبة للسياقات الضيقة ، إلا أنها مناسبة فقط للمواقف التي تلبي توقعات المطور. لا يمكنهم التعامل مع الاستفسارات الجديدة أو المفتوحة ، وهم يعانون من أخطاء طفيفة أو ادعاءات غامضة.
التحقق الذاتي: تحتوي بعض النماذج على آليات لتقييم ثقتها بنفسها أو استخدام نماذج مساعدة لتقييم إجاباتها. ومع ذلك، من المعروف أن أنظمة الذكاء الاصطناعي تعاني من ضعف في التعرف على أخطائها. إن الثقة المفرطة في الإجابات الخاطئة هي مشكلة قائمة منذ فترة طويلة، وغالبًا ما لا تستطيع التغذية الراجعة الداخلية تصحيحها.
نماذج التكامل: في بعض الأنظمة، يتم فحص نماذج متعددة بشكل متبادل. على الرغم من أن هذا يمكن أن يحسن معايير الجودة، إلا أن نماذج التكامل التقليدية غالبًا ما تكون مركزية ومتجانسة. إذا كانت جميع النماذج تشترك في بيانات تدريب مماثلة أو تأتي من نفس المورد، فقد تشترك في نفس نقاط العمى. ستتأثر تنوع البنى ووجهات النظر.
تلتزم ميرا بحل مشكلة الإدراك. هدفها هو خلق بيئة تلتقط الأوهام وتزيلها ، وتقلل من التحيز من خلال نماذج متنوعة ، وتجعل المخرجات قابلة للتحقق بشكل متكرر ، ولا يمكن لأي كيان واحد التحكم في عملية التحقق من الأصالة. يمكن لدراسة كيفية عمل نظام Mira أن تحل كل مشكلة من هذه المشكلات بطريقة جديدة.
كيف يمكن لميرا تحسين موثوقية الذكاء الاصطناعي
تختلف الأساليب الحالية لموثوقية الذكاء الاصطناعي ، والتي تتسم بالمركزية وتعتمد على مصدر واحد للحقيقة. قدمت ميرا نموذجا مختلفا. إنه يتيح التحقق اللامركزي ، ويبني إجماعا على مستوى البروتوكول ، ويستخدم الحوافز الاقتصادية لتعزيز سلوك الموثوقية. Mira ليست منتجا قائما بذاته أو أداة رقابة من أعلى إلى أسفل ، ولكنها طبقة بنية تحتية معيارية يمكن دمجها في أي نظام الذكاء الاصطناعي.
تم تصميم هذه الاتفاقية استنادًا إلى عدة مبادئ أساسية:
يجب ألا تعتمد دقة الحقائق على مخرجات نموذج ما.
يجب أن يكون التحقق ذاتيًا، ولا يمكن الاعتماد على المراقبة البشرية المستمرة.
يجب أن يُبنى الثقة على بروتوكولات مستقلة وليس على سيطرة مركزية.
Mira تطبق مبادئ الحوسبة الموزعة على التحقق من الذكاء الاصطناعي. عند تقديم المخرجات (مثل اقتراحات السياسة أو الملخصات المالية أو ردود روبوتات المحادثة) ، يتم أولاً تفكيكها إلى بيانات حقائق أصغر. يتم بناء هذه البيانات كمسائل أو بيانات منفصلة وتوجيهها إلى شبكة عقد التحقق.
تقوم كل عقدة بتشغيل نموذج أو تكوين الذكاء الاصطناعي المختلف وتقييم المطالبات المعينة لها بشكل مستقل. يعيد أحد الأحكام الثلاثة: صحيح أو خاطئ أو غير حاسم. ثم تقوم ميرا بتغذية النتائج. إذا تم استيفاء حد الأغلبية العظمى القابل للتكوين، يتم التحقق من صحة المطالبة. إذا لم يتم استيفائه، يتم وضع علامة عليه أو تجاهله أو إرجاع تحذير.
تصميم ميرا الموزع يتمتع بعدة مزايا هيكلية:
الازدواجية والتنوع: تحقق من التصريحات من خلال نماذج ذات هياكل ومجموعات بيانات ووجهات نظر مختلفة.
تحمل الأخطاء: من غير المحتمل أن يتم تكرار الأعطال أو الأخطاء في نموذج واحد عبر العديد من النماذج.
الشفافية: كل نتيجة تحقق مسجلة على السلسلة، مما يوفر أدلة قابلة للتدقيق، بما في ذلك النماذج التي شاركت وكيف صوتت.
الاستقلالية: تعمل ميرا بشكل متوازٍ ومستمر دون الحاجة إلى تدخل بشري.
النطاق: يمكن لهذا النظام معالجة أحمال عمل ضخمة من عشرات المليارات من الرموز يوميًا.
تستند رؤى ميرا الأساسية إلى الإحصائيات: في حين أن نموذجا واحدا قد يهلوس أو يعكس التحيز ، فإن الأنظمة المستقلة المتعددة لديها احتمال أقل بكثير لارتكاب نفس الخطأ بنفس الطريقة. يستفيد البروتوكول من هذا التنوع لتصفية المحتوى غير الموثوق به. يشبه مبدأ ميرا التعلم الجماعي ، لكنه يوسع الفكرة لتكون نظاما موزعا ويمكن التحقق منه وآمن اقتصاديا مشفرا يمكن تضمينه في عمليات الذكاء الاصطناعي في العالم الحقيقي.
موكل العقد والموارد الحاسوبية
يتم تشغيل البنية التحتية للتحقق اللامركزي لشبكة Mira Network من قبل مجتمع عالمي من المساهمين الذين يوفرون موارد الحوسبة اللازمة لتشغيل عقد المدقق. يلعب هؤلاء المساهمون ، المعروفون باسم مفوضي العقدة ، دورا رئيسيا في توسيع نطاق الإنتاج لمعالجة البروتوكول والتحقق من صحة مخرجات الذكاء الاصطناعي.
ما هو موكل العقد؟
المفوضون هم الأفراد أو الكيانات الذين يؤجرون أو يقدمون موارد الحوسبة GPU لمشغلي العقد المعتمدين بدلاً من تشغيل عقدة تحقق بأنفسهم. تسمح هذه النموذج من التفويض للمشاركين بالمساهمة في بنية Mira التحتية دون الحاجة إلى إدارة نماذج الذكاء الاصطناعي المعقدة أو برامج العقد. من خلال توفير الوصول إلى موارد GPU، يمكّن المفوضون مشغلي العقد من تنفيذ المزيد من التحقق بشكل متوازٍ، مما يعزز سعة النظام وموثوقيته.
يحصل موكل العقد على حوافز اقتصادية نتيجة لمشاركته. كتعويض عن تقديم قوة الحوسبة، سيحصلون على مكافآت مرتبطة بكمية العمل الذي ينفذه العقد المدعوم وجودته. وهذا يخلق هيكل حوافز لامركزي، حيث ترتبط قابلية توسيع الشبكة ارتباطًا مباشرًا بمشاركة المجتمع، وليس باستثمار البنية التحتية المركزية.
من يقدم مشغلي العقد؟
تأتي موارد الحوسبة من شركاء مشغلين العقد المؤسسين لميرا، وهم المشاركون الرئيسيون في نظام البنية التحتية اللامركزية:
Io.Net: شبكة بنية تحتية مادية لامركزية للحوسبة بواسطة GPU (DePIN)، تقدم موارد GPU قابلة للتوسع وفعالة من حيث التكلفة.
Aethir: مزود خدمة GPU على مستوى المؤسسات يركز على الذكاء الاصطناعي والألعاب، ويوفر بنية تحتية للحوسبة السحابية الموزعة.
إكسا بتس: رائد الحوسبة السحابية اللامركزية بالذكاء الاصطناعي، يحل مشكلة نقص وحدات معالجة الرسوميات ويعمل على تحسين تخصيص الموارد.
Spheron: منصة لامركزية تبسط نشر تطبيقات الويب، تقدم حلولاً شفافة وقابلة للتحقق.
كل شريك يعمل على تشغيل عقد التحقق على شبكة ميرا، مستفيدًا من القدرة الحاسوبية المخصصة للتحقق من مخرجات الذكاء الاصطناعي على نطاق واسع. تساهم مساهماتهم في تمكين ميرا من الحفاظ على سعة تحقق عالية، حيث تعالج عشرات المليارات من الرموز يوميًا، مع الحفاظ على السرعة، وقدرة التحمل، واللامركزية.
ملاحظة: يُمكن لكل مشارك شراء ترخيص واحد فقط لمندوب العقد. يجب على المستخدمين إثبات مشاركتهم الحقيقية من خلال عملية KYC الخاصة بـ "التحقق من الفيديو المساعد".
ميرا في الاستخدام الواسع للذكاء الاصطناعي والدعم البياني
وفقا للبيانات التي قدمها الفريق ، تتحقق شبكة Mira من أكثر من 3 مليارات رمز كل يوم. في نموذج اللغة، يشير الرمز المميز إلى وحدة صغيرة من النص، وعادة ما تكون مقتطفا من الكلمات أو كلمة قصيرة أو علامة ترقيم. على سبيل المثال ، سيتم تقسيم عبارة "إخراج التحقق من صحة Mira" إلى رموز متعددة. يشير هذا الحجم من التقارير إلى أن Mira تعمل على الكثير من المحتوى في عمليات تكامل مختلفة ، بما في ذلك مساعدي الدردشة والمنصات التعليمية ومنتجات التكنولوجيا المالية والأدوات الداخلية التي تستخدم واجهات برمجة التطبيقات. على مستوى المحتوى ، يعادل هذا الإنتاجية تقييم ملايين الفقرات في اليوم.
وفقا للتقارير، فإن نظام Mira البيئي (بما في ذلك مشاريع الشركاء) يدعم أكثر من 4.5 مليون مستخدم مستقل، حيث يبلغ عدد المستخدمين النشطين يوميا حوالي 500,000. هؤلاء المستخدمون يشملون المستخدمين المباشرين لـ Klok، بالإضافة إلى المستخدمين النهائيين لتطبيقات الطرف الثالث التي تتكامل مع طبقة التحقق من Mira في الخلفية. على الرغم من أن معظم المستخدمين قد لا يتفاعلون مباشرة مع Mira، فإن هذا النظام يعمل كطبقة تحقق صامتة، ويساعد في ضمان أن المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي يصل إلى حد معين من الدقة قبل وصوله إلى المستخدم النهائي.
وفقا لورقة بحثية أجراها فريق ميرا ، فإن النماذج اللغوية الكبيرة التي كانت دقيقة من الناحية الواقعية في السابق في مجالات مثل التعليم والتمويل كان لها معدل دقة واقعي يبلغ حوالي 70٪ ، ولكن الآن تم التحقق من صحتها بدقة 96٪ بعد فحصها من خلال عملية إجماع ميرا. من المهم ملاحظة أنه يمكن تحقيق هذه التحسينات دون إعادة تدريب النموذج نفسه. بدلا من ذلك ، تنبع هذه التحسينات من منطق تصفية ميرا. يقوم النظام بتصفية المحتوى غير الموثوق به من خلال طلب موافقة نماذج متعددة تعمل بشكل مستقل. هذا التأثير مهم بشكل خاص للهلوسة ، وهي معلومات خاطئة ناتجة عن الذكاء الاصطناعي ، والتي تم الإبلاغ عن تقليلها بنسبة 90٪ في التطبيقات المتكاملة. نظرا لأن الهلوسة غالبا ما تكون محددة وغير متسقة ، فمن غير المرجح أن تجتاز آلية إجماع ميرا.
بالإضافة إلى تحسين موثوقية الوقائع، تم تصميم بروتوكول ميرا لدعم المشاركة المفتوحة. لا يقتصر التحقق من الصحة على فريق المراجعة المركزي. لمواءمة الحوافز ، تبنت ميرا نظاما للحوافز والعقوبات المالية. سيتم الدفع للمدققين الذين يتبعون الإجماع باستمرار على أساس الأداء ، بينما سيواجه المدققون الذين يرتكبون أحكاما تم التلاعب بها أو غير الدقيقة عقوبات. يشجع هذا الهيكل السلوك الصادق ويعزز المنافسة بين تكوينات النماذج المختلفة. من خلال إزالة الاعتماد على الحوكمة المركزية وتضمين الحوافز في طبقة البروتوكول ، تتيح Mira التحقق اللامركزي القابل للتطوير في البيئات عالية الحركة مع ضمان عدم المساس بمعايير المخرجات.
استنتاج
توفر ميرا حلا هيكليا لأحد أكثر التحديات إلحاحا في الذكاء الاصطناعي: القدرة على الاعتماد على التحقق من نتائج المخرجات على نطاق واسع. بدلا من الاعتماد على مستوى الثقة لنموذج واحد أو إشراف بشري بعد الحقيقة ، تقدم Mira طبقة تحقق لامركزية تعمل بالتوازي مع توليد الذكاء الاصطناعي. يقوم النظام بتصفية المحتوى غير المدعوم عن طريق تقسيم المخرجات إلى بيانات حقائق ، وتوزيعها على مدققين مستقلين ، وتطبيق آلية إجماع. يحسن الموثوقية دون الحاجة إلى إعادة تدريب النموذج أو مركزية التحكم.
تظهر البيانات أن معدل التبني والدقة الواقعية قد تحسنت بشكل كبير ، وتم تقليل ظاهرة هلوسة الذكاء الاصطناعي بشكل كبير. تم دمج Mira الآن في مجموعة متنوعة من المجالات ، بما في ذلك واجهات الدردشة والأدوات التعليمية والمنصات المالية ، وهي تبرز كطبقة بنية تحتية للتطبيقات الدقيقة. مع نضوج البروتوكولات وأصبحت عمليات تدقيق الجهات الخارجية أكثر انتشارا ، ستوفر شفافية Mira وقابليتها للتكرار ومشاركتها المفتوحة إطار ثقة قابلا للتطوير لأنظمة الذكاء الاصطناعي التي تعمل في بيئات كبيرة الحجم أو منظمة.
شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
كيف يمكن لميرا تعزيز موثوقية الذكاء الاصطناعي من خلال العقدة الموزعة
كتبه: ميساري
ملخص
تسمح عملية التحقق الموزع لـ Mira بفلترة مخرجات الذكاء الاصطناعي من خلال شبكة نماذج مستقلة لزيادة موثوقية الحقائق، مما يقلل من الهلوسة دون الحاجة إلى إعادة التدريب أو الإشراف المركزي.
يتطلب آلية الإجماع أن تتوصل نماذج مستقلة متعددة إلى توافق قبل الموافقة على أي مطالبة، مما يحل محل ثقة النموذج الفردي.
ميرا تتحقق من 3 مليارات رمز يوميًا في تطبيقات الدمج، وتدعم أكثر من 4.5 مليون مستخدم.
عندما يتم تصفية المخرجات في بيئة الإنتاج من خلال عملية توافق ميرا، ترتفع دقة الحقائق من 70% إلى 96%.
تعمل ميرا كالبنية التحتية بدلاً من كونها منتجًا للمستخدم النهائي من خلال دمج التحقق مباشرة في الذكاء الاصطناعي للتطبيقات مثل روبوتات الدردشة وأدوات التكنولوجيا المالية ومنصات التعليم.
مقدمة ميرا
Mira هو بروتوكول يهدف إلى التحقق من مخرجات أنظمة الذكاء الاصطناعي. وظيفته الأساسية تشبه طبقة تدقيق / ثقة لامركزية. كلما أنتج نموذج الذكاء الاصطناعي مخرجات (سواء كانت إجابات أو ملخصات)، يقوم Mira بتقييم ما إذا كانت البيانات "الحقائق" في هذه المخرجات موثوقة قبل وصولها إلى المستخدم النهائي.
يعمل النظام عن طريق تقسيم كل مخرجات الذكاء الاصطناعي إلى مطالبات أصغر. يتم تقييم هذه الادعاءات بشكل مستقل من قبل العديد من المدققين في شبكة Mira. تقوم كل عقدة بتشغيل نموذج الذكاء الاصطناعي الخاص بها ، غالبا ببنية أو مجموعة بيانات أو منظور مختلف. يصوت النموذج على كل ادعاء ، ويقرر ما إذا كان صحيحا أم سياقيا. يتم تحديد النتيجة النهائية من خلال آلية الإجماع: إذا وافقت الغالبية العظمى من النماذج على صحة المطالبة ، فستوافق Mira على المطالبة. إذا كان هناك خلاف، الإبلاغ عن المطالبة أو رفضها.
لا توجد سلطة مركزية أو نموذج خفي لاتخاذ القرار النهائي. بدلا من ذلك ، يتم تحديد الحقيقة بشكل جماعي ، وتنبثق من نموذج موزع ومتنوع. العملية برمتها شفافة وقابلة للتدقيق. يأتي كل إخراج تم التحقق منه مع شهادة تشفير: سجل يمكن تتبعه يوضح المطالبات التي تم تقييمها والنماذج المشاركة وكيف تم التصويت عليها. يمكن للتطبيقات والأنظمة الأساسية وحتى المنظمين استخدام هذه الشهادة لتأكيد أن الإخراج قد اجتاز طبقة التحقق من Mira.
يستمد Mira إلهامه من تقنيات التكامل بين الذكاء الاصطناعي وآلية توافق الكتل في سلسلة الكتل. إنه لا يزيد من الدقة من خلال تجميع التنبؤات، بل من خلال تجميع التقييمات لتحديد الموثوقية. يقوم بعملية تصفية، ويرفض تلك المخرجات التي لم تجتز اختبار الحقيقة الموزعة.
لماذا تحتاج الذكاء الاصطناعي إلى نظام التحقق مثل ميرا؟
نماذج الذكاء الاصطناعي ليست حتمية ، مما يعني أنها لا ترجع دائما نفس الإخراج لنفس المطالبات ، وليس هناك ما يضمن صحة النتائج التي تولدها. هذا ليس عيبا. إنه ينبع مباشرة من الطريقة التي يتم بها تدريب النماذج اللغوية الكبيرة: الاحتمالية ، بدلا من اليقين ، للتنبؤ بالعلامة التالية.
تمنح هذه الاحتمالية أنظمة الذكاء الاصطناعي مرونة. إنها تمنحهم الإبداع، والقدرة على إدراك السياق، والقدرات الشبيهة بالبشر. ومع ذلك، فهذا يعني أيضًا أنهم يمكنهم بشكل طبيعي خلق الأشياء.
لقد رأينا العواقب. قام روبوت الدردشة الخاص بشركة الطيران الكندية بابتكار سياسة أسعار تذاكر الحداد التي لا وجود لها، وأرسلها إلى أحد المستخدمين. وثق هذا المستخدم في روبوت الدردشة، وحجز تذكرة طيران بناءً على معلومات كاذبة، مما أدى إلى تكبد خسائر مالية. بعد حكم المحكمة، تم اعتبار شركة الطيران مسؤولة عن أوهام روبوت الدردشة. باختصار، قدمت الذكاء الاصطناعي مطالبات بثقة، ودفع الشركة ثمن ذلك.
هذا مجرد مثال واحد. الهلوسة منتشرة على نطاق واسع. تظهر في ملخصات بحثية تستشهد بشكل غير دقيق ، والتطبيقات التعليمية التي تقدم حقائق تاريخية خاطئة ، والملخصات الإخبارية المكتوبة الذكاء الاصطناعي التي تحتوي على بيانات كاذبة أو مضللة. وذلك لأن هذه المخرجات عادة ما تكون سلسة وموثوقة ، ويميل المستخدمون إلى تصديقها على أنها صحيحة.
بخلاف الهلوسة، هناك المزيد من المشكلات النظامية:
التحيز: يمكن لنماذج الذكاء الاصطناعي أن تعكس وتضخم التحيزات في بيانات التدريب الخاصة بهم. هذا التحيز ليس واضحا دائما. قد يكون دقيقا من خلال أشياء مثل الصياغة أو النغمة أو الأولوية. على سبيل المثال ، قد يكون مساعدو التوظيف منحازين بشكل منهجي تجاه ديموغرافية معينة. قد تولد الأدوات المالية تقييمات للمخاطر تستخدم لغة مشوهة أو وصمة.
عدم اليقين: قد يؤدي طرح نفس السؤال على نفس النموذج مرتين إلى الحصول على إجابتين مختلفتين. قد يؤدي تغيير طفيف في الموجه إلى تغييرات غير متوقعة في النتائج. تجعل هذه التناقضات مخرجات الذكاء الاصطناعي صعبة التدقيق أو التكرار أو الاعتماد عليها على المدى الطويل.
جوهر الصندوق الأسود: عندما تقدم أنظمة الذكاء الاصطناعي إجابات، فإنها عادةً لا تقدم أي تفسير أو استدلال يمكن تتبعه. ليس لديها دلائل واضحة لإظهار استنتاجاتها. لذلك، عندما يخطئ النموذج، يصبح من الصعب تشخيص السبب أو إجراء الإصلاح.
التحكم المركزي: في الوقت الحالي، يتم التحكم في معظم أنظمة الذكاء الاصطناعي من قبل عدد قليل من الشركات الكبرى من خلال نماذج مغلقة. إذا كان هناك عيوب في النموذج أو تحيزات أو تم فرض رقابة عليه، فإن خيارات المستخدم تكون محدودة. هناك نقص في الرأي الثاني، أو عملية استئناف شفافة، أو تفسيرات متعارضة. هذا يؤدي إلى هيكل تحكم مركزي يصعب تحديه أو التحقق منه.
الطرق الحالية لتحسين موثوقية مخرجات الذكاء الاصطناعي والقيود الموجودة عليها
هناك طرق متعددة لتحسين موثوقية مخرجات الذكاء الاصطناعي. كل طريقة تقدم قيمة جزئية، لكنها جميعها تعاني من قيود ولا تستطيع الوصول إلى مستوى الثقة المطلوب للتطبيقات الحيوية.
(HITL) التعاون بين الإنسان والروبوت: يتضمن هذا النهج مراجعة البشرية والموافقة على مخرجات الذكاء الاصطناعي. يعمل بشكل فعال في حالات الاستخدام ذات الحجم المنخفض. ومع ذلك ، يمكن أن يصبح بسرعة عنق الزجاجة للأنظمة التي تولد ملايين الردود يوميا ، مثل محركات البحث أو روبوتات الدعم أو تطبيقات التدريب. المراجعات اليدوية بطيئة ومكلفة وعرضة للتحيز والتناقضات. على سبيل المثال ، يستخدم Grok من xAI معلمي الذكاء الاصطناعي لتقييم الإجابات وتحسينها يدويا. إنه حل مؤقت ، وترى ميرا أنه حل منخفض الرافعة المالية: إنه لا يتوسع ، ولا يحل المشكلات الأساسية الموجودة في منطق الذكاء الاصطناعي التي لا يمكن التحقق منها.
عوامل تصفية القواعد: تستخدم هذه الأنظمة أساليب فحص ثابتة، مثل وضع علامة على المصطلحات المعطلة أو مقارنة المخرجات برسم بياني معرفي منظم. على الرغم من أنها مناسبة للسياقات الضيقة ، إلا أنها مناسبة فقط للمواقف التي تلبي توقعات المطور. لا يمكنهم التعامل مع الاستفسارات الجديدة أو المفتوحة ، وهم يعانون من أخطاء طفيفة أو ادعاءات غامضة.
التحقق الذاتي: تحتوي بعض النماذج على آليات لتقييم ثقتها بنفسها أو استخدام نماذج مساعدة لتقييم إجاباتها. ومع ذلك، من المعروف أن أنظمة الذكاء الاصطناعي تعاني من ضعف في التعرف على أخطائها. إن الثقة المفرطة في الإجابات الخاطئة هي مشكلة قائمة منذ فترة طويلة، وغالبًا ما لا تستطيع التغذية الراجعة الداخلية تصحيحها.
نماذج التكامل: في بعض الأنظمة، يتم فحص نماذج متعددة بشكل متبادل. على الرغم من أن هذا يمكن أن يحسن معايير الجودة، إلا أن نماذج التكامل التقليدية غالبًا ما تكون مركزية ومتجانسة. إذا كانت جميع النماذج تشترك في بيانات تدريب مماثلة أو تأتي من نفس المورد، فقد تشترك في نفس نقاط العمى. ستتأثر تنوع البنى ووجهات النظر.
تلتزم ميرا بحل مشكلة الإدراك. هدفها هو خلق بيئة تلتقط الأوهام وتزيلها ، وتقلل من التحيز من خلال نماذج متنوعة ، وتجعل المخرجات قابلة للتحقق بشكل متكرر ، ولا يمكن لأي كيان واحد التحكم في عملية التحقق من الأصالة. يمكن لدراسة كيفية عمل نظام Mira أن تحل كل مشكلة من هذه المشكلات بطريقة جديدة.
كيف يمكن لميرا تحسين موثوقية الذكاء الاصطناعي
تختلف الأساليب الحالية لموثوقية الذكاء الاصطناعي ، والتي تتسم بالمركزية وتعتمد على مصدر واحد للحقيقة. قدمت ميرا نموذجا مختلفا. إنه يتيح التحقق اللامركزي ، ويبني إجماعا على مستوى البروتوكول ، ويستخدم الحوافز الاقتصادية لتعزيز سلوك الموثوقية. Mira ليست منتجا قائما بذاته أو أداة رقابة من أعلى إلى أسفل ، ولكنها طبقة بنية تحتية معيارية يمكن دمجها في أي نظام الذكاء الاصطناعي.
تم تصميم هذه الاتفاقية استنادًا إلى عدة مبادئ أساسية:
يجب ألا تعتمد دقة الحقائق على مخرجات نموذج ما.
يجب أن يكون التحقق ذاتيًا، ولا يمكن الاعتماد على المراقبة البشرية المستمرة.
يجب أن يُبنى الثقة على بروتوكولات مستقلة وليس على سيطرة مركزية.
Mira تطبق مبادئ الحوسبة الموزعة على التحقق من الذكاء الاصطناعي. عند تقديم المخرجات (مثل اقتراحات السياسة أو الملخصات المالية أو ردود روبوتات المحادثة) ، يتم أولاً تفكيكها إلى بيانات حقائق أصغر. يتم بناء هذه البيانات كمسائل أو بيانات منفصلة وتوجيهها إلى شبكة عقد التحقق.
تقوم كل عقدة بتشغيل نموذج أو تكوين الذكاء الاصطناعي المختلف وتقييم المطالبات المعينة لها بشكل مستقل. يعيد أحد الأحكام الثلاثة: صحيح أو خاطئ أو غير حاسم. ثم تقوم ميرا بتغذية النتائج. إذا تم استيفاء حد الأغلبية العظمى القابل للتكوين، يتم التحقق من صحة المطالبة. إذا لم يتم استيفائه، يتم وضع علامة عليه أو تجاهله أو إرجاع تحذير.
تصميم ميرا الموزع يتمتع بعدة مزايا هيكلية:
الازدواجية والتنوع: تحقق من التصريحات من خلال نماذج ذات هياكل ومجموعات بيانات ووجهات نظر مختلفة.
تحمل الأخطاء: من غير المحتمل أن يتم تكرار الأعطال أو الأخطاء في نموذج واحد عبر العديد من النماذج.
الشفافية: كل نتيجة تحقق مسجلة على السلسلة، مما يوفر أدلة قابلة للتدقيق، بما في ذلك النماذج التي شاركت وكيف صوتت.
الاستقلالية: تعمل ميرا بشكل متوازٍ ومستمر دون الحاجة إلى تدخل بشري.
النطاق: يمكن لهذا النظام معالجة أحمال عمل ضخمة من عشرات المليارات من الرموز يوميًا.
تستند رؤى ميرا الأساسية إلى الإحصائيات: في حين أن نموذجا واحدا قد يهلوس أو يعكس التحيز ، فإن الأنظمة المستقلة المتعددة لديها احتمال أقل بكثير لارتكاب نفس الخطأ بنفس الطريقة. يستفيد البروتوكول من هذا التنوع لتصفية المحتوى غير الموثوق به. يشبه مبدأ ميرا التعلم الجماعي ، لكنه يوسع الفكرة لتكون نظاما موزعا ويمكن التحقق منه وآمن اقتصاديا مشفرا يمكن تضمينه في عمليات الذكاء الاصطناعي في العالم الحقيقي.
موكل العقد والموارد الحاسوبية
يتم تشغيل البنية التحتية للتحقق اللامركزي لشبكة Mira Network من قبل مجتمع عالمي من المساهمين الذين يوفرون موارد الحوسبة اللازمة لتشغيل عقد المدقق. يلعب هؤلاء المساهمون ، المعروفون باسم مفوضي العقدة ، دورا رئيسيا في توسيع نطاق الإنتاج لمعالجة البروتوكول والتحقق من صحة مخرجات الذكاء الاصطناعي.
ما هو موكل العقد؟
المفوضون هم الأفراد أو الكيانات الذين يؤجرون أو يقدمون موارد الحوسبة GPU لمشغلي العقد المعتمدين بدلاً من تشغيل عقدة تحقق بأنفسهم. تسمح هذه النموذج من التفويض للمشاركين بالمساهمة في بنية Mira التحتية دون الحاجة إلى إدارة نماذج الذكاء الاصطناعي المعقدة أو برامج العقد. من خلال توفير الوصول إلى موارد GPU، يمكّن المفوضون مشغلي العقد من تنفيذ المزيد من التحقق بشكل متوازٍ، مما يعزز سعة النظام وموثوقيته.
يحصل موكل العقد على حوافز اقتصادية نتيجة لمشاركته. كتعويض عن تقديم قوة الحوسبة، سيحصلون على مكافآت مرتبطة بكمية العمل الذي ينفذه العقد المدعوم وجودته. وهذا يخلق هيكل حوافز لامركزي، حيث ترتبط قابلية توسيع الشبكة ارتباطًا مباشرًا بمشاركة المجتمع، وليس باستثمار البنية التحتية المركزية.
من يقدم مشغلي العقد؟
تأتي موارد الحوسبة من شركاء مشغلين العقد المؤسسين لميرا، وهم المشاركون الرئيسيون في نظام البنية التحتية اللامركزية:
Io.Net: شبكة بنية تحتية مادية لامركزية للحوسبة بواسطة GPU (DePIN)، تقدم موارد GPU قابلة للتوسع وفعالة من حيث التكلفة.
Aethir: مزود خدمة GPU على مستوى المؤسسات يركز على الذكاء الاصطناعي والألعاب، ويوفر بنية تحتية للحوسبة السحابية الموزعة.
Hyperbolic: منصة سحابية مفتوحة للذكاء الاصطناعي، توفر موارد GPU اقتصادية ومتسقة لتطوير الذكاء الاصطناعي.
إكسا بتس: رائد الحوسبة السحابية اللامركزية بالذكاء الاصطناعي، يحل مشكلة نقص وحدات معالجة الرسوميات ويعمل على تحسين تخصيص الموارد.
Spheron: منصة لامركزية تبسط نشر تطبيقات الويب، تقدم حلولاً شفافة وقابلة للتحقق.
كل شريك يعمل على تشغيل عقد التحقق على شبكة ميرا، مستفيدًا من القدرة الحاسوبية المخصصة للتحقق من مخرجات الذكاء الاصطناعي على نطاق واسع. تساهم مساهماتهم في تمكين ميرا من الحفاظ على سعة تحقق عالية، حيث تعالج عشرات المليارات من الرموز يوميًا، مع الحفاظ على السرعة، وقدرة التحمل، واللامركزية.
ملاحظة: يُمكن لكل مشارك شراء ترخيص واحد فقط لمندوب العقد. يجب على المستخدمين إثبات مشاركتهم الحقيقية من خلال عملية KYC الخاصة بـ "التحقق من الفيديو المساعد".
ميرا في الاستخدام الواسع للذكاء الاصطناعي والدعم البياني
وفقا للبيانات التي قدمها الفريق ، تتحقق شبكة Mira من أكثر من 3 مليارات رمز كل يوم. في نموذج اللغة، يشير الرمز المميز إلى وحدة صغيرة من النص، وعادة ما تكون مقتطفا من الكلمات أو كلمة قصيرة أو علامة ترقيم. على سبيل المثال ، سيتم تقسيم عبارة "إخراج التحقق من صحة Mira" إلى رموز متعددة. يشير هذا الحجم من التقارير إلى أن Mira تعمل على الكثير من المحتوى في عمليات تكامل مختلفة ، بما في ذلك مساعدي الدردشة والمنصات التعليمية ومنتجات التكنولوجيا المالية والأدوات الداخلية التي تستخدم واجهات برمجة التطبيقات. على مستوى المحتوى ، يعادل هذا الإنتاجية تقييم ملايين الفقرات في اليوم.
وفقا للتقارير، فإن نظام Mira البيئي (بما في ذلك مشاريع الشركاء) يدعم أكثر من 4.5 مليون مستخدم مستقل، حيث يبلغ عدد المستخدمين النشطين يوميا حوالي 500,000. هؤلاء المستخدمون يشملون المستخدمين المباشرين لـ Klok، بالإضافة إلى المستخدمين النهائيين لتطبيقات الطرف الثالث التي تتكامل مع طبقة التحقق من Mira في الخلفية. على الرغم من أن معظم المستخدمين قد لا يتفاعلون مباشرة مع Mira، فإن هذا النظام يعمل كطبقة تحقق صامتة، ويساعد في ضمان أن المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي يصل إلى حد معين من الدقة قبل وصوله إلى المستخدم النهائي.
وفقا لورقة بحثية أجراها فريق ميرا ، فإن النماذج اللغوية الكبيرة التي كانت دقيقة من الناحية الواقعية في السابق في مجالات مثل التعليم والتمويل كان لها معدل دقة واقعي يبلغ حوالي 70٪ ، ولكن الآن تم التحقق من صحتها بدقة 96٪ بعد فحصها من خلال عملية إجماع ميرا. من المهم ملاحظة أنه يمكن تحقيق هذه التحسينات دون إعادة تدريب النموذج نفسه. بدلا من ذلك ، تنبع هذه التحسينات من منطق تصفية ميرا. يقوم النظام بتصفية المحتوى غير الموثوق به من خلال طلب موافقة نماذج متعددة تعمل بشكل مستقل. هذا التأثير مهم بشكل خاص للهلوسة ، وهي معلومات خاطئة ناتجة عن الذكاء الاصطناعي ، والتي تم الإبلاغ عن تقليلها بنسبة 90٪ في التطبيقات المتكاملة. نظرا لأن الهلوسة غالبا ما تكون محددة وغير متسقة ، فمن غير المرجح أن تجتاز آلية إجماع ميرا.
بالإضافة إلى تحسين موثوقية الوقائع، تم تصميم بروتوكول ميرا لدعم المشاركة المفتوحة. لا يقتصر التحقق من الصحة على فريق المراجعة المركزي. لمواءمة الحوافز ، تبنت ميرا نظاما للحوافز والعقوبات المالية. سيتم الدفع للمدققين الذين يتبعون الإجماع باستمرار على أساس الأداء ، بينما سيواجه المدققون الذين يرتكبون أحكاما تم التلاعب بها أو غير الدقيقة عقوبات. يشجع هذا الهيكل السلوك الصادق ويعزز المنافسة بين تكوينات النماذج المختلفة. من خلال إزالة الاعتماد على الحوكمة المركزية وتضمين الحوافز في طبقة البروتوكول ، تتيح Mira التحقق اللامركزي القابل للتطوير في البيئات عالية الحركة مع ضمان عدم المساس بمعايير المخرجات.
استنتاج
توفر ميرا حلا هيكليا لأحد أكثر التحديات إلحاحا في الذكاء الاصطناعي: القدرة على الاعتماد على التحقق من نتائج المخرجات على نطاق واسع. بدلا من الاعتماد على مستوى الثقة لنموذج واحد أو إشراف بشري بعد الحقيقة ، تقدم Mira طبقة تحقق لامركزية تعمل بالتوازي مع توليد الذكاء الاصطناعي. يقوم النظام بتصفية المحتوى غير المدعوم عن طريق تقسيم المخرجات إلى بيانات حقائق ، وتوزيعها على مدققين مستقلين ، وتطبيق آلية إجماع. يحسن الموثوقية دون الحاجة إلى إعادة تدريب النموذج أو مركزية التحكم.
تظهر البيانات أن معدل التبني والدقة الواقعية قد تحسنت بشكل كبير ، وتم تقليل ظاهرة هلوسة الذكاء الاصطناعي بشكل كبير. تم دمج Mira الآن في مجموعة متنوعة من المجالات ، بما في ذلك واجهات الدردشة والأدوات التعليمية والمنصات المالية ، وهي تبرز كطبقة بنية تحتية للتطبيقات الدقيقة. مع نضوج البروتوكولات وأصبحت عمليات تدقيق الجهات الخارجية أكثر انتشارا ، ستوفر شفافية Mira وقابليتها للتكرار ومشاركتها المفتوحة إطار ثقة قابلا للتطوير لأنظمة الذكاء الاصطناعي التي تعمل في بيئات كبيرة الحجم أو منظمة.