طرحت Trusta.AI إطار SIGMA لبناء بنية تحتية موثوقة لهوية وكيل الذكاء الاصطناعي.

Trusta.AI: جسر الثقة بين الإنسان والآلة في عصر التكنولوجيا

المقدمة

مع النضج السريع للبنية التحتية للذكاء الاصطناعي وتطور إطار التعاون بين الوكلاء المتعددين، أصبح الوكلاء المدفوعون بالذكاء الاصطناعي بسرعة القوة الرئيسية للتفاعل في Web3. من المتوقع أنه في غضون 2-3 سنوات، قد تحل هذه الوكلاء الذكاء الاصطناعي القادرة على اتخاذ القرارات المستقلة محل 80% من السلوك البشري على السلسلة، لتصبح "المستخدمين" الحقيقيين على السلسلة.

تشير ظهور وكلاء الذكاء الاصطناعي إلى أن نظام Web3 البيئي ينتقل من "مشاركة البشر" ليصبح "تعايش الإنسان والآلة" كنموذج جديد. ومع ذلك، فإن الازدهار السريع لوكلاء الذكاء الاصطناعي قد جلب أيضًا تحديات غير مسبوقة: كيف نحدد ونعتمد هوية هؤلاء الوكلاء؟ كيف نحكم على مصداقية سلوكهم؟ كيف نضمن عدم إساءة استخدام هؤلاء الوكلاء أو التلاعب بهم أو استخدامها في الهجمات؟

لذلك، أصبح إنشاء بنية تحتية قائمة على سلسلة الكتل يمكنها التحقق من هوية وسمعة وكلاء الذكاء الاصطناعي، هو القضية المركزية في المرحلة التالية من تطور Web3. ستحدد تصميم آليات التعرف على الهوية، وآليات السمعة، وإطار الثقة، ما إذا كان بإمكان وكلاء الذكاء الاصطناعي تحقيق التعاون السلس مع البشر والمنصات، ولعب دور مستدام في النظام البيئي المستقبلي.

Trusta.AI : جسر الفجوة في الثقة بين البشر والآلات

تحليل المشروع

مقدمة المشروع

تسعى Trusta.AI إلى بناء بنية تحتية للهوية والسمعة في Web3 من خلال الذكاء الاصطناعي.

أطلقت Trusta.AI أول نظام لتقييم قيمة مستخدمي Web3 - نظام تقييم السمعة MEDIA، وأسست أكبر بروتوكول للسمعة على السلسلة والمصادقة الحقيقية في Web3. تقدم خدمات تحليل البيانات على السلسلة والمصادقة الحقيقية لأفضل سلاسل الكتل مثل Linea و Starknet و Celestia و Arbitrum و Manta. تم إكمال أكثر من 2.5 مليون مصادقة على السلسلة على سلاسل رئيسية مثل Linea و BSC و TON، وأصبحت أكبر بروتوكول للهوية في الصناعة.

تقوم Trusta بالتوسع من إثبات الإنسانية إلى إثبات وكيل الذكاء الاصطناعي، حيث حققت آلية ثلاثية لبناء الهوية، وتقدير الهوية، وحماية الهوية لتحقيق الخدمات المالية على السلسلة الاجتماعية لوكيل الذكاء الاصطناعي، مما يبني أساس ثقة موثوق في عصر الذكاء الاصطناعي.

بنية الثقة - وكيل الذكاء الاصطناعي DID

في بيئة Web3 المستقبلية، ستلعب وكلاء الذكاء الاصطناعي دورًا حاسمًا، حيث يمكنهم إتمام التفاعلات والمعاملات على السلسلة، وكذلك إجراء عمليات معقدة خارج السلسلة. ومع ذلك، فإن كيفية التمييز بين وكلاء الذكاء الاصطناعي الحقيقيين والعمليات التي تتدخل فيها البشر تتعلق بجوهر الثقة اللامركزية. إذا لم يكن هناك آلية موثوقة للتحقق من الهوية، فستكون هذه الوكلاء عرضة للتلاعب أو الاحتيال أو الإساءة. وهذا هو السبب في أن الخصائص المتعددة لوكلاء الذكاء الاصطناعي في مجالات مثل التواصل والتمويل والحوكمة يجب أن تُبنى على أساس قوي من التحقق من الهوية.

باعتبارها رائدة في هذا المجال، قامت Trusta.AI ببناء آلية مصادقة DID لوكلاء الذكاء الاصطناعي بشكل كامل بفضل قوتها التكنولوجية الرائدة ونظام سمعتها الصارمة، مما يوفر ضمانًا قويًا لتشغيل الوكلاء الذكيين بشكل موثوق، ويعمل على فعالية التخفيف من المخاطر المحتملة، ويدفع التنمية المستدامة للاقتصاد الذكي في Web3.

وضع التمويل

يناير 2023: إتمام جولة تمويل بذور بقيمة 3 ملايين دولار، بقيادة SevenX Ventures و Vision Plus Capital، مع مشاركة جهات أخرى تشمل HashKey Capital و Redpoint Ventures و GGV Capital و SNZ Holding.

يونيو 2025: إتمام جولة تمويل جديدة، تشمل المستثمرين ConsenSys و Starknet و GSR و UFLY Labs وغيرها

حالة الفريق

بيتي تشين: المؤسس المشارك والرئيس التنفيذي، نائب الرئيس السابق لمجموعة أنتي الرقمية، ورئيس المنتجات في تكنولوجيا الأمان في أنتي، المدير العام السابق لمنصة الهوية الرقمية العالمية زولوز.

سايمون: المؤسس المشارك ومدير التكنولوجيا، كان رئيس مختبر أمان الذكاء الاصطناعي في مجموعة أنتي، يمتلك خبرة لمدة خمسة عشر عامًا في تطبيق تقنيات الذكاء الاصطناعي في إدارة الأمان والمخاطر.

يمتلك الفريق خبرة تقنية عميقة وتجربة عملية في الذكاء الاصطناعي وإدارة المخاطر الأمنية، وهندسة أنظمة الدفع وآليات التحقق من الهوية، ويكرس جهوده منذ فترة طويلة لتطبيق البيانات الضخمة والخوارزميات الذكية في إدارة المخاطر الأمنية، بالإضافة إلى تصميم البروتوكولات الأساسية وتحسين الأمان في بيئات المعاملات ذات التزامن العالي، مما يوفر قدرات هندسية قوية وقدرة على تنفيذ الحلول المبتكرة.

Trusta.AI :تجاوز الفجوة في الثقة بين الإنسان والآلة

الهيكل الفني

إنشاء الهوية - DID + TEE

من خلال المكونات الإضافية المخصصة، يحصل كل وكيل ذكاء اصطناعي على معرف لامركزي فريد على السلسلة (DID)، ويتم تخزينه بأمان في بيئة تنفيذ موثوقة (TEE). في هذه البيئة المغلقة، يتم إخفاء البيانات الأساسية وعمليات الحساب تمامًا، وتظل العمليات الحساسة خاصة دائمًا، ولا يمكن للجهات الخارجية التطفل على تفاصيل التشغيل الداخلية، مما يبني حاجزًا قويًا لأمان معلومات وكيل الذكاء الاصطناعي.

بالنسبة للوسطاء الذين تم إنشاؤهم قبل إدخال المكون الإضافي، نعتمد على آلية التصنيف الشاملة على السلسلة للتعرف على الهوية؛ بينما يمكن للوسطاء الجدد الذين تم إدخالهم مباشرة الحصول على "شهادة الهوية" التي تصدرها DID، مما يؤدي إلى إنشاء نظام هوية لوكيل AI يتمتع بالتحكم الذاتي والواقعية وعدم القابلية للتلاعب.

قياس الهوية - إطار SIGMA الرائد

تلتزم فريق Trusta دائمًا بمبادئ التقييم الدقيق والتحليل الكمي، وتهدف إلى إنشاء نظام موثوق للمصادقة على الهوية.

بنى فريق Trusta وأثبت صحة نموذج MEDIA Score في سيناريو "إثبات الإنسان" في البداية. يقوم هذا النموذج بتكميم صورة المستخدمين على السلسلة من خمسة أبعاد، وهي: المبلغ التفاعلي ( Monetary )، مستوى المشاركة ( Engagement )، التنوع ( Diversity )، الهوية ( Identity ) والعمر ( Age ).

تعتبر درجة MEDIA نظامًا لتقييم القيمة للمستخدمين على السلسلة بشكل عادل وموضوعي وقابل للقياس. بفضل شمولية أبعاد التقييم وصرامة المنهجية، تم اعتمادها على نطاق واسع من قبل العديد من سلاسل الكتل الرائدة مثل Celestia وStarknet وArbitrum وManta وLinea، كمعيار مرجعي هام لتصفية استحقاقات الاستثمار. إنها لا تركز فقط على مبلغ التفاعل، بل تشمل أيضًا مؤشرات متعددة الأبعاد مثل النشاط، تنوع العقود، خصائص الهوية، وعمر الحساب، مما يساعد المشاريع على التعرف بدقة على المستخدمين ذوي القيمة العالية، وزيادة كفاءة وعدالة توزيع الحوافز، مما يعكس سلطتها واعترافها الواسع في الصناعة.

بناءً على النجاح في بناء نظام تقييم المستخدمين البشريين، قامت Trusta بنقل وتحسين تجربة MEDIA Score إلى سيناريو الوكيل الذكي، وأنشأت نظام تقييم Sigma الذي يتناسب بشكل أفضل مع منطق سلوك الوكلاء الذكية.

  • التخصص: المعرفة والاحترافية التي يتمتع بها الوكيل.
  • التأثير: التأثير الاجتماعي والرقمي للوكيل.
  • مشاركة: التناسق والموثوقية في التفاعلات على السلسلة وخارجها.
  • النقدية: صحة واستقرار النظام البيئي لرموز الوكالة.
  • معدل الاعتماد: تكرار وكفاءة استخدام الوكلاء الذكاء الاصطناعي.

تقوم آلية تقييم Sigma على بناء نظام تقييم حلقي منطقي من "القدرة" إلى "القيمة" عبر خمسة أبعاد. تركز MEDIA على تقييم مشاركة المستخدمين البشريين من زوايا متعددة، بينما تركز Sigma أكثر على احترافية واستقرار الوكلاء الذكاء الاصطناعي في مجالات معينة، مما يعكس التحول من العرض إلى العمق، ويتماشى بشكل أفضل مع احتياجات وكيل الذكاء الاصطناعي.

أولاً، بناءً على القدرة المهنية ( Specification )، فإن درجة المشاركة ( Engagement ) تعكس ما إذا كانت هناك مشاركة مستمرة ومستقرة في التفاعل العملي، وهي الدعامة الأساسية لبناء الثقة والفعالية في المستقبل. أما التأثير ( Influence )، فهو السمعة الراجعة الناتجة عن المشاركة في المجتمع أو الشبكة، مما يدل على مصداقية الوكيل وأثره في التواصل. التقييم النقدي ( Monetary ) يقيم ما إذا كانت لديه القدرة على تراكم القيمة والاستقرار المالي في النظام الاقتصادي، مما يضع الأساس لآلية تحفيز مستدامة. وأخيرًا، يتم استخدام معدل الاعتماد ( Adoption ) كتعزيز شامل، مما يمثل مدى قبول هذا الوكيل في الاستخدام الفعلي، وهو التحقق النهائي لجميع القدرات والأداء السابقة.

هذا النظام يتقدم على مراحل، وهيكلها واضح، ويمكن أن يعكس بشكل شامل الكفاءات الشاملة والقيمة البيئية لوكيل الذكاء الاصطناعي، مما يحقق تقييمًا كميًا لأداء وقيمة الذكاء الاصطناعي، ويحويل المزايا والعيوب المجردة إلى نظام تقييم ملموس وقابل للقياس.

حالياً، تم推进 إطار SIGMA بالتعاون مع الشبكات المعروفة لوكلاء الذكاء الاصطناعي مثل Virtual وElisa OS وSwarm، مما يظهر إمكاناته الضخمة في إدارة هوية الوكلاء الذكاء الاصطناعي وبناء نظام السمعة، ويصبح تدريجياً المحرك الأساسي لدفع بناء بنية تحتية موثوقة للذكاء الاصطناعي.

Trusta.AI : عبور فجوة الثقة بين الإنسان والآلة

حماية الهوية - آلية تقييم الثقة

في نظام AI عالي المرونة وعالي الثقة حقًا، ليس الأمر الأكثر أهمية هو إنشاء الهوية فحسب، بل هو أيضًا التحقق المستمر من الهوية. يقدم Trusta.AI مجموعة من آليات تقييم الثقة المستمرة، مما يسمح بمراقبة الوكلاء الذكيين المعتمدين في الوقت الحقيقي، لتحديد ما إذا كانت تحت سيطرة غير قانونية أو تتعرض لهجمات أو تتلقى تدخلات بشرية غير مصرح بها. يقوم النظام بتحديد الانحرافات المحتملة خلال عملية تشغيل الوكيل من خلال تحليل السلوك وتعلم الآلة، مما يضمن أن تظل كل سلوكيات الوكيل ضمن السياسات والإطارات المحددة. هذه الطريقة الاستباقية تضمن اكتشاف أي انحراف عن السلوك المتوقع على الفور، وتفعيل تدابير الحماية التلقائية للحفاظ على سلامة الوكيل.

أنشأت Trusta.AI آلية حراسة آمنة متصلة دائمًا، تراقب في الوقت الحقيقي كل عملية تفاعل، لضمان توافق جميع العمليات مع المعايير النظامية والتوقعات المحددة.

Trusta.AI :جسر الثقة عبر عصر الإنسان والآلة

مقدمة المنتج

AgentGo

تقوم Trusta.AI بتخصيص هوية رقمية لامركزية لكل وكيل ذكاء اصطناعي على السلسلة (DID)، وتقوم بتقييمها وتصنيفها بناءً على بيانات السلوك على السلسلة، مما يخلق نظام ثقة لوكلاء الذكاء الاصطناعي يمكن التحقق منه وتتبعها. من خلال هذا النظام، يمكن للمستخدمين تحديد واختيار الوكلاء الأذكياء ذوي الجودة العالية بكفاءة، مما يحسن تجربة الاستخدام. حالياً، أكملت Trusta جمع وتحديد جميع وكلاء الذكاء الاصطناعي على الشبكة، وقد منحتهم معرفات لامركزية، وأنشأت منصة فهرسة موحدة تسمى AgentGo، مما يعزز التنمية الصحية لنظام الوكلاء الذكيين.

1.استعلام المستخدمين البشريين والتحقق من الهوية:

يمكن لمستخدمي البشر من خلال لوحة التحكم التي تقدمها Trusta.AI استرجاع هوية وكيل الذكاء الاصطناعي ودرجة مصداقيته بسهولة، لتحديد ما إذا كان موثوقًا.

  • سيناريو الدردشات الاجتماعية: في فريق مشروع يستخدم بوت الذكاء الاصطناعي لإدارة المجتمع أو التحدث، يمكن لمستخدمي المجتمع التحقق من خلال لوحة التحكم ما إذا كان هذا الذكاء الاصطناعي هو وكيل حقيقي مستقل، لتجنب الخداع أو التلاعب من "الذكاء الاصطناعي المزيف".
  1. وكيل الذكاء الاصطناعي يستدعي الفهرس والتحقق تلقائيًا:

يمكن للذكاء الاصطناعي قراءة واجهة الفهرس مباشرة بين بعضهم البعض، مما يحقق تأكيد سريع لهوية الطرف الآخر وسمعته، ويضمن أمان التعاون وتبادل المعلومات.

  • مشهد الرقابة المالية: إذا قام وكيل AI بإصدار عملة بشكل مستقل، يمكن للنظام مباشرة فهرسة DID الخاص به وتقييمه، لتحديد ما إذا كان وكيلاً معتمداً لـ AI، ويرتبط تلقائياً بمنصات مثل CoinMarketCap، للمساعدة في تتبع تدفق أصوله وامتثال الإصدار.
  • سيناريو تصويت الحوكمة: عند إدخال التصويت بالذكاء الاصطناعي في مقترحات الحوكمة، يمكن للنظام التحقق مما إذا كانت الجهة التي أطلقت أو شاركت في التصويت هي وكيل ذكاء اصطناعي حقيقي، لتجنب استغلال حقوق التصويت من قبل البشر.
  • الإقراض الائتماني DeFi: يمكن لبروتوكولات الإقراض أن تمنح وكيل الذكاء الاصطناعي مبالغ ائتمانية مختلفة بناءً على نظام تقييم SIGMA، مما يشكل علاقات مالية أصلية بين الكيانات الذكية.

لم يعد DID لوكيل الذكاء الاصطناعي مجرد "هوية"، بل أصبح دعماً أساسياً لبناء التعاون الموثوق، والامتثال المالي، وحوكمة المجتمع، وغيرها من الوظائف الأساسية، ليصبح بنية تحتية أساسية لتطوير النظام البيئي الأصلي للذكاء الاصطناعي. مع بناء هذا النظام، تشكلت شبكة مترابطة بإحكام من جميع العقد التي تم التأكد من سلامتها وموثوقيتها، مما حقق التعاون الفعال والاتصال الوظيفي بين وكلاء الذكاء الاصطناعي.

استنادًا إلى قانون ميتكالف، ستشهد قيمة الشبكة نموًا أسيًا، مما يعزز بناء نظام بيئي لوكلاء الذكاء الاصطناعي أكثر كفاءة، وأكثر موثوقية وقدرة على التعاون، مما يحقق تبادل الموارد وإعادة استخدام القدرات والقيمة المستمرة بين الوكلاء.

تعتبر AgentGo كأول بنية تحتية موثوقة للهوية موجهة لوكلاء الذكاء الاصطناعي، حيث تقدم دعماً أساسياً لا غنى عنه لبناء نظام ذكي عالي الأمان وعالي التعاون.

! Trusta.AI: عبور فجوة الثقة في عصر الإنسان والآلة

تروست غو

TrustGo هي أداة لإدارة الهوية على السلسلة تم تطويرها بواسطة Trusta، حيث تقدم تقييمًا بناءً على التفاعل الحالي، و"عمر" المحفظة، وحجم المعاملات، وقيمة المعاملات. بالإضافة إلى ذلك، تقدم TrustGo معايير مرتبطة بتصنيف القيمة على السلسلة، مما يسهل على المستخدمين البحث بنشاط عن المساعدات، وزيادة قدرتهم على الحصول على المساعدات / التتبع.

وجود MEDIA Score في آلية تقييم TrustGo أمر بالغ الأهمية، حيث يوفر للمستخدمين القدرة على تقييم أنشطتهم الذاتية. لا تشمل نظام تقييم MEDIA Score فقط مؤشرات بسيطة مثل عدد المعاملات وقيمتها التي يقوم بها المستخدمون مع العقود الذكية والبروتوكولات وdApps، بل تركز أيضًا على طريقة سلوك المستخدمين. من خلال MEDIA Score، يمكن للمستخدمين فهم أعمق.

TA1.73%
AGENT5.68%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 5
  • إعادة النشر
  • مشاركة
تعليق
0/400
RuntimeErrorvip
· منذ 19 س
هذه الذكاء الاصطناعي أصبح بارعًا حقًا!
شاهد النسخة الأصليةرد0
MissedTheBoatvip
· 08-10 18:39
هل حان الوقت لنسحب أموالنا؟
شاهد النسخة الأصليةرد0
OnchainFortuneTellervip
· 08-10 18:36
التعايش بين الإنسان والآلة؟ قد تكون زوجتي من الذكاء الاصطناعي العام المقبل.
شاهد النسخة الأصليةرد0
MetaverseHermitvip
· 08-10 18:35
واو؟ هذه الوكالة غير مفيدة، أليس كذلك؟
شاهد النسخة الأصليةرد0
GasWastervip
· 08-10 18:27
ما هذا؟ مجرد خدعة أخرى لجمع المال.
شاهد النسخة الأصليةرد0
  • تثبيت