IOSG: ما هو مستقبل البنية التحتية لمشروع WEB3 + AI الموحدة؟

مؤلف: IOSG

ليرة تركية؛ د

مع تزاوج Web3 مع AI والتشفير العملة الرقمية العالم الذي تم بناؤه على ال AI أصبح مزدهرًا، ولكن عدد التطبيقات الفعلية التي تستخدم AI أو التي تم بناؤها بواسطة AI ليست كثيرة، ويتم تعرض مشكلة التجانس في البنية الأساسية لل AI تدريجياً. في الفترة الأخيرة، شاركنا في جولة تمويل RedPill الأولى وأثارت بعض الفهم الأعمق.

أدوات بناء تطبيقات AI Dapp تشمل الوصول إلى اللامركزية OpenAI، شبكة GPU، وشبكة الاستدلال وشبكة الوكالة.

السبب في أن شبكة GPU أكثر شعبية من فترة التعدين BTC هو أن سوق الذكاء الاصطناعي أكبر، ويزيد بسرعة وثبات؛ ويدعم الذكاء الاصطناعي الملايين من التطبيقات يوميًا؛ ويحتاج الذكاء الاصطناعي إلى مجموعة متنوعة من أنواع بطاقات الرسومات ومواقع الخوادم؛ والتكنولوجيا أكثر نضجاً من السابق؛ ويستهدف جمهوراً أوسع.

الشبكات الاستنتاجية والشبكات الوكيلية لديها بنية تحتية مشابهة، ولكن مع التركيز على نقاط مختلفة. تُستخدم الشبكات الاستنتاجية بشكل رئيسي من قبل المطورين ذوي الخبرة لنشر نماذجهم الخاصة، ولا يُعتبر تشغيل نماذج غير LLM ضروريًا بالضرورة. أما الشبكات الوكيلية فتركز بشكل أكبر على LLM، حيث لا يحتاج المطورون إلى جلب نماذجهم الخاصة، بل يركزون أكثر على هندسة الإيحاء وكيفية ربط الوكلاء المختلفين معًا. الشبكات الوكيلية تتطلب دائمًا GPU عالية الأداء.

مشروع البنية التحتية للذكاء الاصطناعي يعد بتحقيق إنجازات هائلة ولا يزال يطلق وظائف جديدة باستمرار.

معظم مشاريع البرمجيات الأصلية ما زالت في مرحلة الاختبار، وتعاني من عدم الاستقرار وتعقيد التكوين، وتقليل الوظائف، وتحتاج إلى وقت لإثبات أمانها وخصوصيتها.

في حالة أن تطبيق AI Dapp يصبح اتجاهًا كبيرًا، هناك العديد من المجالات غير المستكشفة بعد، مثل المراقبة، والبنية التحتية المتعلقة بـ RAG، ونماذج Web3 الأصلية، ووكالات الالتشفير الأصلية المدمجة والبيانات اللامركزية، وشبكات التقييم.

التكامل الرأسي هو اتجاه ملحوظ. تهدف مشاريع البنية التحتية إلى توفير خدمة شاملة لتبسيط عمل مطوري تطبيقات الذكاء الاصطناعي.

سيكون المستقبل مزيجًا من الطراز الأمامي والخلفي. يتم تنفيذ جزء من الاستدلال في الجانب الأمامي، بينما يتم تنفيذ الجزء الآخر في الحسابات الداخلية للسلسلة، ويتم ذلك للنظر في عوامل التكلفة والتحقق من الصحة.

المصدر: IOSG

مقدمة

جمع بين ويب 3 والذكاء الاصطناعي هو واحد من أهم المواضيع في مجال التشفير الحالي. يعمل المطورون الموهوبون على بناء البنية التحتية للذكاء الاصطناعي في عالم التشفير، مع التركيز على إدخال الذكاء في العقود الذكية. بناء تطبيقات الذكاء الاصطناعي المشتركة هو مهمة معقدة للغاية، حيث يتعين على المطورين التعامل مع مجموعة واسعة من الأمور بما في ذلك البيانات والنماذج والقوة الحسابية والعمليات والنشر والتكامل مع التشفير.

بالنسبة لهذه المتطلبات، فقد قام مؤسسو Web3 بتطوير العديد من الحلول الأولية مثل شبكة GPU وتسمية بيانات المجتمع ونماذج التدريب المجتمعي والاستدلال القابل للتحقق للذكاء الاصطناعي والتدريب ومتجر الوكالات. ومع ذلك، في هذا الخلفية البنية الأساسية المزدهرة، هناك عدد قليل فقط من تطبيقات الذكاء الاصطناعي الفعلية أو التي تم بناؤها للذكاء الاصطناعي.

عند البحث عن دليل تطوير AI Dapp ، يلاحظ المطورون أن هناك عدد قليل من الدروس التي تتعلق بالبنية التحتية الأساسية للتشفير AI الأصلية ، وأن معظم الدروس تتعلق فقط باستخدام OpenAI API في الواجهة الأمامية.

مصدر: مشاريع IOSG

التطبيق الحالي لا يستغل بشكل كامل اللامركزية والقدرة على التحقق من البلوكشين، ولكن هذا الوضع سيتغير قريبًا. حاليًا، قامت معظم البنية التحتية للذكاء الاصطناعي المركزة على التشفير بتشغيل شبكات الاختبار وتخطط لتشغيلها رسميًا في غضون 6 أشهر. توضح هذه الدراسة بالتفصيل الأدوات الرئيسية المتاحة في البنية التحتية للذكاء الاصطناعي المركزة على التشفير. لنستعد لعصر التشفير GPT-3.5!

  1. RedPill: توفير اللامركزية ترخيص ل OpenAI

التعريفات المذكورة في الفصل السابق، فإن RedPill هو نقطة الدخول الممتازة. تمتلك OpenAI عدة نماذج قوية على المستوى العالمي مثل GPT-4-vision و GPT-4-turbo و GPT-4o، وهي الخيار المفضل لبناء تطبيقات الذكاء الاصطناعي المتقدمة. يمكن للمطورين استدعاء واجهة برمجة التطبيقات OpenAI عبر آلة أوراكل أو واجهة المستخدم الأمامية لدمجها في التطبيق.

ستجمع RedPill API مطوري OpenAI من مصادر مختلفة تحت واجهة واحدة لتوفير خدمات الذكاء الاصطناعي بشكل سريع واقتصادي وقابل للتحقق للمستخدمين العالميين، مما يحقق تحقيق الديمقراطية في موارد نماذج الذكاء الاصطناعي الرائدة. توجيه الطلبات من المطورين إلى المساهم الفردي سيتم عبر الخوارزمية، وستُنفذ طلبات الواجهة البرمجية عبر شبكتها الخاصة، مما يتجاوز أي قيود محتملة من OpenAI ويحل بعض المشاكل الشائعة التي يواجهها المطورون في التشفير، مثل:

• الحد الأقصى لعدد العملات في الدقيقة: الحساب الجديد لا يمكنه استخدام العملة بشكل غير محدود لتلبية احتياجات تطبيقات Dapp الشائعة والمعتمدة على الذكاء الاصطناعي.

• الوصول مقيد: بعض النماذج تفرض قيوداً على الوصول للحسابات الجديدة أو لبعض البلدان.

من خلال استخدام نفس رمز الطلب ولكن بتغيير اسم المضيف ، يمكن للمطورين الوصول إلى نموذج OpenAI بتكلفة منخفضة وقابلية للتوسع العالية وبدون قيود.

  1. شبكة GPU

بالإضافة إلى استخدام API من OpenAI، يختار العديد من المطورين أيضًا استضافة النماذج بأنفسهم في منازلهم. يمكنهم الاعتماد على شبكة ال-GPU اللامركزية مثل io.net وAethir وAkash والتي تُستخدم على نطاق واسع، لبناء أنظمة GPU الخاصة بهم ونشر وتشغيل مجموعة متنوعة من النماذج المفتوحة المصدر أو المدمجة بقوة.

هذا النوع من الشبكات اللامركزية GPU يمكنه أن يستفيد من قوة الحوسبة الشخصية أو من مراكز البيانات الصغيرة لتوفير تكوين مرن ومزيد من خيارات مواقع الخوادم وتكلفة أقل، مما يتيح للمطورين إجراء تجارب متعلقة بالذكاء الاصطناعي بسهولة داخل ميزانية محدودة. ومع ذلك، نظرًا لطبيعة الشبكات اللامركزية، فإن هذا النوع من الشبكات GPU لا يزال يعاني من بعض القيود في الأداء والتوفر وخصوصية البيانات.

خلال الأشهر القليلة الماضية، شهد الطلب على معالجات الرسومات GPU ارتفاعًا شديدًا، حيث تجاوز طلب التعدين على بيتكوين السابق. ويعود سبب هذه الظاهرة إلى:

زيادة عدد العملاء المستهدفين ، يخدم شبكة GPU الآن المطورين في مجال الذكاء الاصطناعي ، حيث يكون عددهم كبيرًا ومخلصًا ولا يتأثرون بتقلبات أسعار الأصول الرقمية.

بالمقارنة مع أجهزة التعدين المخصصة، توفر اللامركزية GPU مجموعة أكبر من الطرازات والمواصفات، وتلبي المزيد من المتطلبات. خاصة عندما يكون هناك حاجة لمعالجة نماذج كبيرة تتطلب VRAM أعلى، وهناك خيارات GPU أكثر مناسبة للمهام الصغيرة. في الوقت نفسه، تقدم اللامركزية GPU خدمة قريبة المدى للمستخدمين النهائيين، ووقت الاستجابة مختصر.

مع تقدم التكنولوجيا، يعتمد شبكات GPU على سلاسل كتل عالية السرعة مثل سولانا للتسوية وتقنية الافتراضية دوكر ومجموعة حوسبة راي.

فيما يتعلق بعائدات الاستثمار، يتوسع سوق الذكاء الاصطناعي ويتاح العديد من فرص التطبيقات والنماذج الجديدة، حيث يبلغ معدل العائد المتوقع لنموذج H100 60-70٪، بينما يعد التعدين بيتكوين أكثر تعقيدًا ويتمتع بمكاسب كبيرة للفائزين فقط ولكن الإنتاج محدود.

تبدأ شركات التعدين لـ BTC مثل Iris Energy و Core Scientific و Bitdeer أيضًا في دعم شبكات GPU وتقديم خدمات الذكاء الاصطناعي، وتشتري بنشاط GPU المصممة خصيصًا للذكاء الاصطناعي ، مثل H100.

موصى به: بالنسبة لمطوري ويب2 الذين لا يولون اهتمامًا كبيرًا لـ SLA ، يوفر io.net تجربة بسيطة وسهلة الاستخدام ، وهو خيار ذو قيمة جيدة.

هذا هو النواة الأساسية للبنية التحتية للذكاء الاصطناعي الأصلية للتشفير. ستدعم في المستقبل مليارات عمليات استنتاج الذكاء الاصطناعي. العديد من طبقات الذكاء الاصطناعي layer1 أو layer2 توفر القدرة على استدعاء استنتاج الذكاء الاصطناعي في السلسلة الأصلية للمطورين. من بين الشركات الرائدة في السوق Ritual و Valence و Fetch.ai.

هذه الشبكات تختلف في الأداء (وقت الإستجابة ، ووقت الحساب) ، ودعم النماذج قابلة للتحقق من صحتها ، والتكلفة (تكلفة استهلاك داخل السلسلة ، وتكلفة الاستدلال) ، وتجربة التطوير.

3.1 الهدف

الحالة المثالية هي أن يتمكن المطورون من الوصول بسهولة إلى خدمات التفكير الاصطناعي المخصصة عبر أي شكل من أشكال الإثبات في أي مكان، دون أي عقبات تقريبًا في عملية الدمج. توفر شبكة التفكير الاصطناعي الدعم الأساسي الكامل الذي يحتاجه المطورون، بما في ذلك إنشاء الإثبات وإجراء الحسابات الاصطناعية ومناوبة والتحقق من بيانات التفكير وتوفير واجهات Web2 و Web3 ونشر النماذج بنقرة واحدة ومراقبة النظام والتفاعل عبر السلاسل والتكامل المتزامن والتنفيذ الدوري وغيرها من الميزات.

باستخدام هذه الوظائف، يمكن للمطورين دمج خدمات الاستدلال بسلاسة في العقود الذكية الحالية لديهم. على سبيل المثال، عند بناء روبوتات تداول لالتمويل اللامركزي ، ستستخدم هذه الروبوتات نماذج التعلم الآلي للبحث عن فرص شراء وبيع محددة لأزواج التداول، وتنفيذ استراتيجيات التداول المقترنة على منصة التداول الأساسية.

في حالة الكمال المطلق، يتم استضافة جميع البنية التحتية في السحابة. يكفي للمطورين رفع نموذج استراتيجية التداول الخاص بهم بتنسيق عام مثل الشعلة، وسيتم تخزين شبكة الاستدلال وتوفير النموذج للاستعلامات Web2 و Web3.

بعد الانتهاء من جميع خطوات نشر النماذج، يمكن للمطورين استدعاء استدعاء استدعاء النموذج نفسه من خلال API Web3 أو العقد الذكي. ستستمر الشبكة العقدية في تنفيذ استراتيجيات التداول هذه وإعادة النتائج إلى العقد الذكي الأساسي. إذا كانت كمية أموال المجتمع التي يديرها المطور كبيرة جدًا، فسيكون هناك حاجة أيضًا إلى التحقق من نتائج الاستدلال. عند استلام النتائج، سيتم تنفيذ المعاملات بناءً على تلك النتائج من قبل العقد الذكي.

3.1.1 الأحداث والتزامن

من الناحية النظرية، يمكن أن يؤدي تنفيذ الاستدلال غير المتزامن إلى أداء أفضل؛ ومع ذلك، قد يكون هذا الأسلوب غير ملائم من حيث تجربة التطوير. عند استخدام الاستدلال بشكل غير متزامن، يجب على المطورين تقديم المهمة أولاً إلى العقد الذكي الذي يتمثل في شبكة الاستدلال. عند اكتمال مهمة الاستدلال، سيقوم العقد الذكي لشبكة الاستدلال بإرجاع النتائج. في هذا النمط من البرمجة، يتم تقسيم الاستدلال إلى استدعاء الاستدلال ومعالجة نتائج الاستدلال كجزئين منفصلين.

إذا كان لدى المطور مكالمات استدعاء تضمينية وكمية كبيرة من المنطق التحكمي، فسوف تكون الأمور أسوأ.

نمط البرمجة الغير متزامن يجعل الاندماج مع العقود الذكية الحالية أمرًا صعبًا. هذا يتطلب من المطورين كتابة الكثير من الشفرة الإضافية وإدارة معالجة الأخطاء وإدارة الإعتمادات. بالمقابل، البرمجة المتزامنة أكثر وضوحًا بالنسبة للمطورين، ولكنها تُدخل مشكلات في زمن الاستجابة وتصميم السلسلة الكتلية. على سبيل المثال، إذا كانت البيانات الواردة هي زمن الكتلة أو الأسعار، وهي بيانات تتغير بسرعة، فإن البيانات بعد الاستدلال لم تعد جديدة، مما قد يؤدي في بعض الحالات إلى الحاجة للتراجع في تنفيذ العقود الذكية. تخيل، أنت تقوم بالتداول باستخدام سعر قديم.

معظم البنى التحتية للذكاء الاصطناعي تعتمد على المعالجة الغير متزامنة، لكن Valence تحاول حل هذه المشاكل.

3.2 الوضع الراهن

في الواقع ، لا تزال شبكات الاستدلال الجديدة في مرحلة الاختبار ، مثل شبكة Ritual. وفقًا لوثائقهم العامة ، فإن وظائف هذه الشبكات محدودة حاليًا (مثل التحقق والإثبات لم يتم تشغيلها بعد). ليس لديهم بنية تحتية سحابية حاليًا لدعم الحسابات الذكية داخل السلسلة ، بل يقدمون إطارًا لاستضافة الحسابات الذكية ذاتيًا وتوصيل النتائج إلى داخل السلسلة. هذه هي بنية تحتية لتشغيل عملة AIGC لا يمكن استبدالها. يتم إنشاء نموذج الانتشار لتوليد عملة لا يمكن استبدالها وتحميلها على Arweave. ستستخدم شبكة الاستدلال هذه العملة غير القابلة للاستبدال هذه العنوان على داخل السلسلة.

هذه العملية معقدة للغاية، ويحتاج المطورون إلى نشر وصيانة معظم البنية التحتية بأنفسهم، مثل العقدة Ritual المخصصة بالخدمة والانتشار الثابت للعقدة والعقد الذكي للعملة غير القابلة للاستبدال. التوصية: يعتبر تكامل ونشر النماذج المخصصة في شبكة الاستدلال حالياً معقدًا إلى حد ما، وفي هذه المرحلة، لا تزال معظم الشبكات غير قادرة على دعم وظيفة التحقق. سيوفر استخدام تقنية الذكاء الاصطناعي في الواجهة الأمامية خيارًا نسبيًا بسيطًا للمطورين. إذا كنت بحاجة ماسة إلى وظيفة التحقق، فإن مزود ZKML Giza خيار جيد.

  1. شبكة الوكيل

شبكة الوكالة تتيح للمستخدمين تخصيص الوكالة بسهولة. تتكون هذه الشبكة من كيانات أو العقود الذكية التي يمكنها تنفيذ المهام بشكل مستقل وتبادل المعلومات بشكل متبادل مع شبكة البلوكتشين، دون الحاجة إلى تدخل بشري مباشر. إنها موجهة بشكل رئيسي نحو تكنولوجيا LLM. على سبيل المثال، يمكن أن توفر روبوتات الدردشة GPT المتعمقة فهمًا أعمق لإيثريوم. هذه الروبوتات حاليًا تفتقر إلى الأدوات الكافية، والمطورون لا يزالون غير قادرين على تطوير تطبيقات معقدة على هذا الأساس.

ولكن في المستقبل، ستقدم شبكة الوكلاء المزيد من الأدوات للاستخدام الوكالة، ليس فقط المعرفة، بل أيضًا القدرة على استدعاء واجهة برمجة التطبيقات الخارجية وتنفيذ مهام محددة. سيكون بإمكان المطورين ربط العديد من الوكلاء معًا لبناء سيناريو العمل. على سبيل المثال، كتابة عقد ذكي Solidity ستنطوي على العديد من وكلاء التصميم البروتوكولي، ووكلاء تطوير Solidity، ووكلاء مراجعة أمان الكود، ووكلاء نشر Solidity.

ننسق تعاون هؤلاء الوكلاء من خلال استخدام التلميحات والسيناريوهات. بعض أمثلة الشبكات الوكيلة تشمل Flock.ai و Myshell و Theoriq. يُوصَى بِ: مُعْظَم وَكِلَاء الْيَوْم يَكُون لَدَيْهِم وَظَائف مُحَدَّدَة نِسْبِيًّا. بَالنِّسْبَة لِتَطْبِيق مُعَيَّن، يُمْكِن وَكِيل Web2 مُعَيَّن أَن يَخْدُم بِشَكْلٍ أَفْضَل وَيَكُون لَدَيْهُ أَدَوَات تَرْتِيب مُنْضَجَة، مِثْل Langchain، Llamaindex.

الفرق بين شبكة الوكيل وشبكة الاستدلال الخامسة

تركز الشبكة الوكيلة بشكل أكبر على LLM وتوفر أدوات مثل Langchain لدمج العديد من الوكلاء. في العادة ، لا يحتاج المطورون إلى تطوير نماذج التعلم الآلي بأنفسهم ، حيث تقوم الشبكة الوكيلة بتبسيط عملية تطوير ونشر النماذج. ما يحتاجونه هو فقط ربط الوكلاء والأدوات الضرورية. في معظم الحالات ، سيستخدم المستخدمون النهائيون هذه الوكلاء مباشرة.

شبكة الاستدلال هي البنية التحتية لشبكة الوكلاء. يوفر الوصول على مستوى أقل للمطورين. في الظروف العادية ، لا يستخدم المستخدمون النهائيون شبكة الاستدلال مباشرة. يحتاج المطورون إلى نشر نماذجهم الخاصة ، وليس فقط LLM ، ويمكنهم استخدامها عبر نقاط الوصول خارج السلسلة أو داخل السلسلة. شبكة الوكلاء وشبكة الاستدلال ليستا منتجات مستقلة تمامًا. لقد بدأنا نرى بعض المنتجات المتكاملة عمودياً. لأن هاتين القدرتين تعتمدان على البنية التحتية المماثلة ، فإنهما توفران قدرات الوكيل والاستدلال في نفس الوقت.

  1. الأرض الجديدة للفرص بالإضافة إلى استنتاج النماذج والتدريب وشبكات الوكلاء، هناك العديد من المجالات الجديدة في مجال الويب 3 التي تستحق الاستكشاف:

البيانات: كيف يمكن تحويل بيانات سلسلة الكتل إلى مجموعة بيانات قابلة للتعلم الآلي؟ يحتاج مطورو التعلم الآلي إلى بيانات أكثر تحديدًا وتخصصًا. على سبيل المثال، تقدم جيزا بعض مجموعات البيانات عالية الجودة حول التمويل اللامركزي مصممة خصيصًا لتدريب التعلم الآلي. يجب أن تحتوي البيانات المثالية ليس فقط على بيانات جدولية بسيطة، ولكن يجب أن تشمل أيضًا بيانات رسوم بيانية قادرة على وصف تفاعل عالم سلسلة الكتل. حاليًا، لدينا نقص في هذا الجانب. هناك مشاريع تقوم حاليًا بحل هذه المشكلة من خلال مكافأة الأفراد الذين يقومون بإنشاء مجموعات بيانات جديدة، مثل Bagel و Sahara، حيث يعدون بحماية خصوصية بيانات الأفراد.

تخزين النماذج: بعض النماذج ذات حجم ضخم، وكيفية تخزينها وتوزيعها ومراقبة الإصدارات هي الأمور الرئيسية، وهذا يتعلق بأداء وتكلفة تعلم الآلة داخل السلسلة. في هذا المجال، فقد تم تحقيق تقدم في مشاريع رائدة مثل فيل وAR و0g.

تدريب النماذج: تدريب النماذج الموزعة والقابلة للتحقق أمر صعب. لقد حققت Gensyn و Bittensor و Flock و Allora تقدمًا ملحوظًا. رصد: نظرًا لأن الاستدلال على النماذج يحدث داخل السلسلة وخارجها ، فإننا بحاجة إلى بنية تحتية جديدة لمساعدة مطوري web3 في تتبع استخدام النماذج واكتشاف المشاكل والانحرافات المحتملة في الوقت المناسب. مع وجود أدوات المراقبة المناسبة ، يمكن لمطوري التعلم الآلي في web3 ضبط النماذج في الوقت المناسب وتحسين دقتها باستمرار.

RAG البنية التحتية: تحتاج RAG الموزعة إلى بيئة أساسية جديدة تتطلب تخزينًا عالي الطلب وحوسبة مضمنة وقاعدة بيانات الناقلات، مع ضمان سرية البيانات. هذا يختلف كثيرًا عن البنية التحتية الحالية لـ Web3 AI، حيث تعتمد معظمها على أطراف ثالثة لإكمال RAG، مثل Firstbatch و Bagel.

نموذج مخصص لـ Web3: ليس كل النماذج مناسبة لسيناريوهات Web3. في معظم الحالات ، يتطلب تدريب النموذج مرة أخرى لتناسب تطبيقات محددة مثل توقعات الأسعار والتوصيات. مع تطور بنية الذكاء الاصطناعي ، نأمل في المستقبل أن يكون هناك المزيد من النماذج المحلية لـ web3 لخدمة تطبيقات الذكاء الاصطناعي. على سبيل المثال ، يعمل Pond على تطوير شبكة GNN للبلوكشين لتوقع الأسعار والتوصيات وكشف الاحتيال ومكافحة غسيل الأموال وغيرها من السيناريوهات المتعددة.

تقييم الشبكة: من الصعب تقييم الوكيل بدون ردود فعل الإنسان. مع انتشار أدوات إنشاء الوكيل ، سيظهر العديد من الوكلاء في السوق. هذا يتطلب نظامًا لعرض قدرات هذه الوكالات ومساعدة المستخدم على تقييم أداء كل وكيل في حالات محددة. على سبيل المثال ، Neuronets هي أحد المشاركين في هذا المجال.

الآلية الوافقة: بالنسبة لمهام الذكاء الاصطناعي ، قد لا يكون PoS هو الخيار الأفضل. تعد تعقيدات الحساب وصعوبة التحقق ونقص اليقين هي التحديات الرئيسية التي يواجهها PoS. قام Bittensor بإنشاء آلية وافقة جديدة تكافئ العقد التي تساهم في النماذج والنتائج لتعلم الآلة في الشبكة.

  1. التوقعات المستقبلية

نحن حاليا نلاحظ اتجاه تطوير التكامل العمودي. من خلال بناء طبقة حسابية أساسية، يمكن للشبكة دعم مجموعة متنوعة من مهام التعلم الآلي، بما في ذلك التدريب والاستدلال وخدمات الشبكة الوكيلة. تهدف هذه النمطية إلى توفير حل شامل واحد لمطوري التعلم الآلي في الويب3. حاليا، داخل السلسلة الاستدلال على الرغم من تكلفته المرتفعة وبطئه، إلا أنه يوفر تحققًا ممتازًا وتكاملًا سلسًا مع الأنظمة الخلفية (مثل العقود الذكية). أعتقد أن المستقبل سيسلك طريق التطبيق المختلط. سيتم تنفيذ جزء من عملية الاستدلال في الجبهة أو خارج السلسلة، بينما ستكتمل تلك الاستدلالات الحاسمة والتقريرية داخل السلسلة. لقد تم تطبيق هذا النمط بالفعل على الأجهزة المحمولة. من خلال الاستفادة من الخصائص الجوهرية للأجهزة المحمولة، يمكنها تشغيل النماذج الصغيرة بسرعة محلياً، ونقل المهام الأكثر تعقيدًا إلى السحابة باستخدام معالج LLM أكبر.

شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت