العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
شريك Hack VC: 8 مزايا حقيقية لـ AI+Crypto
المؤلف: إد رومان، شريك إداري في Hack VC
تجميع: 1912212.eth ، أخبار الاستشراف
AI + Crypto هو واحد من المجالات الرائدة المثيرة للاهتمام في سوق العملات الرقمية مؤخرًا ، مثل تدريب AI اللامركزي ، و GPU DePINs ، ونماذج AI المضادة للفحص.
خلف هذه التطورات المذهلة، لا يمكن أن نتجاهل السؤال: هل هذا حقًا اختراق تكنولوجي أم مجرد استغلال للاتجاه الحالي؟ ستكشف هذه المقالة الستار عن التصور المشترك بين التشفير والذكاء الاصطناعي وتناقش التحديات والفرص الحقيقية وتكشف عن الوعود الفارغة والممكنة.
تصور #1: التدريب اللامركزي للذكاء الاصطناعي
مشكلة تدريب الذكاء الاصطناعي على السلسلة تكمن في الحاجة إلى اتصال سريع وتنسيق بين وحدات GPU، لأن الشبكات العصبية تحتاج إلى الانتشار العكسي أثناء التدريب. لهذا، قامت Nvidia بابتكار اثنين من التقنيات (NVLink و InfiniBand) التي جعلت اتصال الـ GPU سريع للغاية، ولكنها مقتصرة على التقنيات المحلية فقط وتنطبق فقط على مجموعات GPU داخل مركز بيانات واحد (50+ جيجابت في الثانية)
إذا تم إدخال الشبكة اللامركزية، فإن السرعة ستصبح بطيئة بشكل مفاجئ بعدة درجات بسبب تأخر الشبكة وزيادة النطاق الترددي. هذه السرعة غير ممكنة بالنسبة لحالات تدريب الذكاء الاصطناعي مقارنة بالنقل السريع الذي يتم الحصول عليه من Nvidia داخل مركز البيانات.
يرجى ملاحظة، هناك أيضا ابتكارات قد تجلب الأمل في المستقبل:
جزء من تدريب البيانات صعب. يتضمن أي عملية تدريب للذكاء الاصطناعي معالجة كمية كبيرة من البيانات. عادةً ما يتم تدريب النماذج على نظام تخزين البيانات الآمن المركزي الذي يتميز بقابلية التوسع العالية والأداء. يتطلب ذلك نقل ومعالجة تيرابايتات من البيانات، وهذا ليس من دورة واحدة. عادةً ما يكون البيانات مليئة بالضجيج والأخطاء، لذلك يجب تنظيفها وتحويلها إلى تنسيق قابل للاستخدام قبل تدريب النموذج. هذه المرحلة تتضمن المهام المتكررة للتوحيد والتصفية ومعالجة القيم المفقودة. كل هذه التحديات تواجهها في بيئة غير مركزية.
جزء من بيانات التدريب هو أيضًا تكراري ، وهذا ليس متوافقًا مع Web3. خضعت OpenAI لآلاف التكرارات قبل تحقيق نجاحها. في فرق الذكاء الاصطناعي ، تشمل مهام علم البيانات الأساسية تحديد الأهداف وإعداد البيانات وتحليلها وتنظيمها لاستخلاص رؤى مهمة وجعلها مناسبة للنمذجة. ثم تطوير نموذج التعلم الآلي لحل المشكلة المحددة واستخدام مجموعة بيانات الاختبار للتحقق من أدائه. هذه العملية تكرارية: إذا كان النموذج الحالي لا يعمل كما هو متوقع ، فسيعود الخبراء إلى مرحلة جمع البيانات أو تدريب النموذج لتحسين النتائج. تخيل هذه العملية إذا تمت في بيئة لامركزية ، فإن تكيف الأطر الحالية الرائدة والأدوات التي تعمل في Web3 سيكون أمرًا صعبًا.
أحد التحديات في تدريب نماذج الذكاء الاصطناعي على السلسلة هو أن هذا السوق أكثر مللًا بكثير مقارنة بالاستدلال. حاليًا ، يتطلب تدريب نماذج اللغة الاصطناعية الكبيرة الحجم الكثير من موارد الحسابات GPU. في المدى الطويل ، ستصبح الاستدلال السيناريو الرئيسي للحوسبة باستخدام وحدات GPU. فكر في عدد نماذج اللغة الاصطناعية الكبيرة التي يتعين تدريبها لتلبية الطلب العالمي مقارنة بعدد العملاء الذين يستخدمون هذه النماذج، أيهما أكثر؟
الإجماع#2: استخدام الحوسبة الذكية المفرطة للوصول إلى الإجماع
حول 01928374656574839201 والذكاء الاصطناعي هو التحدي الآخر هو التحقق من دقة استدلال الذكاء الاصطناعي، لأنه لا يمكنك الاعتماد تمامًا على كيان مركزي واحد لتنفيذ عمليات الاستدلال، وهناك خطر محتمل لوجود سلوك غير لائق للعقد، وهذا التحدي غير موجود في الذكاء الاصطناعي للويب2، لأنه لا يوجد نظام لامركزي للموافقة.
الحل هو الحساب الزائد ، والذي يجعل العقد يكرر نفس عملية استدلال الذكاء الاصطناعي مرارًا وتكرارًا ، وبذلك يمكن تشغيله في بيئة غير موثوق بها لتجنب الأخطاء الفردية.
ومع ذلك ، فإن المشكلة في هذه الطريقة هي نقص شديد في رقاقات الذكاء الاصطناعي عالية المستوى. يؤدي الانتظار لعدة سنوات للحصول على رقاقات NVIDIA عالية المستوى إلى زيادة الأسعار. إذا طلبت تنفيذ الذكاء الاصطناعي في العديد من العقدات مرارًا وتكرارًا ، فسيزيد التكلفة المرتفعة بشكل مضاعف ، وهو أمر غير عملي للعديد من المشاريع.
الخيال العلمي # 3: حالات استخدام AI المحددة لـ Web3 الأخيرة
هناك من يقترح أن يكون لدى Web3 حالات استخدام AI الخاصة بها الموجهة نحو عملاء Web3. يمكن أن يكون هذا (على سبيل المثال) بروتوكول Web3 لتقييم مخاطر DeFi بواسطة AI، محفظة Web3 التي توصي المستخدمين ببروتوكولات جديدة استنادًا إلى سجل المحفظة، أو لعبة Web3 التي تستخدم AI للتحكم في الشخصيات غير اللاعبين (NPC).
حاليا، هذا هو سوق ناشئ (في الفترة القصيرة) حيث لا تزال حالات الاستخدام قيد الاستكشاف. بعض التحديات تشمل:
من وجهة نظر طويلة المدى ، نحن متفائلون للغاية بحالات استخدام الذكاء الاصطناعي الأصلي في Web3 ، خاصة مع انتشار وكلاء الذكاء الاصطناعي. نحن نتصور أن لدى أي مستخدم محدد لـ Web3 في المستقبل وكلاء ذكاء اصطناعي كبيرة تساعدهم في إكمال المهام الخاصة بهم.
الفكرة #4: DePIN بطاقة الرسومات للمستهلكين
هناك العديد من شبكات الحساب الذكية اللامركزية التي تعتمد بشكل كبير على وحدات GPU للاستهلاك بدلاً من البيانات في مراكز البيانات. تعتبر وحدات GPU للاستهلاك مناسبة للغاية لمهام التحليل الاصطناعي ذات المستوى المنخفض أو الوقت الإستجابة أو مرونة الإنتاجية والموثوقية للاستخدام الاستهلاكي. ولكن بالنسبة لحالات الاستخدام في الشركات الجادة (وهي معظم السوق الهامة) ، يحتاج العملاء إلى شبكة أكثر موثوقية وإذا كان لديهم مهام تحليلية أكثر تعقيدًا ، فعادةً ما يحتاجون إلى وحدات GPU أكثر تقدمًا. تعتبر مراكز البيانات أكثر تناسبًا لحالات الاستخدام الأكثر قيمة هذه.
يرجى ملاحظة أننا نعتقد أن وحدات المعالجة الرسومية للمستهلكين مناسبة للعروض التوضيحية والأفراد والشركات الناشئة التي يمكنها تحمل مستويات أقل من الموثوقية. ومع ذلك، فإن هذه العملاء لديهم قيمة أقل، لذلك نعتقد أن DePINs المخصصة بشكل خاص لشركات Web2 ستكون أكثر قيمة على المدى الطويل. لهذا السبب، تطور مشروع GPU DePIN من استخدام الأجهزة المستهلكة في المراحل المبكرة إلى وجود توفر A100/H100 ومستوى تجمعي.
الواقع - العملات الرقمية x تطبيقات الذكاء الاصطناعي الفعلية
الآن نناقش حالات الاستخدام التي يمكنها تقديم فوائد حقيقية. هؤلاء هم الفائزون الحقيقيون ، يمكن للعملات الرقمية x AI زيادة القيمة بشكل واضح.
الفائدة الحقيقية #1: تقديم خدمات لعملاء الويب2
تقدير ماكنزي يشير إلى أن الذكاء الاصطناعي القائم على الجيل الذي ينتجه AI سيزيد الإيرادات بما يعادل 2.6 تريليون إلى 4.4 تريليون دولار سنويًا في 63 حالة تحليلية - على سبيل المقارنة ، كان إجمالي الناتج المحلي الإجمالي للمملكة المتحدة في عام 2021 حوالي 3.1 تريليون دولار. سيزيد هذا من تأثير الذكاء الاصطناعي بنسبة 15٪ إلى 40٪. إذا أخذنا في الاعتبار تأثير الذكاء الاصطناعي القائم على الجيل الذي ينتجه AI في برامج المهام الأخرى التي تستخدم حاليًا بخلاف حالات الاستخدام ، فمن المقدر أن يزداد التأثير بمقدار ضعف.
إذا قمت بحسابها استنادًا إلى التقديرات المذكورة أعلاه، فهذا يعني أن القيمة السوقية الإجمالية للذكاء الاصطناعي (AI الفائق التوليد) على مستوى العالم قد تصل إلى عشرات الآلاف من مليارات الدولارات. ومقارنةً بذلك، فإن القيمة السوقية الإجمالية لجميع العملات المشفرة اليوم (بما في ذلك بيتكوين وجميع العملات البديلة) تبلغ فقط حوالي 2.7 تريليون دولار. لذلك، دعونا نواجه الواقع: في المدى القريب، سيكون معظم عملاء الذكاء الاصطناعي الذين يحتاجون حقًا إلى ويب2، لأن عملاء ويب3 الذين يحتاجون حقًا إلى الذكاء الاصطناعي سيشكلون فقط جزءًا صغيرًا من هذه القيمة البالغة 2.7 تريليون دولار (مع الأخذ في الاعتبار أن بيتكوين هو جزء من هذا السوق وأن بيتكوين نفسه لا يحتاج / يستخدم الذكاء الاصطناعي).
لم يبدأ استخدام Web3 AI في الأغراض العملية بعد ، ولا يزال غير واضح حجم هذا السوق. ولكن هناك شيء مؤكد - في المستقبل المتوقع ، سيشكل فقط جزءًا صغيرًا من سوق Web2. نحن نؤمن بأن Web3 AI لا يزال لديه مستقبل واعد ، ولكن هذا يعني فقط أن أقوى تطبيق لـ Web3 AI حاليًا هو خدمة عملاء Web2.
أمثلة عملاء Web2 الذين يمكن أن يستفيدوا من Web3 AI هم:
هذا هو دور العميل النسبي الاستقرار، لأن العملاء عادة ما يكونون بحجم كبير ولديهم قيمة. من غير المحتمل أن يفشلوا بسرعة، وهم يمثلون عملاء محتملين هائلين لخدمات الذكاء الاصطناعي. سيستفيد تقديم خدمات الذكاء الاصطناعي لعملاء Web2 من هذه المجموعة الاستقرارية من العملاء.
ولكن لماذا يرغب عملاء Web2 في استخدام كومة Web3؟ يوضح الجزء التالي من هذه المقالة هذا الحالة.
الفائدة الحقيقية #2: تقليل تكلفة استخدام وحدة معالجة الرسوميات من خلال GPU DePIN
GPU DePIN يجمع بين قوة الحوسبة GPU غير المستغلة بشكل كامل (التي تأتي على رأسها من مراكز البيانات) ويجعلها متاحة للتشغيل الذكي. يمكن التشبيه به بأنه ‘Airbnb في GPU’.
سبب انبهارنا بـ GPU DePIN هو نقص شرائح NVIDIA كما هو مذكور أعلاه، ووجود دورة GPU غير مستغلة حاليًا يمكن استخدامها للتحليل الذكي. يتكبد أصحاب الأجهزة هذه التكاليف الكبيرة وحاليًا لا يستغلون الأجهزة بشكل كاف، لذلك يمكن توفير أجزاء من هذه الـ GPU بتكلفة أقل بكثير مقارنةً بالوضع الحالي، لأنهم في الواقع “يجدون المال” لأصحاب الأجهزة.
أمثلة تشمل:
لاحظ، ليست جميع أجهزة معالجة الرسومات مناسبة للذكاء الاصطناعي. يعود سبب ذلك إلى عدة أسباب واضحة، بما في ذلك نقص كمية ذاكرة GPU المطلوبة لـ LLMs على الرغم من وجود بعض الابتكارات المثيرة في هذا الصدد. على سبيل المثال، تقنية Exabits يمكنها تحميل الخلايا العصبية النشطة في ذاكرة GPU وتحميل الخلايا العصبية غير النشطة في ذاكرة وحدة المعالجة المركزية. إنهم يتنبأون بأي خلايا عصبية تحتاج إلى تنشيط / عدم التنشيط. هذا يجعل من الممكن لوحدة المعالجة الرسومية ذات المستوى المنخفض معالجة أعباء العمل الخاصة بالذكاء الاصطناعي، حتى مع وجود ذاكرة GPU المحدودة. هذا يجعل وحدة المعالجة الرسومية ذات المستوى المنخفض مفيدة بشكل أكبر للذكاء الاصطناعي.
Web3 AI DePINs يجب أن تطور منتجاتها مع مرور الوقت وتقديم خدمات على مستوى الشركات مثل تسجيل الدخول الفردي وامتثال SOC 2 واتفاقية مستوى الخدمة (SLA) وما إلى ذلك. هذا يشبه الخدمات التي يقدمها مزودو خدمات السحاب الحاليون لعملاء Web2.
المنفعة الحقيقية #3: نموذج مقاوم للرقابة لتجنب رقابة OpenAI على نفسها
هناك العديد من المناقشات حول نظام المراجعة الذكية. على سبيل المثال، حظرت تركيا مؤقتًا OpenAI (ثم قامت OpenAI بزيادة التوافق وتغييرت سياستها). نعتقد أن نظام المراجعة على المستوى الوطني هو ممل، لأن الدول تحتاج إلى استخدام الذكاء الاصطناعي للحفاظ على التنافسية.
ستقوم OpenAI أيضًا بإجراء عملية المراجعة الذاتية. على سبيل المثال، لن تعالج OpenAI المحتوى الغير مناسب للعمل. كما أن OpenAI لن تتوقع الانتخابات الرئاسية التالية. نعتقد أن لحالات الاستخدام للذكاء الاصطناعي ليست ممتعة فحسب، بل هناك سوق ضخمة، ولكن لأسباب سياسية، لن يلمس OpenAI هذا السوق.
المصدر المفتوح هو حلاً جيدًا لأن مستودع Github ليس تحت تأثير المساهمين أو مجلس الإدارة. فينيس.اي هو مثال على ذلك، حيث يعد بحماية الخصوصية والتشغيل بطريقة مقاومة للرقابة. يمكن للذكاء الاصطناعي Web3 تعزيز مستواه عن طريق توفير الدعم لنماذج البرامج المفتوحة المصدر على مجموعة من وحدات معالجة الرسومات ذات التكلفة المنخفضة لتنفيذ الاستدلال. لهذه الأسباب، نعتقد أن مزيج المصدر المفتوح + Web3 هو تركيبة مثالية لتوفير الطريق للذكاء الاصطناعي المقاوم للرقابة.
الفائدة الحقيقية #4: تجنب إرسال معلومات الهوية الشخصية إلى OpenAI
لدى الشركات الكبيرة مخاوف بشأن خصوصية بياناتها الداخلية. بالنسبة لهؤلاء العملاء ، قد يكون من الصعب الثقة في أن يكون OpenAI طرفًا ثالثًا يمتلك هذه البيانات.
في Web3 ، قد يبدو أن بياناتهم الداخلية تظهر فجأة على الشبكة المركزية ، وهو أمر قد يثير قلقًا أكبر (ظاهريًا) بالنسبة لهؤلاء الشركات. ومع ذلك ، هناك ابتكار في تقنيات تعزيز الخصوصية للذكاء الاصطناعي.
البيئة الموثوقة للتنفيذ (TEE)، مثل بروتوكول سوبر
التشفير المتماثل بالكامل (FHE)، مثل Fhenix.io (شركة محفظة لصندوق استثماري تديره Hack VC) أو Inco Network (التي تدعمها Zama.ai)، بالإضافة إلى PPML لـ Bagel
لا تزال هذه التقنيات قيد التطوير المستمر، ومن خلال ASIC ZK و FHE المقبلة، ما زالت الأداء متحسنًا. ولكن الهدف الطويل الأمد هو حماية بيانات الشركات أثناء ضبط النموذج. مع ظهور هذه البروتوكولات، قد تصبح Web3 مكانًا أكثر جاذبية لحسابات AI لحماية الخصوصية.
الفائدة الحقيقية رقم 5: الاستفادة من أحدث الابتكارات في نموذج مفتوح المصدر
خلال العقود القليلة الماضية، كانت البرمجيات مفتوحة المصدر تتقدم بشكل مستمر على حصة السوق للبرمجيات الخاصة. نحن نعتبر LLM كشكل من أشكال البرمجيات الخاصة، كافٍ لتدمير OSS. أمثلة على المتحدين البارزين تشمل Llama و RWKV و Mistral.ai. مع مرور الوقت، سيكون من الواضح أن هذه القائمة ستستمر في الزيادة (يمكن العثور على قائمة أكثر شمولية في Openrouter.ai). يمكن للأشخاص أن يستفيدوا من هذه الابتكارات الجديدة من خلال استخدام Web3 AI (الذي يدعمه نماذج OSS) للابتكار.
نحن نعتقد أنه مع مرور الوقت، يمكن أن يدفع توظيف المطورين العالميين في مجال العملات الرقمية والتحفيزات المتعلقة بالعملات الرقمية نموذج الشفرة المفتوحة والأطر والوكلاء المبتكرة التي تعتمد على ذلك بشكل سريع. أحد أمثلة بروتوكول الوكيل الذكاء الصناعي هو Theoriq. يستفيد Theoriq من نموذج OSS لإنشاء شبكة وكلاء ذكاء اصطناعي قابلة للتكوين يمكن تجميعها لإنشاء حلول ذكاء اصطناعي متقدمة.
نحن متفائلون لهذا السبب بسبب أن مع مرور الوقت، معظم الابتكارات في “برمجيات المطورين” تم تجاوزها ببطء من قبل OSS. كانت مايكروسوفت شركة برمجيات خاصة في الماضي، والآن هم الشركة الرائدة في المساهمة في Github. هذا له سبب، إذا نظرت إلى Databricks وPostGresSQL وMongoDB وكيف عكست الشركات الأخرى قواعد البيانات الخاصة، فهذا مثال على OSS يقلب صناعة بأكملها، لذلك هذا المثال مقنع للغاية.
ومع ذلك، هناك مشكلة واحدة هنا. الصعوبة في نماذج اللغة الكبيرة مفتوحة المصدر (OSS LLMs) هي أن OpenAI بدأت بالفعل في التعاون مع بعض المنظمات (مثل ريديت و New York Times) لتوقيع اتفاقيات ترخيص البيانات المدفوعة. إذا استمرت هذه الاتجاهات، فقد يصبح من الأصعب على نماذج اللغة الكبيرة المفتوحة المصدر منافسة بسبب عقبات الحصول على البيانات المالية. قد تزيد Nvidia من استثماراتها في الحسابات الآمنة للمساعدة في مشاركة البيانات بأمان. الوقت سيكشف عن تطورات هذا الأمر.
الفائدة الحقيقية #6: التوافق عبر العينات العشوائية التي تقلل التكلفة أو عبر إثبات ZK
تحدى واحد في تفكير Web3 AI هو التحقق. يفترض أن المدققين لديهم فرصة للتلاعب في نتائجهم لكسب الرسوم، لذلك يعد التحقق من الاستدلال إجراءً هامًا. يرجى ملاحظة أن هذا الغش لم يحدث فعليًا بعد، حيث أن تفكير AI ما زال في مراحله الأولى، ولكن دون اتخاذ إجراءات لاحتواء هذا السلوك، فإنه لا يمكن تجنبه.
الطريقة القياسية لـ Web3 هي ال Perilous method لجعل العديد من المحققين يكررون نفس العمل ويقارنون النتائج. كما هو موضح سابقًا، فإن التحدي البارز الذي تواجهه هذه المسألة هو أن تكلفة استدعاء AI مكلفة للغاية بسبب نقص شرائح Nvidia عالية الأداء حاليًا. نظرًا لأن Web3 يمكن أن توفر استدعاءً أقل تكلفة للتفكير العميق من خلال GPU DePIN غير المستخدم بشكل كامل، فإن الحسابات الزائدة ستقلل بشكل كبير من قيمة Web3.
أحد الحلول الأكثر وعودة هو تنفيذ دليل ZK لحسابات الاستدلال الذكية خارج السلسلة. في هذه الحالة، يمكن التحقق من دليل ZK الموجز لتحديد ما إذا كان النموذج قد تم تدريبه بشكل صحيح، أو ما إذا كانت الاستدلال تعمل بشكل صحيح (المعروف باسم zkML). الأمثلة تشمل Modulus Labs و ZKonduit. نظرًا لأن عمليات ZK مكثفة الحساب، فإن أداء هذه الحلول ما زال في مراحله الأولية. ومع ذلك، نتوقع تحسن الوضع مع إصدار أجهزة ASIC ZK في المستقبل القريب.
وبشكل واعد أكثر ، فكرة “متفائلة” إلى حد ما عن نهج قائم على أخذ العينات للاستدلال الذكاء الاصطناعي. في هذا النموذج ، يجب التحقق من جزء صغير فقط من النتائج التي تم إنشاؤها بواسطة المدقق ، ولكن التكلفة الاقتصادية للقطع العميق مرتفعة بما يكفي ، إذا تم اكتشافها ، فهناك تأثير اقتصادي قوي رادع على غش المدقق. بهذه الطريقة ، يمكنك حفظ العمليات الحسابية الزائدة عن الحاجة.
واحدة من الأفكار المستقبلية الأخرى هي حلول العلامات المائية والبصمات ، مثل الحلول التي طرحتها شبكة Bagel. هذا مشابه لآلية ضمان جودة نماذج الذكاء الاصطناعي في الأجهزة الداخلية لملايين الأجهزة التي يوفرها Amazon Alexa.
فوائد حقيقية #7: توفير التكلفة من خلال OSS (أرباح OpenAI)
الفرصة التالية التي يوفرها Web3 للذكاء الاصطناعي هي ديمقراطية التكلفة. حتى الآن ، تحدثنا عن توفير تكلفة وحدة المعالجة الرسومية GPU من خلال DePIN. ولكن Web3 يوفر أيضًا فرصة لتوفير هوامش ربح خدمات الذكاء الاصطناعي المركزية في Web2 (مثل OpenAI ، التي تحققت منها عوائد سنوية تزيد عن 1 مليار دولار أمريكي في وقت كتابة هذا المقال). وتأتي هذه التوفيرات في التكلفة من حقيقة واحدة: استخدام نماذج OSS بدلاً من النماذج الخاصة لتحقيق توفيرات إضافية ، لأن صانعي النماذج لا يحاولون تحقيق الأرباح.
العديد من نماذج OSS ستظل مجانية تمامًا، مما يوفر أقصى فوائد اقتصادية للعملاء. ومع ذلك، قد تكون هناك بعض نماذج OSS تحاول أيضًا هذه الطرق لتحقيق الربح. تأكد من أن 4% فقط من جميع النماذج على Hugging Face هي تدرب بواسطة شركات لديها ميزانية لدعم التدريب على النماذج. النماذج الباقية 96% تم تدريبها من قبل المجتمع. هذه المجموعة (96% من Hugging Face) لديها تكلفة عملية أساسية (بما في ذلك تكلفة الحساب وتكلفة البيانات). لذلك، سيحتاج هذه النماذج إلى تحقيق الربح بطريقة ما.
هناك بعض الاقتراحات التي يمكن تحقيق نموذج البرمجيات مفتوحة المصدر. واحدة من أكثرها إثارة للاهتمام هي مفهوم ‘الإصدار النموذجي الأولي’، والذي يعني ترميز النموذج نفسه والاحتفاظ بجزء من العملات المشفرة للفريق وتوجيه بعض إيرادات المستقبل من النموذج إلى محتفظي العملات المشفرة، على الرغم من وجود بعض العقبات القانونية والتنظيمية في هذا الصدد.
سيحاول نموذج OSS الآخر تحقيق التحويل إلى عملة. يرجى ملاحظة أنه إذا تحقق ذلك في الواقع، فإن نموذج OSS قد يبدأ في أن يصبح أكثر شبهًا بنموذجه ربحًا في الويب2. ومع ذلك، ستنقسم السوق فعلياً إلى جزئين، حيث ستظل بعض النماذج مجانية تماماً.
الفائدة الحقيقية #8: مصدر بيانات غير مركزي
واحدة من أكبر التحديات التي تواجه الذكاء الاصطناعي هي العثور على البيانات الصحيحة لتدريب النماذج. لقد ذكرنا سابقا تحديات تدريب الذكاء الاصطناعي اللامركزي. ولكن كيف يكون استخدام شبكة الاتصال اللامركزية للحصول على البيانات (ثم استخدامها في مكان آخر للتدريب، حتى في المواقع التقليدية للويب2)؟
هذا بالضبط ما يقوم به الشركات الناشئة مثل Grass. Grass هي شبكة لامركزية تتكون من “جامعي البيانات” الذين يساهمون بقدرة معالجة الأجهزة الخاملة لمصادر البيانات لتوفير المعلومات لتدريب نماذج الذكاء الاصطناعي. بشكل عام، يمكن أن يكون هذا المصدر البيانات أفضل من مصادر البيانات الداخلية لأي شركة بسبب القوة الهائلة لشبكة العقدة الكبيرة. وهذا ليس فقط يشمل الحصول على المزيد من البيانات، ولكن أيضًا الحصول على البيانات بشكل أكثر تكرارًا لجعل البيانات أكثر صلة وأحدث. في الواقع، من الصعب جدًا منع جيش جامعي البيانات اللامركزية لأنهم بشكل أساسي لامركزيين ولا يتم الإقامة في عنوان IP واحد. كما أن لديهم شبكة يمكنها تنظيف وتوحيد البيانات لجعلها مفيدة بعد الجمع.
بعد الحصول على البيانات ، ستحتاج أيضًا إلى تخزينها في السلسلة واستخدام LLMs المُنشأة من تلك البيانات.
يرجى ملاحظة أن دور بيانات المستقبل في AI Web3 قد يتغير في المستقبل. في الوقت الحالي ، يتم استخدام نماذج التدريب المسبق لـ LLMs وتحسينها مع مرور الوقت باستخدام المزيد من البيانات. ومع ذلك ، نظرًا لأن البيانات على الإنترنت تتغير في الوقت الحقيقي ، فإن هذه النماذج دائمًا ما تكون قديمة إلى حد ما. وبالتالي ، فإن الاستنتاج الذي يتم إجراؤه بواسطة LLMs غير دقيق بعض الشيء.
يمكن أن يكون اتجاه التطور المستقبلي نوعًا جديدًا من البارادايم - البيانات “الحية”. هذا المفهوم هو أنه عندما يُطلب من نموذج اللغة الكبير (LLM) حل مشكلة استدلال، يمكن لـ LLM نقل الدلائل وحقن البيانات من خلال التلميحات، وهذه البيانات مجمعة في الوقت الحقيقي من الإنترنت. وبهذه الطريقة، يمكن لـ LLM استخدام أحدث البيانات. يعمل فريق Grass حاليًا على البحث في هذا الجانب من المحتوى.
نود أن نقدم شكر خاص للأشخاص التالية على ملاحظاتهم ومساعدتهم في هذا المقال: ألبرت كاستيلانا، جاسبر زانغ، فاسيليس تزيوكاس، بيدان روي، ريزو، فينسنت وايسر، شاشانك ياداف، علي حسين، نوكري باشارولي، عماد مستك، ديفيد مينارش، تومي شونيسي، مايكل هاينريش، كيكاك وونغ، مارك وينستين، فيليب بونيللو، جيف أميكو، إجاز أحمدين، إيفان فنغ، جو وانغ.