الذكاء الاصطناعي × العملات الرقمية: من الصفر إلى القمة
المقدمة
يعتبر البعض أن التطورات الأخيرة في صناعة الذكاء الاصطناعي هي الثورة الصناعية الرابعة. لقد عزز ظهور النماذج الكبيرة الكفاءة في مختلف الصناعات، حيث أفيد أن GPT قد زادت من كفاءة العمل في الولايات المتحدة بنحو 20%. في الوقت نفسه، تعتبر القدرة على التعميم التي تجلبها النماذج الكبيرة نموذج تصميم برمجي جديد، مقارنةً بتصميم الشيفرة الدقيقة في الماضي، فإن تصميم البرمجيات الآن يعتمد أكثر على دمج إطار النماذج الكبيرة في البرمجيات، مما يجعل البرمجيات تتمتع بأداء أفضل وتدعم مدخلات ومخرجات أكثر تنوعًا. لقد جلبت تقنيات التعلم العميق بالفعل ازدهارًا رابعًا لصناعة الذكاء الاصطناعي، وقد انتشرت هذه الموجة أيضًا إلى صناعة العملات المشفرة.
ستتناول هذه التقرير بالتفصيل تاريخ تطور صناعة الذكاء الاصطناعي، وتصنيفات التكنولوجيا، وتأثير اختراع تقنية التعلم العميق على الصناعة. ثم سيتم تحليل شامل لسلسلة القيمة المتعلقة بالتعلم العميق، بما في ذلك وحدات المعالجة الرسومية، والحوسبة السحابية، ومصادر البيانات، والأجهزة الطرفية، وكذلك الوضع الحالي والاتجاهات. بعد ذلك، سيتم مناقشة العلاقة الجوهرية بين صناعة العملات المشفرة وصناعة الذكاء الاصطناعي بالتفصيل، وسيتم استعراض هيكل سلسلة القيمة المتعلقة بالذكاء الاصطناعي المرتبط بالعملات المشفرة.
بدأت صناعة الذكاء الاصطناعي منذ خمسينيات القرن العشرين، ومن أجل تحقيق رؤية الذكاء الاصطناعي، طورت الأوساط الأكاديمية والصناعية في عصور مختلفة ومن خلفيات تخصصية متنوعة، العديد من المدارس لتحقيق الذكاء الاصطناعي.
تستخدم تقنيات الذكاء الاصطناعي الحديثة بشكل أساسي مصطلح "تعلم الآلة"، وتتمثل فكرة هذه التقنية في جعل الآلات تعتمد على البيانات للتكرار المتكرر في المهام من أجل تحسين أداء النظام. الخطوات الرئيسية هي إرسال البيانات إلى الخوارزمية، واستخدام هذه البيانات لتدريب النموذج، واختبار النموذج ونشره، واستخدام النموذج لإكمال مهام التوقع التلقائي.
توجد حاليًا ثلاثة مدارس رئيسية في تعلم الآلة، وهي الاتصال، والرمزية، والسلوكية، والتي تحاكي على التوالي النظام العصبي البشري، والتفكير، والسلوك.
حاليًا، تحتل الشبكات العصبية، التي تمثلها الاتحادية، الصدارة ( والمعروفة أيضًا بالتعلم العميق )، والسبب الرئيسي هو أن هذه البنية تحتوي على طبقة إدخال وطبقة إخراج، ولكن لديها عدة طبقات مخفية. بمجرد أن يصبح عدد الطبقات والعصبيين ( وبارامتراتها ) كبيرًا بما يكفي، سيكون هناك فرص كافية لتناسب المهام العامة المعقدة. من خلال إدخال البيانات، يمكن تعديل بارامترات العصبيين باستمرار، وفي النهاية، بعد إجراء العديد من التعديلات على البيانات، سيصل هذا العصبي إلى حالة مثالية ( بارامترات )، وهذا هو ما يسمى بالجهد الكبير يؤدي إلى معجزات، وهو أيضًا أصل كلمة "عميق" - عدد كافٍ من الطبقات والعصبيين.
على سبيل المثال، يمكن فهمه ببساطة على أنه بناء دالة، حيث إذا أدخلنا X=2، فإن Y=3؛ وعندما X=3، فإن Y=5. إذا أردنا أن تتعامل هذه الدالة مع جميع القيم X، فسيتعين علينا إضافة درجة هذه الدالة ومعاملاتها باستمرار. على سبيل المثال، يمكنني في هذه اللحظة بناء دالة تلبي هذا الشرط وهي Y = 2X - 1، ولكن إذا كانت هناك بيانات X=2، Y=11، فسيتعين علينا إعادة بناء دالة تناسب هذه النقاط الثلاث. باستخدام GPU للقيام بكسر عنيف، نجد أن Y = X2 - 3X + 5 تتناسب بشكل جيد، لكن لا يتعين أن تتطابق تمامًا مع البيانات، يكفي أن تلتزم بالتوازن وتكون المخرجات مشابهة بشكل عام. هنا، X2 و X و X0 تمثل خلايا عصبية مختلفة، بينما 1 و -3 و 5 هي معاملاتها.
في هذه الحالة، إذا قمنا بإدخال كمية كبيرة من البيانات إلى الشبكة العصبية، يمكننا زيادة عدد الخلايا العصبية وتكرار المعلمات لتناسب البيانات الجديدة. وبهذه الطريقة يمكننا ملاءمة جميع البيانات.
تستند تقنيات التعلم العميق المعتمدة على الشبكات العصبية إلى عدة تكرارات وتطورات تقنية، مثل الشبكات العصبية المبكرة، والشبكات العصبية التوصيلية، وRNN، وCNN، وGAN، وأخيرًا تطورت إلى النماذج الكبيرة الحديثة مثل تقنيات Transformer المستخدمة في GPT، حيث تعتبر تقنية Transformer مجرد اتجاه تطوري من الشبكات العصبية، حيث تمت إضافة محول ( Transformer )، لتحويل جميع الأنماط ( مثل الصوت والفيديو والصور، إلى قيم رقمية تمثل البيانات المقابلة. ثم يتم إدخالها إلى الشبكات العصبية، مما يسمح للشبكات العصبية بتقليد أي نوع من البيانات، مما يحقق تعدد الأنماط.
! [الوافد الجديد Science Popular 丨الذكاء الاصطناعي x Crypto: من الصفر إلى الذروة])https://img-cdn.gateio.im/webp-social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c.webp019283746574839201
تطورت الذكاء الاصطناعي على ثلاث موجات تكنولوجية، كانت الموجة الأولى في الستينات من القرن العشرين، بعد عشر سنوات من تقديم تقنيات الذكاء الاصطناعي، وكانت هذه الموجة نتيجة لتطور تقنيات الرمزية، التي حلّت مشكلات معالجة اللغة الطبيعية العامة والحوار بين الإنسان والآلة. في نفس الفترة، وُلِد نظام الخبراء، وهو نظام DENRAL الذي تم إنجازه تحت إشراف جامعة ستانفورد ووكالة الفضاء الأمريكية، حيث يمتلك هذا النظام معرفة كيميائية قوية جداً، ويستنتج الإجابات من خلال الأسئلة كما يفعل خبير الكيمياء، ويمكن اعتبار هذا النظام الخبير في الكيمياء بمثابة دمج لقاعدة المعرفة الكيميائية ونظام الاستدلال.
بعد نظام الخبراء، قدم العالم والفيلسوف الأمريكي من أصل إسرائيلي جوديا بيرل( Judea Pearl) في التسعينيات الشبكات البايزية، والتي تُعرف أيضًا بشبكات المعتقدات. في نفس الفترة، قدم بروكس علم الروبوتات القائم على السلوك، مما يشير إلى ولادة السلوكية.
في عام 1997، هزم "بلو" من آي بي إم بواقع 3.5:2.5 بطل الشطرنج كاسباروف(Kasparov)، وقد اعتُبر هذا الانتصار علامة بارزة في مجال الذكاء الاصطناعي، حيث شهدت التقنيات الذكية ذروة ثانية من التطور.
حدثت الموجة الثالثة من تكنولوجيا الذكاء الاصطناعي في عام 2006. قدم ثلاثة من عمالقة التعلم العميق، يان ليكون، وجيفري هينتون، ويوشوا بينجيو، مفهوم التعلم العميق، وهو خوارزمية تعتمد على الشبكات العصبية الاصطناعية لتعلم تمثيلات البيانات. بعد ذلك، تطورت خوارزميات التعلم العميق تدريجياً، من RNN وGAN إلى Transformer وStable Diffusion، حيث شكلت هذين الخوارزميتين معاً هذه الموجة التقنية الثالثة، وكانت هذه أيضاً فترة ازدهار الاتصال.
ظهرت العديد من الأحداث البارزة جنبًا إلى جنب مع استكشاف وتطور تقنيات التعلم العميق، بما في ذلك:
في عام 2011، هزم واتسون( من IBM البشر وحقق البطولة في برنامج اختبار《خطر》).
في عام 2014، قدم غودفيلو شبكة الخصومة التوليدية GAN(، Generative Adversarial Network)، التي من خلال السماح لشبكتين عصبيتين بالتنافس ضد بعضهما البعض، يمكنها إنتاج صور تبدو واقعية. في الوقت نفسه، كتب غودفيلو كتابًا بعنوان "Deep Learning"، المعروف باسم الكتاب الزهري، وهو واحد من الكتب الأساسية المهمة في مجال التعلم العميق.
في عام 2015، قدم هينتون وزملاؤه خوارزمية التعلم العميق في مجلة "Nature"، وقد أثار تقديم هذه الطريقة في التعلم العميق ردود فعل كبيرة على الفور في الأوساط الأكاديمية والصناعية.
في عام 2015، تم تأسيس OpenAI، حيث أعلن ماسك ورئيس Y Combinator آلتمن والمستثمر الملائكي بيتر ثيل ( وآخرون عن استثمار مشترك قدره مليار دولار.
في عام 2016، خاضت AlphaGo المعتمدة على تقنية التعلم العميق معركة شطرنج ضد بطل العالم في الشطرنج، لاعب الشطرنج المحترف من الدرجة التاسعة لي شيتشي، وحققت الفوز بنتيجة 4 إلى 1.
في عام 2017، طورت شركة هانسون روبوتيكس في هونغ كونغ )Hanson Robotics( الروبوت الشبيه بالبشر صوفيا، الذي يُعتبر أول روبوت يحصل على صفة مواطن من الدرجة الأولى في التاريخ، ويتميز بتعبيرات وجهية غنية وقدرة على فهم اللغة البشرية.
في عام 2017، أصدرت Google، التي تمتلك موهبة غنية واحتياطي تقني في مجال الذكاء الاصطناعي، ورقة بحثية بعنوان "Attention is all you need" وقدمت خوارزمية Transformer، وبدأت نماذج اللغة الكبيرة في الظهور.
في عام 2018، أصدرت OpenAI نموذج GPT)Generative Pre-trained Transformer( المبني على خوارزمية Transformer، وهو واحد من أكبر نماذج اللغة في ذلك الوقت.
في عام 2018، أصدرت فريق Google Deepmind AlphaGo القائم على التعلم العميق، والذي يمكنه التنبؤ بهياكل البروتين، ويعتبر علامة بارزة في تقدم مجال الذكاء الاصطناعي.
في عام 2019 ، أصدرت OpenAI نموذج GPT-2 ، الذي يحتوي على 1.5 مليار معلمة.
في عام 2020، طورت OpenAI نموذج GPT-3، الذي يحتوي على 175 مليار معلمة، مما يجعله أعلى بمئة مرة من الإصدار السابق GPT-2، حيث تم استخدام 570 جيجابايت من النصوص لتدريبه، ويمكنه تحقيق أداء متقدم في العديد من مهام معالجة اللغة الطبيعية)، مثل الإجابة على الأسئلة، والترجمة، وكتابة المقالات(.
في عام 2021، أصدرت OpenAI نموذج GPT-4، الذي يحتوي على 1.76 تريليون معلمة، أي عشرة أضعاف نموذج GPT-3.
تم إطلاق تطبيق ChatGPT القائم على نموذج GPT-4 في يناير 2023، وفي مارس وصل عدد مستخدمي ChatGPT إلى مئة مليون، ليصبح التطبيق الأسرع في التاريخ للوصول إلى مئة مليون مستخدم.
في عام 2024، أطلقت OpenAI GPT-4 omni.
ملحوظة: نظرًا لوجود العديد من الأوراق البحثية حول الذكاء الاصطناعي، والعديد من المدارس، وتطور تقني متفاوت، فإننا هنا نتبع بشكل أساسي تاريخ تطور التعلم العميق أو الربطية، بينما لا تزال المدارس والتقنيات الأخرى في مرحلة تطور سريع.
! [علم الوافد الجديد 丨الذكاء الاصطناعي x التشفير: من الصفر إلى الذروة])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(
سلسلة صناعة التعلم العميق
تستخدم النماذج اللغوية الكبيرة الحالية طرق التعلم العميق المبنية على الشبكات العصبية. وقد أدت النماذج الكبيرة التي تقودها GPT إلى موجة من الذكاء الاصطناعي، حيث تدفق عدد كبير من اللاعبين إلى هذا المجال، وقد اكتشفنا أيضًا أن السوق قد شهد انفجارًا كبيرًا في الطلب على البيانات وقوة الحوسبة، لذلك في هذا الجزء من التقرير، نستكشف بشكل رئيسي سلسلة الصناعة لخوارزميات التعلم العميق، وكيف تتكون سلسلة التوريد والطلب في صناعة الذكاء الاصطناعي التي تهيمن عليها خوارزميات التعلم العميق، بالإضافة إلى حالة السلسلة والعلاقة بين العرض والطلب، وكيف سيبدو المستقبل.
أولاً، يجب أن نتضح أنه عند تدريب النماذج الكبيرة المدعومة بتقنية Transformer مثل GPT)، يتم تقسيم العملية إلى ثلاث خطوات.
قبل التدريب، وبما أنه يعتمد على Transformer، يحتاج المحول إلى تحويل نص الإدخال إلى قيم عددية، وتسمى هذه العملية "Tokenization"، وبعد ذلك تُعرف هذه القيم العددية باسم Token. وفقًا للقواعد العامة، يمكن اعتبار كلمة أو حرف إنجليزي تقريبًا كـ Token واحد، بينما يمكن اعتبار كل حرف صيني تقريبًا كـ Tokenين. هذه هي الوحدة الأساسية المستخدمة في التسعير لـ GPT.
الخطوة الأولى، التدريب المسبق. من خلال تزويد طبقة الإدخال بعدد كافٍ من أزواج البيانات، مشابهة لتلك المذكورة في الجزء الأول من التقرير (X,Y)، للبحث عن أفضل معلمات لكل عصبون في هذا النموذج، سيكون هناك حاجة إلى كمية كبيرة من البيانات في هذا الوقت، وهذه العملية هي أيضًا الأكثر استهلاكًا لقوة الحوسبة، لأنها تتطلب تكرارًا مستمرًا لعصبونات التجربة مع معلمات مختلفة. بعد إكمال تدريب مجموعة من أزواج البيانات، عادةً ما يتم استخدام نفس مجموعة البيانات لإجراء تدريب ثانٍ لتكرار المعلمات.
الخطوة الثانية، التعديل الدقيق. التعديل الدقيق هو إعطاء دفعة صغيرة ولكن ذات جودة عالية من البيانات للتدريب، وهذا النوع من التغييرات سيؤدي إلى تحسين جودة مخرجات النموذج، لأن التدريب المسبق يحتاج إلى كميات كبيرة من البيانات، ولكن قد تحتوي الكثير من البيانات على أخطاء أو جودة منخفضة. خطوة التعديل الدقيق قادرة على تحسين جودة النموذج من خلال البيانات عالية الجودة.
الخطوة الثالثة، التعلم المعزز. أولاً، سيتم إنشاء نموذج جديد بالكامل، نسميه "نموذج المكافأة"، والغرض من هذا النموذج بسيط جداً، وهو تصنيف النتائج الناتجة، لذلك سيكون من السهل تحقيق هذا النموذج، لأن سيناريو العمل أكثر تخصصًا. بعد ذلك، يستخدم هذا النموذج لتحديد ما إذا كانت مخرجات النموذج الكبير لدينا عالية الجودة، وبالتالي يمكن استخدام نموذج المكافأة لتكرار معلمات النموذج الكبير تلقائيًا. ( ولكن في بعض الأحيان، يتطلب الأمر أيضًا مشاركة بشرية لتقييم جودة مخرجات النموذج ).
باختصار، في عملية تدريب النموذج الكبير، هناك متطلبات عالية جدًا على كمية البيانات أثناء التدريب المسبق، كما أن قوة معالجة GPU المطلوبة هي الأعلى، بينما يتطلب التعديل الدقيق بيانات ذات جودة أعلى لتحسين المعلمات، ويمكن أن يقوم التعلم المعزز بتكرار المعلمات من خلال نموذج مكافأة لإنتاج نتائج ذات جودة أعلى.
أثناء عملية التدريب، كلما زاد عدد المعلمات، زادت قدرة النموذج على التعميم، على سبيل المثال في مثال الدالة Y = aX + b، يوجد في الواقع اثنان من الخلايا العصبية X و X0، وبالتالي فإن كيفية تغير المعلمات تحد من البيانات التي يمكن أن يتناسب معها، لأنها في جوهرها لا تزال خطًا مستقيمًا. إذا زاد عدد الخلايا العصبية، فيمكننا تكرار المزيد من المعلمات، وبالتالي يمكننا التناسب مع المزيد من البيانات، وهذا هو السبب في أن النماذج الكبيرة تحقق معجزات، وهذا أيضًا هو السبب في تسمية النماذج الكبيرة بشكل شائع، حيث إن جوهرها هو عدد هائل من الخلايا العصبية والمعلمات، وكمية هائلة من البيانات، وفي الوقت نفسه تحتاج إلى قدر هائل من القوة الحاسوبية.
لذلك، يؤثر أداء النماذج الكبيرة بشكل رئيسي على ثلاثة جوانب: عدد المعلمات، حجم وجودة البيانات، وقوة الحوسبة. هذه العناصر الثلاثة تؤثر بشكل مشترك على جودة نتائج النموذج وقدرته على التعميم. لنفترض أن عدد المعلمات هو p، وحجم البيانات هو n( محسوبًا بعدد الرموز)، يمكننا بعد ذلك حساب كمية الحوسبة المطلوبة بناءً على القواعد التجريبية العامة.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
الذكاء الاصطناعي والأصول الرقمية: من تطور التكنولوجيا إلى تحليل شامل للنظام الصناعي
الذكاء الاصطناعي × العملات الرقمية: من الصفر إلى القمة
المقدمة
يعتبر البعض أن التطورات الأخيرة في صناعة الذكاء الاصطناعي هي الثورة الصناعية الرابعة. لقد عزز ظهور النماذج الكبيرة الكفاءة في مختلف الصناعات، حيث أفيد أن GPT قد زادت من كفاءة العمل في الولايات المتحدة بنحو 20%. في الوقت نفسه، تعتبر القدرة على التعميم التي تجلبها النماذج الكبيرة نموذج تصميم برمجي جديد، مقارنةً بتصميم الشيفرة الدقيقة في الماضي، فإن تصميم البرمجيات الآن يعتمد أكثر على دمج إطار النماذج الكبيرة في البرمجيات، مما يجعل البرمجيات تتمتع بأداء أفضل وتدعم مدخلات ومخرجات أكثر تنوعًا. لقد جلبت تقنيات التعلم العميق بالفعل ازدهارًا رابعًا لصناعة الذكاء الاصطناعي، وقد انتشرت هذه الموجة أيضًا إلى صناعة العملات المشفرة.
ستتناول هذه التقرير بالتفصيل تاريخ تطور صناعة الذكاء الاصطناعي، وتصنيفات التكنولوجيا، وتأثير اختراع تقنية التعلم العميق على الصناعة. ثم سيتم تحليل شامل لسلسلة القيمة المتعلقة بالتعلم العميق، بما في ذلك وحدات المعالجة الرسومية، والحوسبة السحابية، ومصادر البيانات، والأجهزة الطرفية، وكذلك الوضع الحالي والاتجاهات. بعد ذلك، سيتم مناقشة العلاقة الجوهرية بين صناعة العملات المشفرة وصناعة الذكاء الاصطناعي بالتفصيل، وسيتم استعراض هيكل سلسلة القيمة المتعلقة بالذكاء الاصطناعي المرتبط بالعملات المشفرة.
! علم الوافد الجديد 丨 الذكاء الاصطناعي x التشفير: من الصفر إلى الذروة
تاريخ تطور صناعة الذكاء الاصطناعي
بدأت صناعة الذكاء الاصطناعي منذ خمسينيات القرن العشرين، ومن أجل تحقيق رؤية الذكاء الاصطناعي، طورت الأوساط الأكاديمية والصناعية في عصور مختلفة ومن خلفيات تخصصية متنوعة، العديد من المدارس لتحقيق الذكاء الاصطناعي.
تستخدم تقنيات الذكاء الاصطناعي الحديثة بشكل أساسي مصطلح "تعلم الآلة"، وتتمثل فكرة هذه التقنية في جعل الآلات تعتمد على البيانات للتكرار المتكرر في المهام من أجل تحسين أداء النظام. الخطوات الرئيسية هي إرسال البيانات إلى الخوارزمية، واستخدام هذه البيانات لتدريب النموذج، واختبار النموذج ونشره، واستخدام النموذج لإكمال مهام التوقع التلقائي.
توجد حاليًا ثلاثة مدارس رئيسية في تعلم الآلة، وهي الاتصال، والرمزية، والسلوكية، والتي تحاكي على التوالي النظام العصبي البشري، والتفكير، والسلوك.
حاليًا، تحتل الشبكات العصبية، التي تمثلها الاتحادية، الصدارة ( والمعروفة أيضًا بالتعلم العميق )، والسبب الرئيسي هو أن هذه البنية تحتوي على طبقة إدخال وطبقة إخراج، ولكن لديها عدة طبقات مخفية. بمجرد أن يصبح عدد الطبقات والعصبيين ( وبارامتراتها ) كبيرًا بما يكفي، سيكون هناك فرص كافية لتناسب المهام العامة المعقدة. من خلال إدخال البيانات، يمكن تعديل بارامترات العصبيين باستمرار، وفي النهاية، بعد إجراء العديد من التعديلات على البيانات، سيصل هذا العصبي إلى حالة مثالية ( بارامترات )، وهذا هو ما يسمى بالجهد الكبير يؤدي إلى معجزات، وهو أيضًا أصل كلمة "عميق" - عدد كافٍ من الطبقات والعصبيين.
على سبيل المثال، يمكن فهمه ببساطة على أنه بناء دالة، حيث إذا أدخلنا X=2، فإن Y=3؛ وعندما X=3، فإن Y=5. إذا أردنا أن تتعامل هذه الدالة مع جميع القيم X، فسيتعين علينا إضافة درجة هذه الدالة ومعاملاتها باستمرار. على سبيل المثال، يمكنني في هذه اللحظة بناء دالة تلبي هذا الشرط وهي Y = 2X - 1، ولكن إذا كانت هناك بيانات X=2، Y=11، فسيتعين علينا إعادة بناء دالة تناسب هذه النقاط الثلاث. باستخدام GPU للقيام بكسر عنيف، نجد أن Y = X2 - 3X + 5 تتناسب بشكل جيد، لكن لا يتعين أن تتطابق تمامًا مع البيانات، يكفي أن تلتزم بالتوازن وتكون المخرجات مشابهة بشكل عام. هنا، X2 و X و X0 تمثل خلايا عصبية مختلفة، بينما 1 و -3 و 5 هي معاملاتها.
في هذه الحالة، إذا قمنا بإدخال كمية كبيرة من البيانات إلى الشبكة العصبية، يمكننا زيادة عدد الخلايا العصبية وتكرار المعلمات لتناسب البيانات الجديدة. وبهذه الطريقة يمكننا ملاءمة جميع البيانات.
تستند تقنيات التعلم العميق المعتمدة على الشبكات العصبية إلى عدة تكرارات وتطورات تقنية، مثل الشبكات العصبية المبكرة، والشبكات العصبية التوصيلية، وRNN، وCNN، وGAN، وأخيرًا تطورت إلى النماذج الكبيرة الحديثة مثل تقنيات Transformer المستخدمة في GPT، حيث تعتبر تقنية Transformer مجرد اتجاه تطوري من الشبكات العصبية، حيث تمت إضافة محول ( Transformer )، لتحويل جميع الأنماط ( مثل الصوت والفيديو والصور، إلى قيم رقمية تمثل البيانات المقابلة. ثم يتم إدخالها إلى الشبكات العصبية، مما يسمح للشبكات العصبية بتقليد أي نوع من البيانات، مما يحقق تعدد الأنماط.
! [الوافد الجديد Science Popular 丨الذكاء الاصطناعي x Crypto: من الصفر إلى الذروة])https://img-cdn.gateio.im/webp-social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c.webp019283746574839201
تطورت الذكاء الاصطناعي على ثلاث موجات تكنولوجية، كانت الموجة الأولى في الستينات من القرن العشرين، بعد عشر سنوات من تقديم تقنيات الذكاء الاصطناعي، وكانت هذه الموجة نتيجة لتطور تقنيات الرمزية، التي حلّت مشكلات معالجة اللغة الطبيعية العامة والحوار بين الإنسان والآلة. في نفس الفترة، وُلِد نظام الخبراء، وهو نظام DENRAL الذي تم إنجازه تحت إشراف جامعة ستانفورد ووكالة الفضاء الأمريكية، حيث يمتلك هذا النظام معرفة كيميائية قوية جداً، ويستنتج الإجابات من خلال الأسئلة كما يفعل خبير الكيمياء، ويمكن اعتبار هذا النظام الخبير في الكيمياء بمثابة دمج لقاعدة المعرفة الكيميائية ونظام الاستدلال.
بعد نظام الخبراء، قدم العالم والفيلسوف الأمريكي من أصل إسرائيلي جوديا بيرل( Judea Pearl) في التسعينيات الشبكات البايزية، والتي تُعرف أيضًا بشبكات المعتقدات. في نفس الفترة، قدم بروكس علم الروبوتات القائم على السلوك، مما يشير إلى ولادة السلوكية.
في عام 1997، هزم "بلو" من آي بي إم بواقع 3.5:2.5 بطل الشطرنج كاسباروف(Kasparov)، وقد اعتُبر هذا الانتصار علامة بارزة في مجال الذكاء الاصطناعي، حيث شهدت التقنيات الذكية ذروة ثانية من التطور.
حدثت الموجة الثالثة من تكنولوجيا الذكاء الاصطناعي في عام 2006. قدم ثلاثة من عمالقة التعلم العميق، يان ليكون، وجيفري هينتون، ويوشوا بينجيو، مفهوم التعلم العميق، وهو خوارزمية تعتمد على الشبكات العصبية الاصطناعية لتعلم تمثيلات البيانات. بعد ذلك، تطورت خوارزميات التعلم العميق تدريجياً، من RNN وGAN إلى Transformer وStable Diffusion، حيث شكلت هذين الخوارزميتين معاً هذه الموجة التقنية الثالثة، وكانت هذه أيضاً فترة ازدهار الاتصال.
ظهرت العديد من الأحداث البارزة جنبًا إلى جنب مع استكشاف وتطور تقنيات التعلم العميق، بما في ذلك:
في عام 2011، هزم واتسون( من IBM البشر وحقق البطولة في برنامج اختبار《خطر》).
في عام 2014، قدم غودفيلو شبكة الخصومة التوليدية GAN(، Generative Adversarial Network)، التي من خلال السماح لشبكتين عصبيتين بالتنافس ضد بعضهما البعض، يمكنها إنتاج صور تبدو واقعية. في الوقت نفسه، كتب غودفيلو كتابًا بعنوان "Deep Learning"، المعروف باسم الكتاب الزهري، وهو واحد من الكتب الأساسية المهمة في مجال التعلم العميق.
في عام 2015، قدم هينتون وزملاؤه خوارزمية التعلم العميق في مجلة "Nature"، وقد أثار تقديم هذه الطريقة في التعلم العميق ردود فعل كبيرة على الفور في الأوساط الأكاديمية والصناعية.
في عام 2015، تم تأسيس OpenAI، حيث أعلن ماسك ورئيس Y Combinator آلتمن والمستثمر الملائكي بيتر ثيل ( وآخرون عن استثمار مشترك قدره مليار دولار.
في عام 2016، خاضت AlphaGo المعتمدة على تقنية التعلم العميق معركة شطرنج ضد بطل العالم في الشطرنج، لاعب الشطرنج المحترف من الدرجة التاسعة لي شيتشي، وحققت الفوز بنتيجة 4 إلى 1.
في عام 2017، طورت شركة هانسون روبوتيكس في هونغ كونغ )Hanson Robotics( الروبوت الشبيه بالبشر صوفيا، الذي يُعتبر أول روبوت يحصل على صفة مواطن من الدرجة الأولى في التاريخ، ويتميز بتعبيرات وجهية غنية وقدرة على فهم اللغة البشرية.
في عام 2017، أصدرت Google، التي تمتلك موهبة غنية واحتياطي تقني في مجال الذكاء الاصطناعي، ورقة بحثية بعنوان "Attention is all you need" وقدمت خوارزمية Transformer، وبدأت نماذج اللغة الكبيرة في الظهور.
في عام 2018، أصدرت OpenAI نموذج GPT)Generative Pre-trained Transformer( المبني على خوارزمية Transformer، وهو واحد من أكبر نماذج اللغة في ذلك الوقت.
في عام 2018، أصدرت فريق Google Deepmind AlphaGo القائم على التعلم العميق، والذي يمكنه التنبؤ بهياكل البروتين، ويعتبر علامة بارزة في تقدم مجال الذكاء الاصطناعي.
في عام 2019 ، أصدرت OpenAI نموذج GPT-2 ، الذي يحتوي على 1.5 مليار معلمة.
في عام 2020، طورت OpenAI نموذج GPT-3، الذي يحتوي على 175 مليار معلمة، مما يجعله أعلى بمئة مرة من الإصدار السابق GPT-2، حيث تم استخدام 570 جيجابايت من النصوص لتدريبه، ويمكنه تحقيق أداء متقدم في العديد من مهام معالجة اللغة الطبيعية)، مثل الإجابة على الأسئلة، والترجمة، وكتابة المقالات(.
في عام 2021، أصدرت OpenAI نموذج GPT-4، الذي يحتوي على 1.76 تريليون معلمة، أي عشرة أضعاف نموذج GPT-3.
تم إطلاق تطبيق ChatGPT القائم على نموذج GPT-4 في يناير 2023، وفي مارس وصل عدد مستخدمي ChatGPT إلى مئة مليون، ليصبح التطبيق الأسرع في التاريخ للوصول إلى مئة مليون مستخدم.
في عام 2024، أطلقت OpenAI GPT-4 omni.
ملحوظة: نظرًا لوجود العديد من الأوراق البحثية حول الذكاء الاصطناعي، والعديد من المدارس، وتطور تقني متفاوت، فإننا هنا نتبع بشكل أساسي تاريخ تطور التعلم العميق أو الربطية، بينما لا تزال المدارس والتقنيات الأخرى في مرحلة تطور سريع.
! [علم الوافد الجديد 丨الذكاء الاصطناعي x التشفير: من الصفر إلى الذروة])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(
سلسلة صناعة التعلم العميق
تستخدم النماذج اللغوية الكبيرة الحالية طرق التعلم العميق المبنية على الشبكات العصبية. وقد أدت النماذج الكبيرة التي تقودها GPT إلى موجة من الذكاء الاصطناعي، حيث تدفق عدد كبير من اللاعبين إلى هذا المجال، وقد اكتشفنا أيضًا أن السوق قد شهد انفجارًا كبيرًا في الطلب على البيانات وقوة الحوسبة، لذلك في هذا الجزء من التقرير، نستكشف بشكل رئيسي سلسلة الصناعة لخوارزميات التعلم العميق، وكيف تتكون سلسلة التوريد والطلب في صناعة الذكاء الاصطناعي التي تهيمن عليها خوارزميات التعلم العميق، بالإضافة إلى حالة السلسلة والعلاقة بين العرض والطلب، وكيف سيبدو المستقبل.
أولاً، يجب أن نتضح أنه عند تدريب النماذج الكبيرة المدعومة بتقنية Transformer مثل GPT)، يتم تقسيم العملية إلى ثلاث خطوات.
قبل التدريب، وبما أنه يعتمد على Transformer، يحتاج المحول إلى تحويل نص الإدخال إلى قيم عددية، وتسمى هذه العملية "Tokenization"، وبعد ذلك تُعرف هذه القيم العددية باسم Token. وفقًا للقواعد العامة، يمكن اعتبار كلمة أو حرف إنجليزي تقريبًا كـ Token واحد، بينما يمكن اعتبار كل حرف صيني تقريبًا كـ Tokenين. هذه هي الوحدة الأساسية المستخدمة في التسعير لـ GPT.
الخطوة الأولى، التدريب المسبق. من خلال تزويد طبقة الإدخال بعدد كافٍ من أزواج البيانات، مشابهة لتلك المذكورة في الجزء الأول من التقرير (X,Y)، للبحث عن أفضل معلمات لكل عصبون في هذا النموذج، سيكون هناك حاجة إلى كمية كبيرة من البيانات في هذا الوقت، وهذه العملية هي أيضًا الأكثر استهلاكًا لقوة الحوسبة، لأنها تتطلب تكرارًا مستمرًا لعصبونات التجربة مع معلمات مختلفة. بعد إكمال تدريب مجموعة من أزواج البيانات، عادةً ما يتم استخدام نفس مجموعة البيانات لإجراء تدريب ثانٍ لتكرار المعلمات.
الخطوة الثانية، التعديل الدقيق. التعديل الدقيق هو إعطاء دفعة صغيرة ولكن ذات جودة عالية من البيانات للتدريب، وهذا النوع من التغييرات سيؤدي إلى تحسين جودة مخرجات النموذج، لأن التدريب المسبق يحتاج إلى كميات كبيرة من البيانات، ولكن قد تحتوي الكثير من البيانات على أخطاء أو جودة منخفضة. خطوة التعديل الدقيق قادرة على تحسين جودة النموذج من خلال البيانات عالية الجودة.
الخطوة الثالثة، التعلم المعزز. أولاً، سيتم إنشاء نموذج جديد بالكامل، نسميه "نموذج المكافأة"، والغرض من هذا النموذج بسيط جداً، وهو تصنيف النتائج الناتجة، لذلك سيكون من السهل تحقيق هذا النموذج، لأن سيناريو العمل أكثر تخصصًا. بعد ذلك، يستخدم هذا النموذج لتحديد ما إذا كانت مخرجات النموذج الكبير لدينا عالية الجودة، وبالتالي يمكن استخدام نموذج المكافأة لتكرار معلمات النموذج الكبير تلقائيًا. ( ولكن في بعض الأحيان، يتطلب الأمر أيضًا مشاركة بشرية لتقييم جودة مخرجات النموذج ).
باختصار، في عملية تدريب النموذج الكبير، هناك متطلبات عالية جدًا على كمية البيانات أثناء التدريب المسبق، كما أن قوة معالجة GPU المطلوبة هي الأعلى، بينما يتطلب التعديل الدقيق بيانات ذات جودة أعلى لتحسين المعلمات، ويمكن أن يقوم التعلم المعزز بتكرار المعلمات من خلال نموذج مكافأة لإنتاج نتائج ذات جودة أعلى.
أثناء عملية التدريب، كلما زاد عدد المعلمات، زادت قدرة النموذج على التعميم، على سبيل المثال في مثال الدالة Y = aX + b، يوجد في الواقع اثنان من الخلايا العصبية X و X0، وبالتالي فإن كيفية تغير المعلمات تحد من البيانات التي يمكن أن يتناسب معها، لأنها في جوهرها لا تزال خطًا مستقيمًا. إذا زاد عدد الخلايا العصبية، فيمكننا تكرار المزيد من المعلمات، وبالتالي يمكننا التناسب مع المزيد من البيانات، وهذا هو السبب في أن النماذج الكبيرة تحقق معجزات، وهذا أيضًا هو السبب في تسمية النماذج الكبيرة بشكل شائع، حيث إن جوهرها هو عدد هائل من الخلايا العصبية والمعلمات، وكمية هائلة من البيانات، وفي الوقت نفسه تحتاج إلى قدر هائل من القوة الحاسوبية.
لذلك، يؤثر أداء النماذج الكبيرة بشكل رئيسي على ثلاثة جوانب: عدد المعلمات، حجم وجودة البيانات، وقوة الحوسبة. هذه العناصر الثلاثة تؤثر بشكل مشترك على جودة نتائج النموذج وقدرته على التعميم. لنفترض أن عدد المعلمات هو p، وحجم البيانات هو n( محسوبًا بعدد الرموز)، يمكننا بعد ذلك حساب كمية الحوسبة المطلوبة بناءً على القواعد التجريبية العامة.