العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
الحجة وراء الذكاء الاصطناعي الممل
سباق اختبارات الذكاء الاصطناعي لديه فائز. لكنه ليس أنت.
كل بضعة أشهر، يظهر نموذج جديد وتتعيد قائمة الترتيب ترتيبها. تتنافس المختبرات على التفوق في التفكير، والكتابة البرمجية، والإجابة، على اختبارات صُممت لقياس ذكاء الآلة. يتبع ذلك الاهتمام. وكذلك التمويل.
لكن ما يحظى باهتمام أقل هو ما إذا كان أي من هذا حتميًا. إن الاختبارات نفسها، وسباق التسلح، وتقديم الذكاء الاصطناعي إما كمُنقذ أو كارثة — كلها خيارات وليست قوانين فيزيائية. إنها تعكس ما قرر القطاع تحسينه، وما قرر تمويله. التكنولوجيا التي ستستغرق عقودًا لتثمر بطرق عادية ومفيدة لا تجلب مليارات هذا الربع. السرديات المتطرفة تفعل ذلك.
يعتقد بعض الباحثين أن الهدف نفسه خاطئ. ليس لأن الذكاء الاصطناعي غير مهم، بل لأن “المهم” لا يجب أن يعني “غير مسبوق”. لقد غيّرت آلة الطباعة العالم. وفعلت الكهرباء كذلك. كلاهما غيّراه تدريجيًا، عبر تبنٍ فوضوي، مانحًا المجتمعات وقتًا لتستجيب. إذا اتبع الذكاء الاصطناعي هذا النمط، فلن تكون الأسئلة الصحيحة عن “الذكاء الفائق”. بل عن من يستفيد، ومن يلحق به الضرر، وما إذا كانت الأدوات التي نبنيها تعمل فعلًا لصالح الأشخاص الذين يستخدمونها.
يطرح الكثير من الباحثين هذه الأسئلة منذ وقت طويل، من اتجاهات مختلفة جدًا. إليك ثلاثة منهم.
مفيد، لا عام
كان Ruchir Puri يبني الذكاء الاصطناعي في IBM $IBM -0.57% منذ قبل أن يسمع معظم الناس بتعلّم الآلة. شاهد Watson يهزم أفضل لاعبي Jeopardy في العالم في 2011. وقد شاهد عدة دورات من موجات الضجيج وهي ترتفع ثم تتراجع منذ ذلك الحين. عندما وصلت الموجة الحالية، كان لديه اختبار بسيط لها: هل هو مفيد؟
ليس مُبهِرًا. ليس عامًا. مفيد.
يقول: “لا يهمني كثيرًا الذكاء الاصطناعي العام”. “ما يهمني هو الجزء المفيد منه.”
هذا التصور يضعه في مواجهة مع كثير من الصورة الذاتية للقطاع. المختبرات التي تركض نحو AGI تُحسّن من أجل الاتساع، وتبني أنظمة تستطيع فعل أي شيء، والإجابة عن أي شيء، والتفكير في أي شيء. يعتقد Puri أن هذا هدف خاطئ، ولديه معيار أداء يريد أن يرى الصناعة تحاول الوصول إليه فعلًا.
يعيش الدماغ البشري في 1,200 سنتيمتر مكعب، ويستهلك 20 واط، أي طاقة مصباح كهربائي، و، كما يشير Puri، يعمل على الساندويتشات. تستهلك وحدة GPU واحدة من Nvidia $NVDA +0.14% 1,200 واط، أي 60 مرة أكثر من الدماغ كله، وتحتاج إلى آلاف منها في مركز بيانات ضخم لتفعل أي شيء ذي معنى. إذا كان الدماغ هو معيار الأداء، فالصناعة ليست قريبة من الكفاءة. إنها تتجه في الاتجاه الخاطئ.
بديله هو ما يسميه “البنية الهجينة”: نماذج صغيرة ومتوسطة وكبيرة تعمل معًا، ويُسنَد لكل منها نوع المهمة التي يتفوق فيها. يقوم نموذج كبير على الحدود بالاستدلال والتخطيط المعقدين. تتولى نماذج أصغر ومبنية لغرض محدد تنفيذ المهام. مهمة بسيطة مثل صياغة بريد إلكتروني لا تحتاج إلى نظام مُدرَّب على نصف الإنترنت. ما تحتاجه هو شيء سريع ورخيص ومركّز. يلاحظ Puri أنه كل تسعة أشهر تقريبًا، يصبح النموذج الصغير من الجيل السابق مكافئًا تقريبًا لما كان يُنظر إليه بوصفه “كبيرًا”. الذكاء يصبح أرخص. السؤال هو هل هناك من يبني من أجل هذه الحقيقة.
للطريقة دعم من العالم الحقيقي. تستخدم Airbnb $ABNB +1.49% نماذج أصغر لحل جزء كبير من مشكلات خدمة العملاء بسرعة أكبر مما يستطيع ممثلوها البشر. لا تستخدم Meta $META -0.25% أكبر نماذجها لتقديم الإعلانات، بل تُحوِّل تلك المعرفة إلى نماذج أصغر مبنية لهذه المهمة وحدها. النمط متسق إلى درجة أن الباحثين بدأوا تسمية ذلك “خط تجميع للمعرفة”: تتدفق البيانات إلى الداخل، وتتولى نماذج متخصصة خطوات منفصلة، ويخرج شيء مفيد في الطرف الآخر.
كانت IBM تبني خط التجميع هذا لفترة أطول من معظم الشركات. لقد أظهر وكيل هجين يجمع نماذج من عدة شركات تحسنًا في الإنتاجية بنسبة 45% عبر قوة عمل هندسية كبيرة. وتساعد الأنظمة التي تعمل على نماذج أصغر ومبنية لغرض محدد الآن المهندسين الذين يحافظون على معالجة 84% من المعاملات المالية في العالم في الحصول على المعلومات الصحيحة في الوقت المناسب. هذه ليست تطبيقات لافتة. وليست أيضًا فاشلة.
لا يتطلب أيٌ منها نظامًا يكتب الشعر أو يحل واجب الرياضيات لطفلك. بل يتطلب شيئًا أضيق، ونتيجة لذلك، أكثر موثوقية. النموذج المُدرَّب على أداء شيء واحد بشكل جيد يعرف متى يقع سؤال ما خارج نطاقه. يقول ذلك. إن درجة عدم اليقين المُعايرة هذه، ومعرفة ما لا تعرفه، هي شيء ما زالت النماذج الكبيرة على الحدود تواجه صعوبة فيه.
يقول Puri: “أريد بناء وكلاء وأنظمة لهذه العمليات”. “ليس شيئًا يجيب عن مليوني شيء.”
الأدوات، لا الوكلاء
لدى Ben Shneiderman اختبار بسيط لمعرفة ما إذا كان نظام ذكاء اصطناعي مصممًا بشكل جيد. هل يشعر الشخص الذي يستخدمه أنه أنجز شيئًا، أم يشعر أن شيئًا ما تم إنجازه له؟
الفارق مهم أكثر مما يبدو. لدى Shneiderman، عالم كمبيوتر في جامعة ماريلاند ساعد في وضع أسس تصميم الواجهات الحديث، أمضى عقودًا يجادل بأن هدف التكنولوجيا يجب أن يكون تضخيم القدرة البشرية، لا استبدالها. الأدوات الجيدة تبني ما يسميه “كفاءة ذاتية المستخدم”، أو الثقة التي تأتي من معرفة أنك تستطيع فعل شيء بنفسك. الأدوات السيئة تنقل تلك الوكالة إلى مكان آخر بهدوء.
يعتقد أن معظم صناعة الذكاء الاصطناعي تبني أدوات سيئة، ويعتقد أن التحول نحو “نهج الوكلاء” يجعل الأمر أسوأ. الفكرة التسويقية لوكلاء الذكاء الاصطناعي هي أنهم يتصرفون بالنيابة عنك، ويتولون المهام من البداية إلى النهاية دون مشاركتك. بالنسبة إلى Shneiderman، هذا ليس ميزة. إنها المشكلة. عندما يحدث خطأ، وسيحدث، فمن المسؤول؟ وعندما تسير الأمور بشكل صحيح، فمن الذي تعلم شيئًا؟
الفخ الذي كان يقاتله منذ زمن طويل له اسم. “التشبيه بالإنسان” Anthropomorphism، أي النزعة لجعل التكنولوجيا تبدو بشرية، هو ما يواصل الفوز وما يواصل الفشل. في سبعينيات القرن الماضي، جرّبت البنوك أجهزة صراف آلي تعرّف العملاء بـ “كيف يمكنني مساعدتك؟” وأطلقت على نفسها أسماء مثل Tilly the Teller وHarvey the World Banker. ثم استُبدلت بماكينات أظهرت لك ثلاث خيارات فقط: الرصيد، نقدًا، إيداعًا. ارتفع الاستخدام. كان لدى Citibank استخدام أعلى بنسبة 50% من منافسيها. لم يكن الناس يريدون علاقة مُصطنعة. كانوا يريدون الحصول على أموالهم.
تكرر النمط نفسه عبر عقود، مع Microsoft $MSFT -0.16% Bob، ودبوس الذكاء الاصطناعي من Humane، وموجات من الروبوتات الشبيهة بالبشر. في كل مرة يفشل النسخ المُشبه للإنسان ويُستبدل بشيء أكثر شبهًا بالأدوات. يطلق Shneiderman على ذلك “فكرة الزومبي”. لا تموت، بل تعود فقط.
ما المختلف الآن هو الحجم والمستوى من التعقيد. يقر بأن الجيل الحالي من الذكاء الاصطناعي مُبهِر فعلاً، وبشكل مذهل. لكن كون الشيء مُبهِرًا ومفيدًا ليسا الشيء نفسه، والأنظمة المصممة لتبدو بشرية، ولتقول “أنا”، لمحاكاة علاقة، تُحسن على الجودة الخاطئة. السؤال الذي يريد من المصممين طرحه أبسط: هل يمنح الناس هذا قوة أكثر، أم أقل؟
يقول: “لا يوجد I في AI”. “أو على الأقل، لا ينبغي أن يكون هناك.”
الأشخاص، لا المعايير
لدى Karen Panetta إجابة بسيطة عن سبب ظهور تطوير الذكاء الاصطناعي بالشكل الذي يراه الناس عليه. اتبع المال.
Panetta، أستاذة في هندسة الكهرباء وعلوم الحاسوب في جامعة Tufts وزميلة IEEE، تدرس أخلاقيات الذكاء الاصطناعي ولديها رؤية واضحة إلى أين يجب أن يتجه هذا النوع من التكنولوجيا. حيوانات أليفة مساعدة لمرضى ألزهايمر، أدوات تعلم تكيفية للأطفال ذوي أنماط معرفية مختلفة، مراقبة منزلية ذكية لكبار السن الذين يتقدم بهم العمر وهم يعيشون في منازلهم. تقول إن التكنولوجيا اللازمة للقيام بذلك على نحو جيد موجودة إلى حد كبير. لكن الاستثمار ليس موجودًا.
تقول: “البشر لا يهتمون بالمعايير”. “ما يهتمون به هو: هل سيعمل عندما أشتريه؟ وهل سيسهّل فعلًا حياتي؟”
المشكلة أن الأشخاص الذين سيستفيدون أكثر من ذكاء اصطناعي مساعد مُصمم جيدًا هم أيضًا الأقل إقناعًا لرأس المال الاستثماري. نظام يحول عمليات التصنيع، ويقلل إصابات مكان العمل، ويخفض تكاليف الرعاية الصحية لموظفي شركة ما لديه عائد واضح. أما رفيق آلي يحافظ على هدوء المريض المصاب بألزهايمر وإبقائه متصلًا، فيتطلب نوعًا مختلفًا تمامًا من الرياضيات. لذلك يذهب المال حيث يذهب المال، وتلك الفئات التي لديها أكبر ما تكسب تستمر في الانتظار.
يقول بانيتا إن ما تغير هو أن مشكلات الهندسة المكلفة تُحل أخيرًا على نطاق واسع. أصبحت الحساسات أرخص. البطاريات أخف. البروتوكولات اللاسلكية منتشرة في كل مكان. نفس الاستثمار الذي بنى الروبوتات الصناعية لأرضيات المصانع جعل الروبوتات الاستهلاكية ممكنة بطريقة لم تكن متاحة قبل خمس سنوات. الطريق من المستودع إلى غرفة المعيشة أقصر مما يبدو.
لكن لديها قلقًا من أن الحماس حول هذا التحول يتخطى ذلك الأمر. للروبوتات المادية قيود طبيعية. تعرف حدود القوة. تعرف علم الحركة (kinematics). يمكنك توقع كيفية فشلها، ومحاكاة ذلك، وتصميم ما يلتف حول الطريقة التي ستفشل بها. لا يأتي الذكاء الاصطناعي التوليدي مع تلك الضمانات. إنه غير حتمي. إنه يهلوس. لم يقم أحد بشكل كامل برسم خريطة لما يحدث عندما تضعه داخل نظام موجود فعليًا في منزل شخص لديه خرف، أو طفل لا يستطيع تحديد متى يحدث خطأ.
لقد شاهدت ماذا يحدث عندما تتسخ حساسات فتفقد الروبوت الوعي المكاني. وقد فكرت فيما يعنيه بناء شيء يتعلم تفاصيل حميمة عن حياة الشخص، عن روتينه، عن حالته المعرفية، عن لحظات ارتباكه، ثم يتصرف بناءً على تلك المعلومات بشكل مستقل. تقول إن خطط ما قبل وقوع الكارثة (fail-safes) لم تواكب ذلك.
تقول: “أنا لست قلقًا بشأن الروبوت”. “أنا قلق بشأن الذكاء الاصطناعي.”
📬 اشترك في النشرة اليومية
نشرة مجانية وسريعة وممتعة عن الاقتصاد العالمي، تُرسل كل صباح يوم عمل.
سجلني