العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
نموذج صغير بحجم 20 مليار يطابق GPT-5 و Opus في قدرة البحث: كروميا تطلق نموذج وكيل بحث مفتوح المصدر Context-1
وفقًا لمتابعة 1M AI News، أطلقت قاعدة بيانات المتجهات مفتوحة المصدر Chroma Context-1، وهو نموذج بحث لوكيل (Agent) مُصمم خصيصًا لمهام الاسترجاع متعددة الجولات (multi-turn) وبـ 20 مليار معامل. تم إتاحة أوزان النموذج كمصدر مفتوح تحت ترخيص Apache 2.0، كما أن كود خط أنابيب توليد البيانات الاصطناعية متاح أيضًا للعامة. يُقدَّم Context-1 على أنه وكيل فرعي مخصص للاسترجاع: فهو لا يجيب مباشرةً عن الأسئلة، بل يُرجع مجموعة من المستندات الداعمة لنماذج الاستدلال (reasoning) اللاحقة عبر عمليات بحث متعددة الجولات. تتمثل التقنية الأساسية في «السياق ذاتي التحرير» (self-editing context)، حيث يقوم النموذج باستبعاد شذرات المستندات غير ذات الصلة بشكل نشط أثناء عملية البحث، ما يحرر مساحة ضمن نافذة سياق محدودة للعمليات اللاحقة، وبالتالي يتجنب تدهور الأداء الناتج عن تضخم السياق (context bloat). يتم التدريب على مرحلتين: أولًا، باستخدام نماذج كبيرة مثل Kimi K2.5 لتوليد مسارات SFT لتهيئة الضبط الدقيق المُشرف (supervised fine-tuning warm-up)، ثم التدريب على أكثر من 8,000 مهمة اصطناعية عبر التعلم التعزيزي (استنادًا إلى خوارزمية CISPO). يستخدم تصميم المكافأة آلية منهجية (curriculum)، تشجع الاستكشاف الواسع في المراحل المبكرة وتنتقل تدريجيًا نحو الدقة في المراحل اللاحقة لتعزيز الاحتفاظ الانتقائي. النموذج الأساسي هو gpt-oss-20b، وتم تكييفه باستخدام LoRA، ويعمل الاستدلال مع تسعير MXFP4 على B200، محققًا معدل إنتاجية يبلغ 400-500 رمز في الثانية. في اختبارات Chroma الأربعة المخصصة للمجالات التي قامت ببنائها (web, finance, law, email) والمعايير العامة (BrowseComp-Plus, SealQA, FRAMES, HotpotQA)، فإن النسخة المتوازية رباعية الاتجاهات من Context-1 تُطابق أو تقترب بشكل وثيق من مقاييس «معدل الإصابة بالإجابة النهائية» (final answer hit rate) لدى نماذج رائدة مثل GPT-5.2 و Opus 4.5 و Sonnet 4.5؛ فعلى سبيل المثال، حقق 0.96 على BrowseComp-Plus (مقارنةً بـ 0.87 لـ Opus 4.5 و 0.82 لـ GPT-5.2)، في حين أن تكلفته وزمن استجابته لا تعدو كونهما جزءًا بسيطًا من تلك النماذج. ومن الجدير بالذكر أنه تم تدريب النموذج فقط على بيانات الويب والقانون والتمويل، لكنه أظهر أيضًا تحسينات كبيرة في مجال البريد الإلكتروني، والذي لم يكن ضمن بيانات التدريب، ما يشير إلى قابلية نقل قدرات البحث عبر المجالات.