نموذج الذكاء الاصطناعي الكبير "الضرائب الصينية": لماذا تتطلب اللغة الصينية رموزًا أكثر من الإنجليزية؟

المؤلف: تانغ يتاو، المصدر: جيكر بورت

عندما أُطلق إصدار Opus 4.7 قبل أيام قليلة، كانت هناك أصوات تشتكي على منصة X. قال البعض إن حوارًا واحدًا استهلك كل حصتها من الجلسة، وقال آخرون إن تكلفة تشغيل نفس الكود زادت أكثر من ضعف مقارنة بالأسبوع الماضي؛ كما نشر آخرون لقطات شاشة تظهر أن اشتراك Max بقيمة 200 دولار وصل إلى الحد الأقصى خلال أقل من ساعتين.

اعترف المطور المستقل BridgeMind أن Claude هو أفضل نموذج في العالم، لكنه أيضًا الأغلى. اشتراك Max الخاص به استهلك الحد خلال أقل من ساعتين، لكن لحسن الحظ — اشترى نسختين.|مصدر الصورة: X@bridgemindai

لم تتغير أسعار Anthropic الرسمية، لا تزال 5 دولارات لكل مليون رمز إدخال، و25 دولارًا للمخرجات. لكن هذا الإصدار أدخل مُعجم ترميز جديد، بالإضافة إلى أن Claude Code رفع مستوى effort الافتراضي من high إلى xhigh. مع تراكب هاتين الحالتين، زاد استهلاك الرموز لنفس العمل من 2 إلى 2.7 مرة مقارنة بالسابق.

رأيت في هذه النقاشات قولين مرتبطين باللغة الصينية. أحدهما: أن الصينية لم ترتفع تقريبًا تحت المُعجم الجديد، وأن المستخدمين الصينيين نجوا من هذا الارتفاع في التكاليف. والآخر، وهو أكثر إثارة للاهتمام: أن النصوص القديمة (الكتابات الكلاسيكية) أقل استهلاكًا للرموز من اللغة الحديثة، وأن الحوار مع الذكاء الاصطناعي باستخدام اللغة الكلاسيكية يمكن أن يوفر التكاليف.

القول الأول يوحي بأن Claude قام بتحسين معين للغة الصينية، لكن في وثائق إصدار Anthropic، لم يُذكر أي تعديل متعلق بالصينية.

أما القول الثاني فهو أكثر غموضًا. النص الكلاسيكي واضح أنه أصعب على البشر فهمه من اللغة الحديثة، فكيف يكون أسهل على الذكاء الاصطناعي؟

لذا قمت بتجربة، باستخدام 22 قطعة من النصوص المتوازية (تتضمن أخبارًا تجارية، وثائق تقنية، نصوص كلاسيكية، حوارات يومية، وغيرها)، وأرسلتها إلى 5 مُعجمات ترميز (Claude 4.6 و4.7، GPT-4o، Qwen 3.6، DeepSeek-V3)، وقرأت عدد الرموز لكل قطعة في كل نموذج، ثم قمت بمقارنة أفقية.

نصوص الاختبار:

  1. حوارات يومية بالإنجليزية والصينية (سفر، طلب مساعدة في منتدى، طلب كتابة)

  2. وثائق تقنية بالإنجليزية والصينية (وثائق بايثون، وثائق Anthropic)

  3. أخبار بالإنجليزية والصينية (أخبار سياسة NYT، أخبار تجارية NYT، بيان رسمي من شركة أبل)

  4. مقتطفات أدبية باللغة الكلاسيكية والصينية القديمة (《出师表》《道德经》)

بعد الانتهاء من الاختبار، ثبت صحة بعض القولين، لكن الواقع أكثر تعقيدًا من الشائعات.

أولاً، الضرائب على الصينية

لنبدأ بالنتائج:

  1. على كل من Claude وGPT، كانت التكاليف على الصينية دائمًا أعلى من الإنجليزية

  2. على Qwen وDeepSeek، كانت الصينية أرخص من الإنجليزية

  3. الترقية التي أدت إلى اضطراب في مُعجم Opus 4.7، كانت تقريبًا فقط في الإنجليزية، بينما بقيت الصينية ثابتة

لننظر إلى الأرقام بالتفصيل. جميع نماذج Claude قبل إصدار Opus 4.7 (بما في ذلك Opus 4.6، Sonnet، Haiku) كانت تستخدم نفس المُعجم. تحت هذا المُعجم، استهلاك الرموز للصينية كان أعلى بشكل ملحوظ من المحتوى المقابل باللغة الإنجليزية، بنسبة تتراوح بين 1.11× و1.64×.

أقصى حالة كانت في أخبار NYT بأسلوب تجاري: نفس النص، النسخة الصينية تستهلك 64% رموز أكثر، أي تدفع 64% أكثر.

نماذج Claude السابقة، مثل Opus 4.6، كانت تستهلك رموزًا للصينية بشكل ملحوظ أعلى من النماذج الأخرى (مُحاطة بالمربع الأحمر).

وفي أسوأ الحالات، في أخبار NYT التجارية، النسخة الصينية تستهلك 64% رموز أكثر (مُحاطة بالمربع الأخضر).

أما GPT-4o، فمُعجم o200k لديه أداء أفضل، حيث تتراوح نسبة cn/en بين 1.0 و1.35×، وأحيانًا أقل من 1.0. لا تزال الصينية أغلى بشكل عام، لكن الفارق أقل بكثير من Claude.

أما النماذج الصينية المحلية Qwen 3.6 وDeepSeek-V3، فكانت البيانات عكس ذلك تمامًا. نسبة cn/en كانت أقل من 1 بكثير، مما يعني أن المحتوى نفسه باللغة الصينية يستهلك رموزًا أقل من الإنجليزية. DeepSeek وصلت إلى 0.65×، أي أن النسخة الصينية من النص أرخص بثلاثة أضعاف من النسخة الإنجليزية.

ترجمة مُعجم Opus 4.7 الجديد، التضخم حدث تقريبًا فقط في الإنجليزية. عدد الرموز الإنجليزية زاد بين 1.24× و1.63×، بينما الصينية بقيت عند 1.000× تقريبًا، دون تغيير يُذكر. لم يشعر المستخدمون الصينيون بتأثير الاضطرابات في فواتير المطورين الإنجليز، ربما لأن الصينية كانت مقطعة على مستوى الأحرف في الإصدارات القديمة، بحيث لم يتبقَ مجال كبير للتقسيم.


مقارنة بين Opus 4.7 و4.6، استهلاك الرموز الإنجليزية زاد، والصينية لم تتغير

خلال الاختبار، لاحظت شيئًا آخر. الاختلاف في استهلاك الرموز لا يقتصر على الفواتير، بل يؤثر مباشرة على حجم مساحة العمل. باستخدام نفس نافذة السياق البالغة حوالي 200 ألف، عند استخدام مُعجم Claude القديم، يمكن إدخال كمية أقل من المحتوى الصيني بنسبة تتراوح بين 40% و70% مقارنة بالإنجليزية.

نفس نوع العمل، مثل تحليل وثيقة طويلة أو تلخيص مجموعة من محاضر الاجتماعات، يمكن للمستخدم الصيني تقديم مواد أقل للنموذج، مما يقلل من حجم السياق الذي يمكن أن يستند إليه النموذج. النتيجة: دفع المزيد، والحصول على مساحة عمل أصغر.

عند النظر إلى البيانات الأربع معًا، يبرز سؤال طبيعي:

لماذا يختلف عدد الرموز لنفس المحتوى عند تغيّر اللغة؟ ولماذا تكون التكاليف على الصينية أعلى في Claude وGPT، وأرخص في Qwen وDeepSeek؟

الجواب يكمن في المفهوم الذي تكرر ذكره: المُعجم (المُجزئ).

ثانيًا، كم قطعة يمكن أن يُقسم إليها حرف واحد؟

قبل أن يقرأ النموذج أي نص، يُقسمه المُعجم إلى رموز. يمكن تصور المُعجم كـ “آلة قطع المكعبات” الخاصة بالذكاء الاصطناعي. تدخل جملة، وتقوم بتقسيمها إلى مكعبات قياسية (أي رموز). النموذج لا يقرأ النص، بل يتعرف على أرقام المكعبات. كم قطعة تستخدم، تدفع مقابلها.

الإنجليزية تُقطع بطريقة بديهية، فـ “intelligence” غالبًا تُعد رمزًا واحدًا، و"information" أيضًا رمز واحد، وكل كلمة تُحسب كوحدة فواتير.

لكن الصينية هنا تظهر مشكلة. عند إرسال نفس الجملة “人工智能正在重塑全球的信息基础设施” إلى مُعجم GPT-4 (cl100k) وQwen 2.5، تكون النتائج مختلفة تمامًا.

GPT-4 يُقسم كل حرف صيني إلى رمز واحد؛ أما Qwen، فيُعرف الكلمات كمُعجم واحد، فمثلاً “人工智能” يُعد رمزًا واحدًا من أربعة أحرف.


نفس الجملة المكونة من 16 حرفًا، يُقسمها GPT-4 إلى 19 رمزًا، وQwen إلى 6 رموز فقط.

لماذا يحدث هذا؟ السبب هو خوارزمية تسمى BPE (Byte Pair Encoding).

طريقة عمل BPE هي أنها تحلل النصوص التدريبية، وتحدد أكثر التجميعات تكرارًا من الأحرف، ثم تدمجها في رمز واحد يُضاف إلى القائمة.

في زمن GPT-2، كانت غالبية النصوص باللغة الإنجليزية، وتكرار مجموعات الحروف مثل “th”، “ing”، “tion” كان عاليًا، فتم دمجها بسرعة في رموز. أما في الصينية، فحروفها تظهر بشكل أقل تكرارًا، ولا تُدرج في القائمة، فتُعامل كبيانات خام، حيث كل حرف صيني يُمثل 3 بايتات، ويُعد ثلاثة رموز.

تُحدد عملية الدمج وفقًا لتكرار الأحرف في النصوص التدريبية. في ظل النصوص الإنجليزية، تهيمن تكرارات الأحرف الإنجليزية، وتُدمج بشكل فعال. أما في الصينية، فحروفها تُعامل كبيانات UTF-8، ولا تُدمج إلا بعد توسيع المُعجم.

مع إصدار GPT-4 (cl100k)، توسع المُعجم ليشمل العديد من الحروف الصينية الشائعة، بحيث يُختصر كل حرف إلى رمز واحد أو اثنين، لكن الكفاءة لا تزال أقل من الإنجليزية.

وفي مُعجم o200k الخاص بـ GPT-4o، زادت كفاءة الصينية أكثر، وهو ما يفسر انخفاض نسبة cn/en في البيانات الأولى.

أما Qwen وDeepSeek، فهما من النماذج المحلية، وتعاملا من البداية مع العديد من الحروف والكلمات الشائعة كوحدات كاملة، بحيث يُعد كل حرف رمزًا واحدًا، مما يضاعف الكفاءة.

مخطط يوضح كيف يُقسم النص في مُعجم مختلف

وهذا هو السبب في أن نسبة cn/en أقل من 1، حيث أن المعلومات في الحروف الصينية أكثر كثافة من الكلمات الإنجليزية، وعندما يتوقف المُعجم عن تقسيم الحروف، يظهر هذا الميزة الطبيعيّة.

إذن، الاختلافات في البيانات السابقة لا تعود إلى قدرات النموذج، بل إلى حجم مساحة الكلمات المُخصصة للصينية في المُعجم، وكيفية تقسيم النص.

نماذج Claude وGPT القديمة كانت تعتمد على مُعجم مبني على الإنجليزية بشكل أساسي، والصينية كانت تُضاف لاحقًا؛ أما Qwen وDeepSeek، فهما من البداية مصممان ليكونا مُعجمين موجهين للغة الصينية. هذا الاختلاف في نقطة البداية ينعكس على عدد الرموز، والتكاليف، وحجم نافذة السياق.

ثالثًا، هل النص الكلاسيكي أرخص حقًا؟

نعود إلى الشائعة الثانية: أن النص الكلاسيكي أقل استهلاكًا للرموز من اللغة الحديثة.

البيانات تؤكد صحة هذا القول. في الاختبارات، كانت نسبة cn/en للنصوص الكلاسيكية أقل من 1، عبر جميع المُعجمات، وتطابق ذلك في جميع النماذج الخمسة. نفس النص الكلاسيكي يستهلك رموزًا أقل من الترجمة الإنجليزية.

وفي جميع النماذج، النص الكلاسيكي يستهلك رموزًا أقل من النص الحديث، وأحيانًا أقل من الإنجليزية.

السبب بسيط: النص الكلاسيكي يستخدم كلمات مختصرة جدًا. مثلاً، “学而不思则罔,思而不学则殆” يتكون من 12 حرفًا. ترجمته للحديثة تصبح “فقط التعلم دون تفكير يضل، والتفكير دون تعلم يوشك على الهلاك”، وتزداد الكلمات، ويزداد عدد الرموز.

وأيضًا، الحروف الشائعة في النص الكلاسيكي (مثل之،也、者、而、不) هي من الأحرف عالية التكرار، وتُخزن بشكل مستقل في المُعجم، ولا تُقسم إلى بايتات. لذلك، من حيث التشفير، النص الكلاسيكي فعال جدًا.

لكن هناك فخًا هنا.

الرموز في النص الكلاسيكي تُوفر من ناحية التشفير، لكن عبء الاستنتاج على النموذج لا يقل. فمثلاً، حرف “罔” يحتاج النموذج لتحديد معناه في السياق: هل هو “الضياع” أم “العدم”؟ يمكن للغة الحديثة أن تشرح ذلك بكلمات قليلة، بينما في النص الكلاسيكي، يُختصر المعنى، ويُترك على عاتق النموذج استنتاجه. كأنك تضغط ملفًا مضغوطًا، حجمه أصغر، لكن فك الضغط يتطلب حسابات أكثر.

الرموز أقل، لكن استهلاك الحساب في الاستنتاج يزداد، والدقة في الفهم قد تنخفض. لا يمكن حساب ذلك بدقة هنا.

النص الكلاسيكي يُظهر أن عدد الرموز لا يوضح كل شيء. لكن، إذا استمرينا في التفكير، فهناك شيء آخر لم ننتبه إليه من قبل.

كما ذكرنا، في زمن GPT-2، كان المُعجم يُقسم الحرف إلى ثلاثة رموز بايتات UTF-8، أما الآن، فالحروف الشائعة تُخزن كرمز واحد، وأحيانًا اثنين، وأحيانًا يُدمج عدة كلمات في رمز واحد.

وهذا يُعطي انطباعًا بأن الدمج أكثر، هو الأفضل، وأن النموذج يفهم بشكل أفضل.

لكن، هل هذا صحيح؟ لنفكر في كيفية تعلمنا للغة الصينية.

الكتابة الصينية رمزية، ومعظمها (أكثر من 80%) من الحروف هي من نوع “صوتي-صوري” (形声字)، تتكون من جزء يدل على المعنى وآخر على النطق. مثلاً، “氵” يُستخدم في كلمات تتعلق بالسائل، و"木" في كلمات تتعلق بالنباتات، و"火" في كلمات تتعلق بالحرارة. الجزء الدال على المعنى هو المفتاح الأساسي لفهم الحرف، فمثلاً، من خلال “焱” الذي يتكون من ثلاثة “火”، يمكن أن تتوقع أنه مرتبط بالنار.

لأن الجزء الدال على المعنى هو المفتاح، يبدأ الإنسان من خلال الهيكل، ثم يربط السياق بمعناه المحدد.


الشرر، اللهب، الضوء، تظهر في الكتابة الرسمية والأسماء، وترمز إلى النور والحرارة.

لكن، في المُعجم، “焱” يُمثل برقم معين، لنفترض أنه 38721، وهو يمثل موقعًا في المُعجم. النموذج يستخدم هذا الرقم ليجد متجهًا رقميًا يُعبر عن “焱”.

الرقم نفسه لا يحمل أي معلومات عن تركيب الحرف الداخلي. 38721 و38722، بالنسبة للنموذج، لا يختلفان عن 1 و10000. إذن، “بنية الحرف” لا تُنقل عبر الرقم، فهي مُختصرة.

بالطبع، يمكن للنموذج أن يتعلم بشكل غير مباشر أن “焱”، “炎”، و"灼" غالبًا تظهر في سياقات متشابهة، لكن هذا الطريق غير مباشر أكثر من الاعتماد على المعلومات الهيكلية.

هل يمكن للنموذج أن يكتشف من خلال تحليل البايتات المفككة، وجود مؤشرات على البنى المشابهة، ثم يعيد تجميعها لاحقًا في الحسابات؟ رغم أن ذلك يتطلب رموزًا أكثر، وتكلفة أعلى، فهل يمكن أن يكون أكثر فاعلية في الفهم من مجرد استخدام رقم غير شفاف؟

ورقة بحثية نُشرت عام 2025 في مجلة MIT Press بعنوان 《Tokenization Changes Meaning in Large Language Models: Evidence from Chinese》، أجابت على هذا السؤال.

رابعًا، تطوير البنى الهيكلية من خلال البتات الصغيرة

الكاتب ديفيد هاسليت لاحظ مصادفة تاريخية.

في التسعينيات، قامت مجموعة اليونيكود Unicode بتخصيص رموز UTF-8 للحروف الصينية، وكان الترتيب يعتمد على ترتيب البنيات (部首). فالحروف التي تشترك في نفس البنية، كانت رموزها متجاورة. مثلاً، “茶” و"茎" كلاهما يحتوي على “艹” (جزء العشب)، ورموزهما تبدأ بنفس البتات. و"河" و"海" يحتويان على “氵”، ورموزهما تتشارك في البداية.


ترتيب UTF-8 حسب البنيات، والحروف ذات البنيات المشتركة تكون رموزها متقاربة|مصدر الصورة: Github

هذا يعني، عند تقسيم الحروف إلى ثلاثة رموز بايت، فإن الحروف التي تشترك في البنية ستشارك الرمز الأول. خلال التدريب، يلاحظ النموذج أن أنماط البتات المشتركة قد تكون مؤشرًا على أن الحروف ذات البنية المشتركة تنتمي لنفس المعنى.

أجرى هاسليت ثلاثة تجارب للتحقق من ذلك.

الأول: يسأل GPT-4، GPT-4o، وLlama 3: هل “茶” و"茎" يشتركان في نفس البنية المعنوية؟

الثاني: يطلب من النموذج تقييم مدى التشابه بين معنيين لحرفين.

الثالث: يطلب من النموذج استبعاد الحرف المختلف من بين مجموعة.

كل تجربة كانت تتحكم في متغيرين: هل الحرفان فعلاً يشتركان في البنية، وهل يُقسّمان إلى نفس الرمز الأول في المُعجم. هذا التصميم يسمح بفصل تأثير البنية عن تأثير تقسيم الرموز.

النتائج كانت موحدة: عندما يُقسّم الحرف إلى عدة رموز (كما في مُعجم GPT-4 القديم، حيث 89% من الحروف تُقسّم إلى رمزين أو أكثر)، كانت قدرة النموذج على التعرف على البنيات المشتركة أعلى؛ وعندما يُرمز الحرف كرمز واحد (كما في GPT-4o، حيث 57% من الحروف تُرمز كرمز واحد)، انخفضت الدقة.

بمعنى آخر، الفرضية صحيحة: تقسيم الحرف إلى رموز يزيد من تكلفة الحساب، لكنه يُحافظ على أثر البنية، ويُساعد النموذج على تعلمها. أما ترميز الحرف كرمز واحد، فيخفض التكاليف، لكنه يُخفي المعلومات الهيكلية، ويُقلل من قدرة النموذج على استنتاجها.

لكن، يجب التنويه أن هذه النتيجة خاصة بالمهمات التي تتطلب فهم البنيات الشكلية، ولا تعني أن الأداء العام للفهم أو الاستنتاج أو توليد النصوص الطويلة يتأثر بنفس القدر. كما أن المقارنة بين GPT-4 وGPT-4o تتضمن اختلافات في المعماريات، البيانات، والأوزان، فالتغير في الدقة لا يُنسب فقط إلى تقسيم الرموز.

وقد ثبت ذلك أيضًا من خلال تجارب عملية. في 2024، أُجريت دراسة على GPT-4o، ووجد الباحثون أن استخدام مُعجم جديد يُدمج بعض الحروف في رموز طويلة، أدى إلى أخطاء في الفهم. وعند تفكيك هذه الرموز باستخدام أدوات تقسيم النصوص، عاد الأداء إلى طبيعته.

القاعدة السائدة في صناعة النماذج الكبيرة حاليًا، هي أن المُعجم المخصص للغة المستهدفة، الذي يُعنى بتوحيد الرموز، يُحسن الأداء بشكل كبير. فإضافة إلى تقليل عدد الرموز، يُحسن من استغلال مساحة السياق، ويُقصّر طول السلسلة، ويُقلل زمن الاستنتاج، ويُحسن استقرار النصوص الطويلة. الفوائد التي تظهر في المهمات التفصيلية لا تغطي غالبية سيناريوهات NLP الصينية.

لكن، هذا يسلط الضوء على مشكلة صعبة جدًا في الأنظمة الكبيرة: يمكنك تحسين الأجزاء التي صممتها، لكن لا يمكنك تحسين الأجزاء التي لا تعرف بوجودها. ترتيب اليونيكود حسب البنيات، كان لتسهيل البحث البشري. وتقسيم الحروف إلى بايتات، كان بسبب قلة تكرارها في النصوص. قراران غير مرتبطين، تراكما ليُنتجا قناة دلالية غير مخططة.

وعندما يحاول المهندسون تحسين المُعجم، ودمج الحروف في رموز كاملة، فإنهم يُغلقون أيضًا مسارًا غير مدروس، لم يكونوا على علم بوجوده. الكفاءة تزداد، والتكلفة تنخفض، وأشياء أخرى تختفي بهدوء، دون أن تتلقى تنبيهًا.

إذن، الأمر أكثر تعقيدًا من مجرد أن “الصينية تدفع أكثر”. كل مُعجم يُصمم ليخدم قيمة افتراضية، والتكلفة تُختبئ في مكان آخر.

خامسًا، لين يوتانغ

تكاليف تكييف الصينية مع البنى التحتية الغربية لم تبدأ مع عصر الذكاء الاصطناعي.

في يناير 2025، نشر نيلسون فيليكس من نيويورك على فيسبوك صورًا لآلة كتابة قديمة عليها نقوش صينية. وجدها في تراث جدته، ولم يعرف مصدرها. سرعان ما تفاعل المئات من المستخدمين.


عالم اللغويات بجامعة ستانفورد، توماس س. مولاني، رأى الصور فورًا، وتعرف على أنها النموذج الوحيد لآلة الكتابة “مِنغ كواي” التي اخترعها لين يوتانغ عام 1947، والتي فُقدت منذ حوالي 80 عامًا. وفي أبريل من نفس العام، باع الزوجان فيليكس الآلة لمكتبة جامعة ستانفورد.

الهدف من آلة الكتابة “مِنغ كواي” كان حل مشكلة، وهي ذاتها التي تواجهها المُعجمات اليوم: كيف نُدمج الصينية بكفاءة في بنية تحتية تعتمد على الأبجدية اللاتينية.

في الأربعينيات، كانت آلة الكتابة الإنجليزية تحتوي على 26 مفتاحًا، واحد لكل حرف، ببساطة وسهولة. أما الصينية، فكانت تحتوي على آلاف الأحرف الشائعة، ولا يمكن أن تُكتب بضغطة واحدة لكل حرف. كانت آلة الكتابة الصينية آنذاك عبارة عن لوحة كبيرة من الحروف المعدنية، تُرتب بشكل يدوي، ويختار الكاتب الحرف من خلال جمعيات من الحروف، ويكتب عشرات الأحرف في الدقيقة.

في عام 1899، اخترع المبشر الأمريكي شيفيلد آلة كتابة صينية، وهي أقدم سجل لآلة كتابة صينية|مصدر الصورة: Wikipedia

أنفق لين يوتانغ 120 ألف دولار على تطوير، تقريبًا على وشك الإفلاس، وطلب من شركة كارل إيه. كرووم في نيويورك تصميم آلة كتابة صينية تحتوي على 72 مفتاحًا فقط. كانت الفكرة أن يُقسم الحرف إلى أجزاء، ويُختار الجزء العلوي من خلال مفتاح، والجزء السفلي من خلال مفتاح آخر، وتُعرض الحروف المقترحة في نافذة صغيرة تسمى “العين السحرية”، ويختار المستخدم الحرف عبر أرقام. يمكنها كتابة 40 إلى 50 حرفًا في الدقيقة، وتدعم أكثر من 8000 حرف شائع.

(يسار) النافذة الزجاجية الشفافة التي تُسمى “العين السحرية”؛ (يمين) الهيكل الداخلي لآلة الكتابة "مِنغ كواي"|مصدر الصورة: Facebook

تقييم زو يوانرين: “لا يهم إن كان الصينيون أو الأمريكيون، بمجرد تعلمهم، يمكنهم التعود على هذا اللوح المفاتيح. أعتقد أن هذه هي الآلة التي نحتاجها.”

تقنيًا، كانت آلة “مِنغ كواي” نوعًا من الاختراق، لكنها فشلت تجاريًا.

عندما عرضها لين يوتانغ على مسؤولي شركة ريمينغتون، تعطلت الآلة، وفقد المستثمرون اهتمامهم، وارتفاع تكلفتها، وانقطاع التمويل الشخصي، جعل الإنتاج الضخم مستحيلًا. في عام 1948، باع لين يوتانغ النموذج الأولي وحقوق الإنتاج لشركة ميرغنثالر، التي تخلت عن المشروع، وظل النموذج مفقودًا حتى عُثر عليه في عام 2025.

في كتابه 《中文打字机》، رأى عالم اللغويات توماس س. مولاني أن “آلة الكتابة مِنغ كواي” لم تفشل تمامًا. كمنتج من خمسينيات القرن الماضي، فشلت، لكن كواجهة تفاعل بين الإنسان والآلة، كانت ناجحة.

أول مرة حول لين يوتانغ الكتابة الصينية إلى عملية “بحث واختيار”. ثلاث مجموعات من الأزرار تُحدد أجزاء الحرف، ويختار المستخدم من بين الحروف المقترحة. هذا هو المنطق الأساسي لكل أنظمة الإدخال الحديثة للصينية. من جيا، وخط ويبي، إلى سوجو بينين، كلها تعتبر من الورثة المباشرين لآلة “مِنغ كواي”.

هذه الآلة التي تجاوزت عمرها ثمانين عامًا، وتُشبه اليوم أنظمة التقسيم، تكشف عن نمط تاريخي معين. الصينية دائمًا تواجه مشكلة:

كيف تتصل ببنية تحتية تعتمد على الأبجدية اللاتينية.

المثير أن، خلال عملية البحث، تداخلت مصادفات غير مخططة. ترتيب اليونيكود الذي وضعه للمساعدة في البحث، تداخل مع تقسيم BPE غير المقصود، وبتداخل غير متوقع، أعاد إنتاج عملية تعلم الإنسان للكتابة.

وعندما يحاول المهندسون تحسين المُعجم، ودمج الحروف في رموز كاملة، فإنهم يُغلقون مسارًا غير مدروس، لم يكونوا على علم بوجوده. الكفاءة تزداد، والتكلفة تنخفض، وأشياء أخرى تختفي بهدوء، دون أن يتلقوا تنبيهًا.

الأمر ليس خطًا مستقيمًا، بل مسار يتغير باستمرار تحت ضغط القيود. بعض القدرات مصممة، وأخرى صدفة لم تُحذف.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت