تنبيه: تم ترجمة هذا المقال بواسطة Falcon-H1-Arabic 🦅

كانت رحلة بناء نماذج لغوية عربية بمستوى رفيع رحلة من التعلم المستمر والتطوير المتكرر. واليوم، يسعدنا الإعلان عن Falcon-H1-Arabic، أحدث وأقوى عائلة نماذج لغوية عربية لدينا حتى الآن، والتي تمثل قفزة نوعية كبيرة على مستوى البنية والقدرات. يجسد هذا الإصدار شهورًا من البحث، و الأخذ بعين الإعتبار لآراء المستخدمين، والابتكار التقني، التي تجسدت في ثلاثة نماذج قوية تضع معايير جديدة لمعالجة اللغة العربية الطبيعية.

البناء على النجاح: التطور من Falcon-Arabic

عندما أطلقنا Falcon-Arabic قبل بضعة أشهر، كان تفاعل المجتمع ملهمًا ومفيدًا للغاية. استخدم المطورون والباحثون والطلاب في مختلف أنحاء العالم العربي النموذج في مشاريع حقيقية، ودفعوه إلى أقصى حدوده، وقدموا ملاحظات قيّمة للغاية. تعلمنا أين تفوق النموذج، والأهم من ذلك، أين واجه صعوبات. برز فهم السياقات الطويلة، والتنوعات اللهجية، والاستدلال الرياضي، والمعرفة المتخصصة في المجالات المختلفة كعوامل أساسية تتطلب اهتمامًا أعمق.

لم نرغب في الاكتفاء بتحسينات تدريجية فحسب، بل أردنا إعادة التفكير في نهجنا بشكل جذري. وكانت النتيجة Falcon-H1-Arabic، عائلة نماذج تعالج جميع الملاحظات التي تلقيناها، مع تقديم ابتكارات جهورية لم يسبق استخدامها في مجال نماذج اللغة العربية.

سابقة في معالجة اللغة العربية: بنية هجينة تجمع بين Mamba وTransformer

يعتمد Falcon-H1-Arabic على البنية الهجينة Falcon-H1، والتي تدمج نماذج State Space Models – Mamba مع آلية Attention بـ Transformer داخل كل كتلة. تعمل المكونان بالتوازي، ثم يتم دمج تمثيلاتهما قبل إسقاط مخرجات الكتلة. يوفّر هذا التصميم قابلية التوسع بزمن خطي التي تتميز بها Mamba للتعامل مع سلاسل نصية طويلة للغاية، مع الحفاظ في الوقت نفسه على قدرات النمذجة الدقيقة للعلاقات بعيدة المدى التي يوفرها Attention. وبالنسبة للغة العربية، بما تتميز به من غنى صرفي ومرونة في بنية الجملة، يساهم هذا النهج في تحسين الترابط والاستدلال بشكل ملحوظ عبر النصوص الطويلة. وقد قمنا بتطبيق هذه البنية عبر ثلاثة أحجام (3B و7B و34B معلمة)، يوازن كل منها بين السعة والكفاءة وقابلية النشر لتلبية حالات استخدام مختلفة، من أجهزة الحافة إلى التطبيقات المؤسسية.


بنية Falcon-H1. تعمل آلية الانتباه ونماذج فضاء الحالة بالتوازي داخل كل كتلة؛ ويتم دمج مخرجاتهما قبل إسقاط مخرجات الكتلة. يعتمد عدد رؤوس SSM/الانتباه على حجم النموذج. مزيد من التفاصيل في التقرير التقني لـ Falcon-H1.

تجاوز حدود السياق

قمنا بزيادة قدرات السياق بشكل كبير، من حد 32 ألف رمز في Falcon-Arabic إلى 128 ألف رمز لنموذج 3B، و256 ألف رمز لكل من نموذجي 7B و34B. وعند 256 ألف رمز (حوالي 200,000 كلمة)، تستطيع هذه النماذج معالجة عدة روايات أو مئات الصفحات من الوثائق التقنية، مما يتيح تطبيقات في التحليل القانوني، والسجلات الطبية، والبحث الأكاديمي، والمحادثات الممتدة التي كانت غير عملية في السابق. كما أن مرحلة ما بعد التدريب لدينا تعالج تحديدًا تحديات “الضياع في منتصف السياق” لضمان أن تستفيد النماذج فعليًا من كامل نطاق السياق المتاح لها، وليس مجرد قبول مدخلات طويلة.

عدد المعلماتنافذة السياقالبنيةحالات الاستخدام المثالية
3B128Kهجينةوكلاء سريعة، أنظمة ذات معدل طلبات مرتفع (QPS)، تحليلات خفيفة
7B256Kهجينةمساعدات إنتاجية، الاستدلال، محادثات مؤسسية
34B256Kهجينةتحليل المستندات الطويلة، البحث العلمي، المهام عالية الحساسية

جودة البيانات وتنوعها: الأساس للتميّز

أعدنا بناء مسار بيانات النموذج الأساسي من الصفر ليعكس بشكل أفضل تعقيد اللغة العربية. بدأ ذلك بعملية ترشيح جودة متعددة المراحل، صُممت خصيصًا للتعامل مع الإملاء العربي، والصرف، والتشكيل، والأنماط النحوية. وبدلًا من الاعتماد على ترشيح إرشادي بسيط، استخدمنا تحليلات لغوية عميقة لعزل النصوص المتماسكة والمنظمة جيدًا، وإزالة الضوضاء الشائعة في مجموعات بيانات الويب المفتوح. وكانت النتيجة مجموعة بيانات عربية أنظف بكثير وأكثر اتساقًا من حيث الأسلوب.

كان تغطية اللهجات أولوية أساسية أخرى. فاللغة العربية تشمل الفصيحة إذ تتعايش العربية الفصيحة مع لهجات مثل المصرية، والشامية، والخليجية، والمغاربية، ولكل منها مفرداتها وبُناها النحوية المميزة. قمنا بتوسيع مصادر اللهجات بشكل كبير، لضمان أن تفهم وتُنتج النماذج معظم اللهجات في الوطن العربي ، بدلًا من الانحياز المفرط إلى العربية الفصحى الرسمية. وللحفاظ على قدرات الاستدلال العالمية وتنوع المجالات، حافظنا أيضًا على القدرات متعددة اللغات في Falcon-H1 من خلال تدريب النماذج العربية على مزيج شبه متساوٍ من المحتوى العربي والإنجليزي ومتعدد اللغات، بإجمالي يقارب 300 مليار رمز. ويضمن ذلك أداءً قويًا في البرمجة، ومجالات العلوم والتقنية والهندسة والرياضيات (STEM)، والاستدلال متعدد اللغات. يوضّح الرسم التالي توزيع بيانات النموذج الأساسي عبر اللغات والفئات المختلفة، مع العلم ان جميع القيم بمليارات الرموز.


ما بعد التدريب: صقل القدرات دون المساس بالكفاءة

بعد مرحلةالنموذج الأساسي، خضع Falcon-H1-Arabic لم مركّز لما بعد التدريب يتكوّن من الصقل الخاضعة للإشراف (Supervised Fine-Tuning – SFT)، يتبعه التوافق بعد التدريب (Direct Preference Optimization – DPO). خلال مرحلة SFT، نعرض النماذج على تعليمات عربية عالية الجودة، وأمثلة منسّقة ذات سياق طويل، ومهام استدلال منظمة، ما يعلّمها اتباع التوجيهات، والحفاظ على الترابط عبر تسلسلات ممتدة، وربط الإجابات بالمعلومات ذات الصلة. وتُعد هذه المرحلة أساسية لضمان قدرة النماذج على الاستفادة الفعلية من نوافذ السياق الكبيرة لديها، وهو أمر لا يتحقق تلقائيًا من البنية المعمارية وحدها.

نعقب مرحلة SFT بمرحلة DPO موجهة لتطوير التوافق، وجودة الحوار، واتساق التفضيلات. يساعد DPO النماذج على تحقيق توازن بين الاستدلال طويل السياق والكفاءة اللغوية العامة، مما يحسّن مستوى الفائدة ويقلّل من أنماط الإخفاق الشائعة مثل الانجراف، أو الإفراط في استخدام السياق، أو إهمال المعلومات السابقة. وخلال المرحلتين، نراقب بعناية ظاهرة النسيان الكارثي، ونحافظ على منهج تدريبي مضبوط لضمان ألا تأتي المكاسب في سلوك السياق الطويل على حساب الاستدلال الأساسي أو الدقة المعرفية. والنتيجة هي عائلة نماذج تتعامل بسلاسة مع المستندات المطوّلة والحوار الممتد، مع الحفاظ على أداء قوي في مهام اللغة اليومية.

وبعيدًا عن التحسين الموجّه للاختبارات المعيارية، يركّز مسار ما بعد التدريب لدينا عمدًا على تعزيز جوانب لا تلتقطها التقييمات التقليدية بشكل كامل، مثل الأمانة الحوارية، والتنظيم البلاغي، والمتابعات المهيكلة، وترابط الخطاب. وتُسهم هذه التحسينات في رفع الفائدة العملية للنموذج بشكل ملحوظ، مما يجعل Falcon-H1-Arabic أكثر موثوقية في الحوارات الواقعية متعددة الأدوار، وتنفيذ التعليمات، وتدفّقات المحادثة ذات السياق الطويل.

أداء المعايير: وضع معايير جديدة

تروي الأرقام جزءًا مهمًا من القصة. على لوحة الصدارة المفتوحة لنماذج اللغة العربية (OALL)، وهي معيار شامل يقيّم فهم اللغة العربية عبر مهام متنوعة، يحقق Falcon-H1-Arabic نتائج رائدة على جميع الأحجام التي قمنا باختبارها. نود الإشارة إلى أن نتائجنا قد تختلف قليلًا عن النتائج المعروضة على OALL ، وذلك لأننا استخدمنا vLLM كمحرّك بدلًا من تنفيذ Accelerate المستخدم في OALL. وعادةً ما تكون هذه الفروقات أقل من نقطة واحدة، مع توفير زمن تنفيذ أسرع بكثير.

وبالإضافة إلى OALL، نعرض أيضًا نتائج على معيار 3LM لمهام العلوم والتقنية والهندسة والرياضيات (STEM) على كل من التقسيمات الاصطناعية والأصلية؛ ومعيار Arabculture لتقييم الثقافة العربية؛ ومعيار AraDice لتغطية اللهجات العربية عبر اللهجتين الشامية والمصرية، إضافة إلى تقييم الثقافة العربية عبر 6 دول. وتمثل نتيجة AraDice المعلنة متوسط الدرجات الثلاث جميعها.

بدءًا من نموذج 3B، يُعد الأداء استثنائيًا. إذ يحقق ما يقارب 62٪ على OALL، متفوقًا على جميع النماذج صغيرة الحجم، بما في ذلك Gemma-4B وQwen3-4B وPhi-4-mini، بفارق يقارب عشر نقاط. وعلى معيار 3LM، وهو المعيار العربي الرئيسي لمهام STEM، يسجل حوالي 82٪ على التقسيم الأصلي و73٪ على التقسيم الاصطناعي. كما يحقق نحو 62٪ على معيار ArabCulture، وحوالي 50٪ في تقييم لهجات AraDice (المصرية والخليجية والشامية). ويجعل ذلك من Falcon-H1-Arabic-3B نموذجًا عالي الجودة وعالي الكفاءة، مناسبًا للنشر على أجهزة الحافة، والتطبيقات الآنية، والأنظمة الوكيلة (Agentic Systems) حيث تُعد الكمون والتكلفة عاملين حاسمين.

يواصل نموذج 7B هذا المسار التصاعدي. إذ يحقق درجة 71.7٪ على OALL، متفوقًا على جميع النماذج في فئة ~10B، بما في ذلك Fanar-9B وAllam-7B* وQwen3-8B. وعلى معيار 3LM، يصل إلى حوالي 92٪ على التقسيم الأصلي و85٪ على التقسيم الاصطناعي. كما ترتفع درجات AraDice إلى منتصف الخمسينات عبر جميع اللهجات، وتقترب نتائج ArabCulture من 80٪. يحقق هذا النموذج توازنًا مثاليًا بين القدرات وقابلية النشر، مما يجعله الخيار الأكثر عملية لمعالجة اللغة العربية العامة في بيئات الإنتاج.

يمثل نموذج 34B نظامنا الرائد ويضع معيارًا جديدًا لنمذجة اللغة العربية. إذ يحقق حوالي 75٪ على OALL، متفوقًا ليس فقط على النماذج ذات الحجم المماثل، بل حتى على أنظمة أكبر بكثير مثل Llama-3.3-70B وAceGPT2-32B. وتصل درجاته على معيار 3LM إلى حوالي 96٪ على التقسيم الأصلي و94٪ على التقسيم الاصطناعي. وعلى ArabCulture يسجل قريبًا من 80٪، بينما يصل إلى حوالي 53 على معيار AraDice عبر اللهجات. ويُظهر تفوق نموذج هجيني 34B على أداء محولات بحجم 70B فعالية بنية Falcon-H1، وجودة البيانات، وقوة مسار ما بعد التدريب.

تؤكد النتائج هذه صحة نهجنا، لكنها أيضًا تبرز حقيقة مهمة: أن حدود نماذج اللغة العربية تتقدم بسرعة كبيرة. فكل نقطة مئوية على هذه المعايير تمثل ساعات لا تحصى من الجهد والعناية الدقيقة بمجموعات البيانات، وتحسين البنية النموذج. والفروق التي تتفوق بها Falcon-H1-Arabic ليست مجرد بيانات إحصائية، بل تترجم إلى تجارب مستخدم أفضل بشكل ملموس في التطبيقات الواقعية.

التطبيقات العملية: من الحافة إلى المؤسسات

كل نموذج في عائلة Falcon-H1-Arabic مناسب لتطبيقات مختلفة. نموذج 3B مُحسّن للسرعة، والكفاءة من حيث التكلفة، والأنظمة عالية الإنتاجية، مما يجعله مثاليًا لسير العمل الوكلاء الاصطناعي(Agentic Systems) ، والتطبيقات على الأجهزة، والدردشة الحديثة، والبيئات ذات الموارد الحوسبية المحدودة. أما نموذج 7B فهو النموذج العملي العام لمعظم تطبيقات الإنتاج، حيث يدعم أنظمة فهم المستندات، والدردشة الآلية، وخطوط تلخيص المحتوى، وأدوات توليد المحتوى. في حين أن نموذج 34B مصمم للمجالات عالية الحساسية التي تتطلب دقة واستدلال بعيد المدى، بما في ذلك التحليل القانوني، والتلخيص الطبي، والبحث الأكاديمي، والأتمتة المؤسسية واسعة النطاق. ونظرًا لنافذة السياق الممتدة، فإنه قادر بشكل فريد على تحليل مئات الصفحات من النصوص في تمريرة واحدة مع الحفاظ على الترابط الدقيق.

الذكاء الاصطناعي المسؤول والقيود

مثل جميع نماذج اللغة، قد يعكس Falcon-H1-Arabic تحيزات موجودة في بيانات التدريب، وقد يُنتج معلومات غير دقيقة (هلوسة). لذلك، لا ينبغي استخدام مخرجات النموذج كمراجع وحيدة للقرارات الطبية أو القانونية أو المالية دون تحقق مهني. وقد تتراجع قدرة النموذج على التعامل مع السياقات الطويلة عند الحدود القصوى. نوصي بإجراء تقييم مخصص للمهام ووضع ضوابط مناسبة قبل النشر في بيئات الإنتاج أو التطبيقات الحساسة.

شكر وتقدير

نعرب عن امتناننا لمجتمع البحث في معالجة اللغة الطبيعية العربية، الذي يتيح التقدم في المجال من خلال مشاركته المفتوحة للمقاييس، والمجموعات البياناتية، والمنهجيات. شكر خاص لزملائناإلياس الشاهد, يونس بلقادة, ضياء الدين رحيم, بونيش ك انا, مايك لوبينتز , سليم الفريخة, جينجواي زو, ماكسيم فيلاكنوف, كاسبر بيركورسكي, سهيل محمد لدعمهم خلال المشروع.

الاستشهاد

@misc{Falcon-H1-Arabic-2026,
  title={Falcon-H1-Arabic: State-of-the-Art Arabic Language Models with Hybrid Mamba-Transformer Architecture},
  author={Basma El Amel Boussaha and Mohammed Alyafeai and Ahmed Alzubaidi and Leen AlQadi and Shaikha Alsuwaidi and Omar Alkaabi and Hamza Alobeidli and Hakim Hacid},
  url={https://huggingface.co/blog/tiiuae/falcon-h1-arabic},
  month={January},
  year={2026},
  note={Available in 3B, 7B, and 34B parameter versions}
}
نماذج Falcon-H1-Arabic متاحة للاستخدام عبر الروابط أدناه. للاستفسارات أو التعاون أو الملاحظات، تواصلوا معنا عبر falcon.info@tii.ae أو انضموا إلى مجتمعنا:

Core Contributors

Basma El Amel Boussaha

Basma El Amel Boussaha

Mohammed Alyafeai

Mohammed Alyafeai

Ahmed Alzubaidi

Ahmed Alzubaidi

Leen AlQadi

Leen AlQadi

Shaikha Alsuwaidi

Shaikha Alsuwaidi

Omar Alkaabi

Omar Alkaabi

Hamza Alobeidli

Hamza Alobeidli

Hakim Hacid

Hakim Hacid