أعلنت شركة علي بابا الصينية عن إطلاق سلسلة جديدة من نماذج الذكاء الاصطناعي تحت اسم Qwen3، والتي تهدف إلى تقديم أداء قوي ينافس أفضل النماذج الحالية مثل OpenAI’s o3 وGoogle Gemini 2.5 Pro.
نماذج مفتوحة المصدر بأحجام متعددة
تتوفر معظم النماذج أو ستتوفر قريبًا للتنزيل من خلال منصات GitHub وHugging Face، وذلك بموجب ترخيص مفتوح المصدر. كما تتنوع أحجام هذه النماذج من 0.6 مليار إلى 235 مليار معامل. مما يمنحها قدرات واسعة في حل المشكلات والتفاعل مع الاستفسارات المعقدة.
تصميم هجين يجمع بين السرعة والتفكير العميق
وصفت علي بابا النماذج بأنها هجينة، إذ يمكنها معالجة المهام البسيطة بسرعة، وفي الوقت ذاته تأخذ وقتًا للتفكير عند مواجهة مهام أكثر تعقيدًا. كما يسمح هذا التصميم للنموذج بتقييم إجاباته ذاتيًا، بطريقة تشبه نماذج OpenAI المتقدمة، وإن كان ذلك يأتي على حساب سرعة الاستجابة.
بنية مرنة باستخدام تقنيات “الخبراء المتخصصين”
اعتمدت بعض هذه النماذج على تقنية Mixture of Experts (MoE)، وهي بنية تسمح بتوزيع المهام على نماذج فرعية متخصصة. هذه المقاربة تُحسن من الكفاءة الحسابية وتقلل من استهلاك الموارد عند التعامل مع استفسارات المستخدمين.
دعم 119 لغة وتدريب على بيانات ضخمة
وفقًا لعلي بابا، تدعم نماذج Qwen3 أكثر من 119 لغة، وتم تدريبها على قاعدة بيانات تضم أكثر من 36 تريليون رمز. وقد شملت البيانات المستخدمة كتبًا تعليمية، أسئلة وأجوبة، شيفرات برمجية، بيانات من إنتاج الذكاء الاصطناعي، وغيرها.
نماذج بأحجام مختلفة تناسب جميع الاستخدامات
تشمل سلسلة Qwen3 ثمانية نماذج مفتوحة، منها نموذجين بتقنية “الخبراء المتعددين” (MoE) وستة نماذج كثيفة (Dense):
النماذج المفتوحة:
- Qwen3-235B-A22B:
يحتوي على 235 مليار معامل كلي و22 مليار مفعل، ويحقق أداءً يتفوق على o3-mini وGemini 2.5 Pro في اختبارات البرمجة والمنطق. - Qwen3-30B-A3B:
نموذج أصغر بـ 30 مليار معامل كلي و3 مليار مفعل، لكنه يتفوق على نماذج أكبر مثل QwQ-32B. - النماذج الكثيفة الأخرى:
Qwen3-32B، Qwen3-14B، Qwen3-8B، Qwen3-4B، Qwen3-1.7B، Qwen3-0.6B.
أداء قوي في اختبارات البرمجة والاستدلال
رغم أن Qwen3 لا تتفوق كليًا على نماذج OpenAI المتقدمة، إلا أنها سجلت نتائج مبهرة على منصات مثل Codeforces. كما تفوقت نسخة Qwen-3-235B-A22B على نموذج o3-mini في اختبارات برمجة مثل AIME وBFCL، لكن هذه النسخة لم تُطرح بعد للعامة.
أما النموذج الأكبر المتاح للجمهور حاليًا فهو Qwen3-32B، وقد حقق نتائج منافسة لنماذج مفتوحة ومغلقة المصدر، متجاوزًا أداء نموذج OpenAI’s o1 في اختبارات مثل LiveCodeBench.
جاهزية للاستعمال السحابي وتكامل مع مزودي الخدمات
إلى جانب إمكانية التنزيل، تتوفر النماذج على منصات الحوسبة السحابية مثل Fireworks AI وHyperbolic، ما يجعلها متاحة للاستخدام التجاري الفوري.
تعليقات الخبراء: النماذج المفتوحة تلحق بالمغلقة
صرح “توهيـن سريفاستافا”، الرئيس التنفيذي لشركة Baseten، بأن Qwen3 تعكس اتجاهًا متصاعدًا للنماذج المفتوحة المصدر في اللحاق بالنماذج المغلقة من شركات كبرى مثل OpenAI وAnthropic. كما أشار إلى أن القيود الأمريكية على تصدير شرائح الذكاء الاصطناعي إلى الصين لم تمنع هذه النماذج من التطور محليًا وبلوغ مستوى عالمي.
في النهاية، تمثل نماذج على بابا الجديدة قفزة كبيرة في طموحات علي بابا في مجال الذكاء الاصطناعي. من خلال دعم لغات متعددة، وبنية هجينة مرنة، وقدرات قوية في البرمجة والتفكير المنطقي، تثبت هذه النماذج أن المنافسة بين الشرق والغرب في الذكاء الاصطناعي أصبحت أكثر تقاربًا من أي وقت مضى.