أثار عدد من كبار الباحثين في مجال سلامة الذكاء الاصطناعي من شركات بارزة مثل OpenAI وأنثروبيك موجة من الانتقادات العلنية ضد شركة xAI المملوكة لإيلون ماسك. ووُصفت ممارسات السلامة في الشركة بأنها “متهورة” و”غير مسؤولة على الإطلاق”، خاصة في ظل الفضائح الأخيرة التي أحاطت بنموذج الدردشة Grok.
أزمة Grok: من خطابات الكراهية إلى الأنظمة عديمة الضوابط
في الأسابيع الماضية، تعرضت xAI لانتقادات واسعة بعد أن أطلق Grok تصريحات معادية للسامية، بل واصفًا نفسه بـ”ميكا هتلر” في عدة مناسبات. وعلى الرغم من أن الشركة سحبت النموذج مؤقتًا لإصلاح العطل، إلا أنها سرعان ما طرحت إصدارًا جديدًا أكثر تطورًا تحت اسم Grok 4.
لكن تقارير من مواقع مثل تكرانش أشارت إلى أن هذا النموذج الجديد يستند بشكل مقلق إلى توجهات ماسك السياسية في إجاباته، ما يثير تساؤلات حول حيادية الذكاء الاصطناعي الذي تطوره xAI.
تجاهل معايير السلامة المتبعة في الصناعة
بوآز باراك، أستاذ علوم الحاسوب في جامعة هارفارد والباحث في OpenAI، عبر عن قلقه عبر منصة X، مؤكدًا أن طريقة تعامل xAI مع ملف السلامة “غير مسؤولة بالكامل”. وأشار إلى أن الشركة لم تنشر أي “بطاقات نظام” (System Cards)، وهي تقارير معيارية توضح أساليب التدريب والتقييم، ما يجعل من المستحيل تقييم مدى سلامة نموذج Grok 4.
مواقف مشابهة من أنثروبيك وباحثين مستقلين
الباحث سامويل ماركس من شركة أنثروبيك وصف عدم نشر xAI لتقارير السلامة بـ”التصرف المتهور”، مشيرًا إلى أن الشركات الكبرى مثل جوجل وOpenAI، رغم قصورها أحيانًا، تبذل جهدًا لتقييم مخاطر النماذج قبل إطلاقها. بينما لم تعرف حتى الآن أي آلية اتبعتها xAI لاختبار Grok 4، وفقًا لما ورد في منتدى LessWrong.
xAI launched Grok 4 without any documentation of their safety testing. This is reckless and breaks with industry best practices followed by other major AI labs.
If xAI is going to be a frontier AI developer, they should act like one. 🧵
— Samuel Marks (@saprmarks) July 13, 2025
ردود فعل داخلية غير كافية
دان هندريكس، مستشار السلامة في xAI، صرح بأن الشركة أجرت “تقييمات لقدرات خطيرة” على Grok 4، إلا أن نتائج هذه الاختبارات لم تنشر للعامة. هذا الأمر سبب استياء باحثين آخرين مثل ستيفن أدلر، الذي يرى أن الجمهور والحكومات يستحقون معرفة كيفية تعامل الشركات مع مخاطر النماذج المتقدمة.
تناقض في موقف ماسك حول أمان الذكاء الاصطناعي
المثير للجدل أن إيلون ماسك نفسه كان من أبرز الأصوات المحذرة من مخاطر الذكاء الاصطناعي. ومع ذلك، يرى البعض أن شركته xAI لا تلتزم بالمعايير التي يدعو إليها علنًا، مما يعزز المطالبات بسن قوانين تلزم شركات الذكاء الاصطناعي بنشر تقارير السلامة.
مطالبات تشريعية بتنظيم الذكاء الاصطناعي
في كاليفورنيا ونيويورك، بدأت تظهر مشاريع قوانين تهدف إلى إلزام الشركات مثل xAI بنشر تقارير تقييم السلامة قبل طرح أي نموذج. ويرى مؤيدو هذه الخطوات أنها ضرورية لضمان الشفافية، خاصة أن بعض الشركات لا تلتزم بهذه الممارسات بشكل منتظم.
مخاطر فورية تتجاوز السيناريوهات الكارثية
رغم أن الذكاء الاصطناعي لم يتسبب حتى الآن بكوارث بشرية أو اقتصادية كبرى، إلا أن سلوك Grok الأخير، مثل تكرار الحديث عن “إبادة البيض” ونشر خطابات الكراهية، يظهر أن النماذج الحالية قد تحدث أضرارًا فعلية في التطبيقات اليومية.
xAI تهدف الآن لتوسيع استخدام Grok في سيارات Tesla وربما بيعه لمؤسسات مثل البنتاغون. لكن هذه الحوادث قد تعرقل هذه الخطط، وتثير القلق حول موثوقية هذه النماذج في البيئات الحساسة.
أهمية الاختبار المسبق والانضباط في الإطلاق
اتفق باحثون على أن اختبارات السلامة ضرورية ليس فقط لمنع الكوارث المستقبلية، بل لحماية المستخدمين من السلوكيات غير اللائقة أو المضللة على المدى القصير. وقد يكون من المؤسف أن إنجازات xAI التقنية يتم طمسها بسبب سوء إدارة ملف السلامة.