• Landing Page
  • Shop
  • Contact
  • Buy JNews
14-02-2026 | 9:01
  • تسجيل الدخول
وصل بوست
  • الرئيسية
  • أخبار
  • إقتصاد
  • تكنولوجيا
  • رياضة
لا توجد نتيجة
عرض كافة النتائج
  • الرئيسية
  • أخبار
  • إقتصاد
  • تكنولوجيا
  • رياضة
لا توجد نتيجة
عرض كافة النتائج
وصل بوست
لا توجد نتيجة
عرض كافة النتائج

انتقادات حادة لثقافة السلامة في xAI المملوكة لإيلون ماسك

صورة تعبيرية تظهر شعار xAI المملوكة لإيلون ماسك

صورة تعبيرية تظهر شعار xAI المملوكة لإيلون ماسك

أثار عدد من كبار الباحثين في مجال سلامة الذكاء الاصطناعي من شركات بارزة مثل OpenAI وأنثروبيك موجة من الانتقادات العلنية ضد شركة xAI المملوكة لإيلون ماسك. ووُصفت ممارسات السلامة في الشركة بأنها “متهورة” و”غير مسؤولة على الإطلاق”، خاصة في ظل الفضائح الأخيرة التي أحاطت بنموذج الدردشة Grok.

أزمة Grok: من خطابات الكراهية إلى الأنظمة عديمة الضوابط

في الأسابيع الماضية، تعرضت xAI لانتقادات واسعة بعد أن أطلق Grok تصريحات معادية للسامية، بل واصفًا نفسه بـ”ميكا هتلر” في عدة مناسبات. وعلى الرغم من أن الشركة سحبت النموذج مؤقتًا لإصلاح العطل، إلا أنها سرعان ما طرحت إصدارًا جديدًا أكثر تطورًا تحت اسم Grok 4.

قد يعجبك أيضاً

إطلاق فلتر المكياج المدعوم بالذكاء الاصطناعي في Google Meet

قرار صادم من OpenAI: إطلاق محتوى إباحي على ChatGPT للمستخدمين البالغين

Perplexity تطلق ميزة جديدة لتعلم اللغات بأسلوب تفاعلي

لكن تقارير من مواقع مثل تكرانش أشارت إلى أن هذا النموذج الجديد يستند بشكل مقلق إلى توجهات ماسك السياسية في إجاباته، ما يثير تساؤلات حول حيادية الذكاء الاصطناعي الذي تطوره xAI.

تجاهل معايير السلامة المتبعة في الصناعة

بوآز باراك، أستاذ علوم الحاسوب في جامعة هارفارد والباحث في OpenAI، عبر عن قلقه عبر منصة X، مؤكدًا أن طريقة تعامل xAI مع ملف السلامة “غير مسؤولة بالكامل”. وأشار إلى أن الشركة لم تنشر أي “بطاقات نظام” (System Cards)، وهي تقارير معيارية توضح أساليب التدريب والتقييم، ما يجعل من المستحيل تقييم مدى سلامة نموذج Grok 4.

مواقف مشابهة من أنثروبيك وباحثين مستقلين

الباحث سامويل ماركس من شركة أنثروبيك وصف عدم نشر xAI لتقارير السلامة بـ”التصرف المتهور”، مشيرًا إلى أن الشركات الكبرى مثل جوجل وOpenAI، رغم قصورها أحيانًا، تبذل جهدًا لتقييم مخاطر النماذج قبل إطلاقها. بينما لم تعرف حتى الآن أي آلية اتبعتها xAI لاختبار Grok 4، وفقًا لما ورد في منتدى LessWrong.

xAI launched Grok 4 without any documentation of their safety testing. This is reckless and breaks with industry best practices followed by other major AI labs.

If xAI is going to be a frontier AI developer, they should act like one. 🧵

— Samuel Marks (@saprmarks) July 13, 2025

ردود فعل داخلية غير كافية

دان هندريكس، مستشار السلامة في xAI، صرح بأن الشركة أجرت “تقييمات لقدرات خطيرة” على Grok 4، إلا أن نتائج هذه الاختبارات لم تنشر للعامة. هذا الأمر سبب استياء باحثين آخرين مثل ستيفن أدلر، الذي يرى أن الجمهور والحكومات يستحقون معرفة كيفية تعامل الشركات مع مخاطر النماذج المتقدمة.

تناقض في موقف ماسك حول أمان الذكاء الاصطناعي

المثير للجدل أن إيلون ماسك نفسه كان من أبرز الأصوات المحذرة من مخاطر الذكاء الاصطناعي. ومع ذلك، يرى البعض أن شركته xAI لا تلتزم بالمعايير التي يدعو إليها علنًا، مما يعزز المطالبات بسن قوانين تلزم شركات الذكاء الاصطناعي بنشر تقارير السلامة.

مطالبات تشريعية بتنظيم الذكاء الاصطناعي

في كاليفورنيا ونيويورك، بدأت تظهر مشاريع قوانين تهدف إلى إلزام الشركات مثل xAI بنشر تقارير تقييم السلامة قبل طرح أي نموذج. ويرى مؤيدو هذه الخطوات أنها ضرورية لضمان الشفافية، خاصة أن بعض الشركات لا تلتزم بهذه الممارسات بشكل منتظم.

مخاطر فورية تتجاوز السيناريوهات الكارثية

رغم أن الذكاء الاصطناعي لم يتسبب حتى الآن بكوارث بشرية أو اقتصادية كبرى، إلا أن سلوك Grok الأخير، مثل تكرار الحديث عن “إبادة البيض” ونشر خطابات الكراهية، يظهر أن النماذج الحالية قد تحدث أضرارًا فعلية في التطبيقات اليومية.

xAI تهدف الآن لتوسيع استخدام Grok في سيارات Tesla وربما بيعه لمؤسسات مثل البنتاغون. لكن هذه الحوادث قد تعرقل هذه الخطط، وتثير القلق حول موثوقية هذه النماذج في البيئات الحساسة.

أهمية الاختبار المسبق والانضباط في الإطلاق

اتفق باحثون على أن اختبارات السلامة ضرورية ليس فقط لمنع الكوارث المستقبلية، بل لحماية المستخدمين من السلوكيات غير اللائقة أو المضللة على المدى القصير. وقد يكون من المؤسف أن إنجازات xAI التقنية يتم طمسها بسبب سوء إدارة ملف السلامة.

مشاركة54تغريد34Pin12
Raghda Osama

Raghda Osama

مقالات ذات صلة

صورة توضح ميزة المكياج المدعوم بالذكاء الاصطناعي في Google Meet أثناء مكالمة فيديو، تُظهر كيف يمنح الفلتر مظهراً طبيعياً واحترافياً للمستخدم.

إطلاق فلتر المكياج المدعوم بالذكاء الاصطناعي في Google Meet

2025-10-20
0

كشفت شركة جوجل عن ميزة مبتكرة في تطبيقها Google Meet، تمكن المستخدمين من الظهور بإطلالة أنيقة واحترافية عبر فلتر مكياج...

إعلان شركة OpenAI عن إتاحة محتوى إباحي على ChatGPT للبالغين ضمن تحديث ديسمبر 2025 المثير للجدل.

قرار صادم من OpenAI: إطلاق محتوى إباحي على ChatGPT للمستخدمين البالغين

2025-10-19
0

سبب إعلان سام ألتمان، الرئيس التنفيذي لشركة OpenAI، موجة جدل واسعة بعد كشفه عن نية الشركة إطلاق تحديث جديد لتطبيق...

واجهة منصة Perplexity AI تُظهر ميزة تعلم اللغات الجديدة بطريقة تفاعلية تعزز مهارات المحادثة والترجمة للمستخدمين

Perplexity تطلق ميزة جديدة لتعلم اللغات بأسلوب تفاعلي

2025-10-19
0

في خطوة تعكس التطور السريع في عالم الذكاء الاصطناعي، كشفت منصة Perplexity AI عن ميزة جديدة تُحدث تحولاً في طريقة...

واجهة تطبيق Gemini Live على هاتف أندرويد تُظهر ميزة الصوت الأصلي الجديدة من جوجل التي تُحاكي الصوت البشري في المحادثة.

جوجل تُوسع طرح Gemini Live مع الصوت الأصلي للأندرويد

2025-10-19
0

أعلنت جوجل مؤخراً عن طرح أوسع لميزة Gemini Live مع دعم الصوت الأصلي في نظام أندرويد، بدءاً من سلسلة هواتف...

اترك تعليقا

وصل بوست

منصة إعلامية مهتمة بالشأن العربي والدولي، توصلك بالأخبار المهمة لحظة بلحظة أين ما كانت وأين ما تكون.

تصنيفات

  • أخبار
  • إقتصاد
  • تاريخ
  • تكنولوجيا
  • رياضة
  • وصِل بوست ميديا

أحدث المقالات

  • إطلاق فلتر المكياج المدعوم بالذكاء الاصطناعي في Google Meet
  • قرار صادم من OpenAI: إطلاق محتوى إباحي على ChatGPT للمستخدمين البالغين
  • Perplexity تطلق ميزة جديدة لتعلم اللغات بأسلوب تفاعلي

جميع الحقوق محفوظة © 2024 شبكة وصِل بوست الاعلامية

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
لا توجد نتيجة
عرض كافة النتائج
  • الرئيسية
  • أخبار
  • إقتصاد
  • تكنولوجيا
  • رياضة

جميع الحقوق محفوظة © 2024 شبكة وصِل بوست الاعلامية