• Landing Page
  • Shop
  • Contact
  • Buy JNews
18-07-2025 | 2:37
  • تسجيل الدخول
وصل بوست
  • الرئيسية
  • أخبار
  • إقتصاد
  • تاريخ
  • تكنولوجيا
  • رياضة
  • وصِل بوست ميديا
لا توجد نتيجة
عرض كافة النتائج
  • الرئيسية
  • أخبار
  • إقتصاد
  • تاريخ
  • تكنولوجيا
  • رياضة
  • وصِل بوست ميديا
لا توجد نتيجة
عرض كافة النتائج
وصل بوست
لا توجد نتيجة
عرض كافة النتائج

انتقادات حادة لثقافة السلامة في xAI المملوكة لإيلون ماسك

صورة تعبيرية تظهر شعار xAI المملوكة لإيلون ماسك

صورة تعبيرية تظهر شعار xAI المملوكة لإيلون ماسك

أثار عدد من كبار الباحثين في مجال سلامة الذكاء الاصطناعي من شركات بارزة مثل OpenAI وأنثروبيك موجة من الانتقادات العلنية ضد شركة xAI المملوكة لإيلون ماسك. ووُصفت ممارسات السلامة في الشركة بأنها “متهورة” و”غير مسؤولة على الإطلاق”، خاصة في ظل الفضائح الأخيرة التي أحاطت بنموذج الدردشة Grok.

أزمة Grok: من خطابات الكراهية إلى الأنظمة عديمة الضوابط

في الأسابيع الماضية، تعرضت xAI لانتقادات واسعة بعد أن أطلق Grok تصريحات معادية للسامية، بل واصفًا نفسه بـ”ميكا هتلر” في عدة مناسبات. وعلى الرغم من أن الشركة سحبت النموذج مؤقتًا لإصلاح العطل، إلا أنها سرعان ما طرحت إصدارًا جديدًا أكثر تطورًا تحت اسم Grok 4.

قد يعجبك أيضاً

روبلكس تعزز حماية المراهقين بتقنيات جديدة للتحقق من العمر وأدوات خصوصية مخصصة

تيك توك يكشف عن ميزات جديدة لدعم المؤلفين الموسيقيين

آبل تُطلق لعبة “Emoji Game” ضمن خدمة Apple News+ لجذب المشتركين

لكن تقارير من مواقع مثل تكرانش أشارت إلى أن هذا النموذج الجديد يستند بشكل مقلق إلى توجهات ماسك السياسية في إجاباته، ما يثير تساؤلات حول حيادية الذكاء الاصطناعي الذي تطوره xAI.

تجاهل معايير السلامة المتبعة في الصناعة

بوآز باراك، أستاذ علوم الحاسوب في جامعة هارفارد والباحث في OpenAI، عبر عن قلقه عبر منصة X، مؤكدًا أن طريقة تعامل xAI مع ملف السلامة “غير مسؤولة بالكامل”. وأشار إلى أن الشركة لم تنشر أي “بطاقات نظام” (System Cards)، وهي تقارير معيارية توضح أساليب التدريب والتقييم، ما يجعل من المستحيل تقييم مدى سلامة نموذج Grok 4.

مواقف مشابهة من أنثروبيك وباحثين مستقلين

الباحث سامويل ماركس من شركة أنثروبيك وصف عدم نشر xAI لتقارير السلامة بـ”التصرف المتهور”، مشيرًا إلى أن الشركات الكبرى مثل جوجل وOpenAI، رغم قصورها أحيانًا، تبذل جهدًا لتقييم مخاطر النماذج قبل إطلاقها. بينما لم تعرف حتى الآن أي آلية اتبعتها xAI لاختبار Grok 4، وفقًا لما ورد في منتدى LessWrong.

xAI launched Grok 4 without any documentation of their safety testing. This is reckless and breaks with industry best practices followed by other major AI labs.

If xAI is going to be a frontier AI developer, they should act like one. 🧵

— Samuel Marks (@saprmarks) July 13, 2025

ردود فعل داخلية غير كافية

دان هندريكس، مستشار السلامة في xAI، صرح بأن الشركة أجرت “تقييمات لقدرات خطيرة” على Grok 4، إلا أن نتائج هذه الاختبارات لم تنشر للعامة. هذا الأمر سبب استياء باحثين آخرين مثل ستيفن أدلر، الذي يرى أن الجمهور والحكومات يستحقون معرفة كيفية تعامل الشركات مع مخاطر النماذج المتقدمة.

تناقض في موقف ماسك حول أمان الذكاء الاصطناعي

المثير للجدل أن إيلون ماسك نفسه كان من أبرز الأصوات المحذرة من مخاطر الذكاء الاصطناعي. ومع ذلك، يرى البعض أن شركته xAI لا تلتزم بالمعايير التي يدعو إليها علنًا، مما يعزز المطالبات بسن قوانين تلزم شركات الذكاء الاصطناعي بنشر تقارير السلامة.

مطالبات تشريعية بتنظيم الذكاء الاصطناعي

في كاليفورنيا ونيويورك، بدأت تظهر مشاريع قوانين تهدف إلى إلزام الشركات مثل xAI بنشر تقارير تقييم السلامة قبل طرح أي نموذج. ويرى مؤيدو هذه الخطوات أنها ضرورية لضمان الشفافية، خاصة أن بعض الشركات لا تلتزم بهذه الممارسات بشكل منتظم.

مخاطر فورية تتجاوز السيناريوهات الكارثية

رغم أن الذكاء الاصطناعي لم يتسبب حتى الآن بكوارث بشرية أو اقتصادية كبرى، إلا أن سلوك Grok الأخير، مثل تكرار الحديث عن “إبادة البيض” ونشر خطابات الكراهية، يظهر أن النماذج الحالية قد تحدث أضرارًا فعلية في التطبيقات اليومية.

xAI تهدف الآن لتوسيع استخدام Grok في سيارات Tesla وربما بيعه لمؤسسات مثل البنتاغون. لكن هذه الحوادث قد تعرقل هذه الخطط، وتثير القلق حول موثوقية هذه النماذج في البيئات الحساسة.

أهمية الاختبار المسبق والانضباط في الإطلاق

اتفق باحثون على أن اختبارات السلامة ضرورية ليس فقط لمنع الكوارث المستقبلية، بل لحماية المستخدمين من السلوكيات غير اللائقة أو المضللة على المدى القصير. وقد يكون من المؤسف أن إنجازات xAI التقنية يتم طمسها بسبب سوء إدارة ملف السلامة.

مشاركة54تغريد34Pin12
Raghda Osama

Raghda Osama

مقالات ذات صلة

واجهة روبلكس تعرض ميزات حماية المراهقين مثل الاتصالات الموثوقة وتقدير العمر وأدوات الرقابة الأبوية

روبلكس تعزز حماية المراهقين بتقنيات جديدة للتحقق من العمر وأدوات خصوصية مخصصة

2025-07-17
0

أعلنت شركة روبلكس (Roblox) عن إطلاق مجموعة من التدابير الجديدة لتحسين سلامة المراهقين الذين تتراوح أعمارهم بين 13 و18 عامًا....

واجهة تطبيق TikTok تُظهر ميزة جديدة مخصصة لدعم المؤلفين الموسيقيين لعرض أعمالهم وبناء حضور احترافي

تيك توك يكشف عن ميزات جديدة لدعم المؤلفين الموسيقيين

2025-07-17
0

في إطار جهودها لتعزيز دعم صناع المحتوى الموسيقي، كشفت منصة تيك توك عن مجموعة من الميزات الجديدة المصممة خصيصًا للمؤلفين...

واجهة لعبة Emoji Game على Apple News+ تعرض لغزًا باستخدام رموز تعبيرية Genmoji

آبل تُطلق لعبة “Emoji Game” ضمن خدمة Apple News+ لجذب المشتركين

2025-07-17
0

في خطوة جديدة لتعزيز خدمة Apple News+، أعلنت شركة آبل عن إضافة لعبة جديدة تحمل اسم "Emoji Game"، وهي لعبة...

شاشة بحث جوجل تُظهر ميزة الاتصال التجاري الذكي المدعومة بالذكاء الاصطناعي ونموذج Gemini 2.5 Pro

جوجل تطلق ميزة الاتصال التجاري الذكي وتُعزز البحث بنموذج Gemini 2.5 Pro

2025-07-17
0

في خطوة جديدة لتعزيز قدرات البحث والتفاعل مع الخدمات المحلية، أعلنت شركة جوجل عن طرح الاتصال التجاري الذكي تعمل بالذكاء...

اترك تعليقا

وصل بوست

منصة إعلامية مهتمة بالشأن العربي والدولي، توصلك بالأخبار المهمة لحظة بلحظة أين ما كانت وأين ما تكون.

تصنيفات

  • أخبار
  • إقتصاد
  • تاريخ
  • تكنولوجيا
  • رياضة
  • وصِل بوست ميديا

أحدث المقالات

  • انتقادات حادة لثقافة السلامة في xAI المملوكة لإيلون ماسك
  • روبلكس تعزز حماية المراهقين بتقنيات جديدة للتحقق من العمر وأدوات خصوصية مخصصة
  • تيك توك يكشف عن ميزات جديدة لدعم المؤلفين الموسيقيين

جميع الحقوق محفوظة © 2024 شبكة وصِل بوست الاعلامية

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
لا توجد نتيجة
عرض كافة النتائج
  • الرئيسية
  • أخبار
  • إقتصاد
  • تاريخ
  • تكنولوجيا
  • رياضة
  • وصِل بوست ميديا

جميع الحقوق محفوظة © 2024 شبكة وصِل بوست الاعلامية