بدأت شركة ميتا بتنفيذ خطة واسعة النطاق تعتمد على الذكاء الاصطناعي لأتمتة ما يصل إلى 90٪ من تقييمات الخصوصية والمخاطر المجتمعية عند إطلاق ميزات جديدة في تطبيقاتها مثل إنستغرام وواتساب وفيسبوك. هذا التغيير يمثل تحولًا جذريًا في سياسة الشركة التي كانت تعتمد سابقًا على مراجعين بشريين لاتخاذ هذه القرارات الحساسة.
خلفية قانونية تفرض مراجعة الخصوصية
منذ عام 2012، تُلزم لجنة التجارة الفيدرالية الأميركية (FTC) شركة ميتا بمراجعة جميع التحديثات من منظور الخصوصية. لكن وفقًا لوثائق داخلية حصلت عليها شبكة NPR، سيقوم النظام الجديد بإجراء التقييمات بناءً على استبيان يملأه فريق المنتج، ليحصل بعدها على “قرار فوري” يتضمن المخاطر المحتملة والمتطلبات التنظيمية.
هذا القرار لن يُراجع تلقائيًا من قبل موظفين بشريين كما كان في السابق، بل تُترك حرية طلب المراجعة اليدوية لفريق التطوير نفسه، وهو ما يثير قلقًا داخليًا بشأن خفض مستوى الرقابة.
نظام يعتمد على النماذج الذكية
تحت النظام الجديد، سيُطلب من فرق العمل في ميتا ملء استبيان يصف المشروع أو التحديث الجديد. وبناءً على ذلك، يحصل الفريق على “قرار فوري” يتضمن تقييمًا للمخاطر المحتملة وشروط إطلاق الميزة بناءً على تحليل النموذج الذكي.
يعتمد هذا الأسلوب على تسريع وتيرة التحديثات من خلال تقليل المراجعات البشرية. ومع ذلك، تظهر مخاوف حقيقية بشأن النتائج المحتملة. بحسب تصريحات أحد المسؤولين التنفيذيين السابقين، تؤدي هذه السرعة إلى ارتفاع مستوى المخاطر، لأن التغييرات قد تُطلق قبل رصد آثارها السلبية على المستخدمين أو المجتمع. لذلك، من المهم مراعاة التوازن بين الكفاءة وسلامة التجربة الرقمية.
المخاطر تشمل سلامة الذكاء الاصطناعي والمحتوى الضار
تشمل مجالات الأتمتة التي تعتمدها ميتا سلامة نماذج الذكاء الاصطناعي، والمخاطر التي تهدد المراهقين، إلى جانب المحتوى العنيف أو المضلل الذي يصنّف ضمن فئة “النزاهة”. في المقابل، تزداد المخاوف بين بعض الموظفين الحاليين والسابقين بشأن هذا التوجه. حيث يرون أن تسريع التحديثات دون مراجعة دقيقة قد يؤدي إلى نتائج غير متوقعة. كما أنه يزيد من احتمالية ظهور آثار اجتماعية أو أخلاقية تضر بالمستخدمين. لذلك، تبرز الحاجة إلى رقابة أكثر توازنًا تضمن حماية التجربة الرقمية من العواقب السلبية.
مخاوف من تضارب الأولويات داخل الشركة
يشير زفيكا كريغر، المدير السابق للابتكار المسؤول في ميتا، إلى أن معظم المهندسين يفتقرون إلى الخبرة الكافية في مجال الخصوصية. وبدلًا من التركيز على تقييم المخاطر، يحصلون على التقدير بناءً على سرعة طرح المنتجات. نتيجة لذلك، تتحول بعض التقييمات الذاتية داخل الشركة إلى إجراءات شكلية لا ترصد المخاطر الحقيقية. ومن خلال هذا النهج، تزداد احتمالات التغاضي عن تأثيرات قد تكون ضارة على المستخدمين أو على بيئة المنصة الرقمية.
من جهة أخرى، عبر موظف حالي عن مخاوفه من تقليص دور البشر في تقييم المخاطر، واصفًا ذلك بأنه تصرف “غير مسؤول”. وقد شدد على أهمية الرؤية البشرية لفهم كيف يمكن أن تسوء الأمور في العالم الحقيقي.
استثناءات لمستخدمي أوروبا
يبدو أن مستخدمي الاتحاد الأوروبي سيكونون أقل تأثرًا بالتغييرات، إذ تبقى مراجعة المنتجات والبيانات الشخصية تحت إشراف المقر الأوروبي في أيرلندا، التزامًا بقانون الخدمات الرقمية (DSA).
خلفية سياسية وتحولات داخلية
تأتي هذه التغييرات في سياق أوسع داخل ميتا يتمثل في تخفيف سياسات الإشراف. فالشركة أنهت برنامج التحقق من الحقائق وخففت قيود خطاب الكراهية، بالتزامن مع محاولات مارك زوكربيرغ تحسين علاقته مع الرئيس الأميركي السابق دونالد ترامب، الذي وصف انتخابه بنقطة تحول ثقافية.
هل التحول نحو السرعة يضعف جودة التقييم؟
تشير تقارير داخلية إلى أن ميتا بدأت باستخدام الذكاء الاصطناعي ليس فقط في تقييم المخاطر، بل أيضًا في مراقبة المحتوى، وتقول الشركة إن بعض النماذج اللغوية الكبيرة بدأت تتجاوز الأداء البشري في مجالات محددة من السياسة.
مع ذلك، يُحذر بعض الموظفين من أن الاعتماد المفرط على الأتمتة قد يُضعف فعالية الرقابة ويزيد من احتمالات وقوع أضرار حقيقية، خاصة مع تسارع وتيرة تطوير المنتجات.
استثمار كبير في الخصوصية
في المقابل، قالت ميتا في بيانها الرسمي إنها استثمرت أكثر من 8 مليارات دولار في برنامج الخصوصية الخاص بها. كما أكدت التزامها بتطوير منتجات مبتكرة تتماشى مع القوانين التنظيمية.
وأضافت الشركة: “نحن نحسن عملياتنا باستمرار لرصد المخاطر وتسهيل اتخاذ القرار، ونستخدم التكنولوجيا لتوفير قرارات موحدة في الحالات منخفضة المخاطر، بينما نعتمد على الخبراء البشريين في القضايا المعقدة والجديدة”.
في النهاية، تعتمد ميتا على الأتمتة لتسريع الابتكار وتطوير منتجاتها بشكل أسرع. ومع ذلك، تثير هذه الخطوة تساؤلات متزايدة حول كفاءة الأنظمة الذكية في التعامل مع المخاطر الدقيقة والمعقدة. ومن خلال توسع الشركة في استخدام الذكاء الاصطناعي، يصبح من الضروري إيجاد توازن واضح بين السرعة في الإنجاز، ودقة التقييم، ودور الخبرة البشرية. بهذا التوازن، يمكن ضمان تجربة رقمية أكثر أمانًا ومسؤولية لجميع المستخدمين.




