في خطوة جديدة تهدف إلى تعزيز سلامة المراهقين، أعلنت شركة ميتا عن تحديثات مهمة في طريقة تدريب روبوتات الدردشة بالذكاء الاصطناعي، وذلك بعد تقارير صحفية أثارت جدلاً واسعًا حول ضعف معايير الحماية الخاصة بالقُصَّر.
تغييرات شاملة على سياسات التدريب
أكدت ميتا أن روبوتات الدردشة لن تتفاعل مع المراهقين في مواضيع حساسة مثل إيذاء النفس والانتحار، أو اضطرابات الأكل، وكذلك المحادثات الرومانسية غير المناسبة. وأوضحت المتحدثة باسم الشركة ستيفاني أوتواي أن هذه الخطوة تأتي كإجراء مؤقت، في انتظار طرح سياسات أكثر شمولًا واستدامة خلال الفترة المقبلة.
كما أضافت أن الأنظمة ستعمل على توجيه المراهقين إلى موارد متخصصة وخبراء عند طرح مواضيع حساسة، مما يعزز من مستوى الحماية الرقمية الموجهة للفئات العمرية الصغيرة.
قيود على شخصيات الدردشة
إلى جانب تحديث التدريب، ستُقلص ميتا وصول المراهقين إلى بعض شخصيات الدردشة المثيرة للجدل، مثل الشخصيات التي تحمل طابعًا جنسيًا. وبدلاً من ذلك، سيتم توجيههم لاستخدام شخصيات افتراضية تركّز على التعليم والإبداع، سواء على إنستغرام أو فيسبوك.
فضيحة روبوتات المشاهير
كشفت رويترز أن ميتا أنشأت روبوتات دردشة تنتحل شخصيات مشاهير مثل تايلور سويفت وسكارليت جوهانسون وسيلينا غوميز. بعض هذه الروبوتات دخل في محادثات ذات طابع “مغازلة”، وأنتج محتوى غير مناسب. بعد تفاعل ملايين المستخدمين معها، قامت الشركة بإزالتها نهائيًا، معتبرة ذلك خطأً في سياساتها الداخلية.
خلفية الأزمة
جاءت هذه الخطوة بعد تحقيق نشرته رويترز كشف عن مستند داخلي لدى ميتا، سمح سابقًا لروبوتات الدردشة بالانخراط في محادثات ذات طابع جنسي مع مستخدمين قُصَّر. التقرير أثار انتقادات واسعة، ودفع أعضاء في الكونغرس، من بينهم السيناتور جوش هاولي، إلى فتح تحقيق رسمي في سياسات الشركة. كما وجه ائتلاف يضم 44 مدعيًا عامًا في الولايات المتحدة رسالة إلى شركات الذكاء الاصطناعي، شددوا فيها على ضرورة حماية الأطفال ومنع أي تجاوزات.
رد ميتا
اعترفت ميتا بأن السماح لمثل هذه التفاعلات كان خطأً، وأكدت أنها عدلت الوثائق الداخلية لتكون متوافقة مع سياسات حماية المستخدمين. كما أشارت إلى أن أنظمتها ستوجّه المراهقين نحو موارد متخصصة وخبراء في حال طلبوا المساعدة بشأن مواضيع حساسة.
مستقبل حماية القصر
ترى ميتا أن هذه الخطوة ليست سوى بداية نحو بناء منظومة أكثر أمانًا للمراهقين في العالم الرقمي. الشركة أكدت أنها ستواصل تطوير سياسات الحماية وتحديث أنظمة الذكاء الاصطناعي بما يضمن تجارب آمنة وملائمة للفئات العمرية الصغيرة.




