شهدت تقنيات الذكاء الاصطناعي تطورًا هائلًا في السنوات الأخيرة، إلا أن إحدى التحديات البارزة التي ما زالت تواجه هذا المجال هي مشكلة “الهلوسة” أو “أخطاء الذكاء الاصطناعي”، وتحدث هذه الهلوسة عندما تنتج نماذج الذكاء الاصطناعي معلومات غير دقيقة أو مضللة، مما يسبب مخاطر كبيرة على الأفراد والشركات التي تعتمد على هذه التقنيات في اتخاذ القرارات.
وللتصدي لهذا التحدي، أعلنت شركة مايكروسوفت عن تطوير أداة جديدة تحت اسم “Correction” (التصحيح)، تهدف إلى تقليل حدوث الهلوسات وتحسين موثوقية المحتوى الناتج عن الذكاء الاصطناعي، حيث تم دمج هذه الأداة في واجهة برمجة تطبيقات أمان المحتوى لمنصة Azure AI Content Safety، بهدف تعزيز مصداقية المخرجات التي يوفرها الذكاء الاصطناعي.
أهمية معالجة مشكلة الهلوسة
مع تزايد استخدام تقنيات الذكاء الاصطناعي في حياتنا اليومية، يصبح من الضروري التعامل مع مشكلة الهلوسات لضمان ثقة الجمهور في هذه التقنيات، ورغم أن أداة “التصحيح” من مايكروسوفت تمثل تقدمًا كبيرًا، إلا أن الخبراء يرون أن المشكلة أكثر تعقيدًا مما تبدو عليه.
ميزات أداة التصحيح من مايكروسوفت
1. الكشف عن التأسيسية
تعتمد أداة التصحيح من مايكروسوفت على ميزة فريدة تُسمى “Groundedness Detection” (الكشف عن التأسيسية)، حيث تعمل هذه الآلية على تحديد المحتوى غير المؤسس أو الهلوسات في النصوص التي تنتجها نماذج الذكاء الاصطناعي، وتتم هذه العملية من خلال مقارنة مخرجات الذكاء الاصطناعي بالمصادر الموثوقة مثل المستندات أو النصوص المكتوبة مسبقًا، مما يضمن توافق المخرجات مع المعلومات الصحيحة ويقلل من احتمالية نشر المعلومات المضللة.
2. آلية من مرحلتين
تتبع أداة التصحيح عملية مكونة من مرحلتين لتصحيح الأخطاء.
في المرحلة الأولى، يقوم النموذج التصنيفي بتحديد أي محتوى قد يكون غير دقيق أو مضلل، وفي حال اكتشاف هلاوس “أخطاء الذكاء الاصطناعي”، يقوم النموذج اللغوي في المرحلة الثانية بتنقيح النص بناءً على المستندات التأسيسية، مما يضمن دقة المحتوى الذي يُنتجه الذكاء الاصطناعي، تهدف هذه العملية متعددة المراحل إلى تحسين مصداقية المحتوى بشكل ملحوظ.
3. التوافق مع نماذج الذكاء الاصطناعي المختلفة
تتميز أداة التصحيح بمرونتها العالية، حيث إنها متوافقة مع مجموعة متنوعة من نماذج الذكاء الاصطناعي، مثل “Llama” من شركة Meta و”GPT-4o” من OpenAI، مما يجعلها أداة مثالية للمطورين الذين يعملون على منصات مختلفة، حيث يُمكن دمجها بسهولة في سير العمل الخاص بهم لتحسين جودة المحتوى الناتج.
تحديات مستمرة وآفاق مستقبلية
رغم أن أداة التصحيح من مايكروسوفت تقدم تحسينات ملحوظة في التعامل مع مشكلة الهلوسات، إلا أنها لا تقدم حلًا كاملًا للمشكلة الأساسية، ويواصل الخبراء مناقشة ما إذا كانت هذه الأداة قادرة على حل المشكلة بشكل نهائي أم أنها مجرد خطوة مؤقتة في طريق معالجة مشكلة أعمق.
مقارنة بين مايكروسوفت وجوجل في التعامل مع الهلوسات في الذكاء الاصطناعي
تسعى كل من مايكروسوفت وجوجل للتغلب على مشكلة الهلوسات في الذكاء الاصطناعي، حيث قدمت الشركتان حلولاً مختلفة لهذا التحدي، وقد أطلقت مايكروسوفت أداة “التصحيح” ضمن منصتها Azure، بينما طرحت جوجل ميزة مخصصة في “Vertex AI”. لكن رغم الهدف المشترك، فإن الأساليب المتبعة لحل هذه المشكلة تختلف بشكل ملحوظ.
أداة التصحيح من مايكروسوفت
تعتمد أداة التصحيح التي طورتها مايكروسوفت على الأتمتة الكاملة لتحديد وتصحيح الهلوسات “أخطاء الذكاء الاصطناعي” في الوقت الفعلي، ويتم ذلك من خلال واجهة برمجة تطبيقات أمان المحتوى الخاصة بمنصة Azure، حيث تستخدم الأداة مستندات تأسيسية لضمان دقة المحتوى الناتج عن الذكاء الاصطناعي، مما يسمح بتحسين موثوقية المعلومات بسرعة ودون تدخل بشري، مما يقلل من احتمالية نشر معلومات مضللة.
ميزة Vertex AI من جوجل
في المقابل، تعتمد جوجل في منصتها “Vertex AI” على نهج أكثر تفاعلية، حيث تتيح للمستخدمين إمكانية التحقق من صحة المحتوى الناتج عن نماذجهم باستخدام أدوات مثل محرك بحث جوجل، أو مجموعات البيانات الخاصة، أو مصادر خارجية موثوقة، مما يمنح المستخدمين قدرة أكبر على التحكم في دقة المعلومات، حيث يقومون بمراجعة المحتوى وتصحيحه بأنفسهم، بدلاً من الاعتماد على أداة آلية بالكامل.
الاختلافات الأساسية بين النهجين
رغم أن كل من مايكروسوفت وجوجل تهدفان إلى تحسين موثوقية المحتوى الناتج عن الذكاء الاصطناعي، إلا أن الفروق بين الأداتين واضحة، حيث تقدم أداة مايكروسوفت تصحيحًا تلقائيًا للهلوسات، مما يجعلها أكثر ملاءمة للاستخدامات التي تتطلب سرعة وموثوقية عالية دون تدخل بشري، بينما تركز ميزة “Vertex AI” من جوجل على التحقق الذاتي من قبل المستخدمين، مما يمنحهم مرونة أكبر في التحكم بالمحتوى، ولكن يتطلب منهم بذل مجهود إضافي لضمان دقة المعلومات.
التحديات المستمرة
رغم هذه الجهود، يواجه كل من النهجين تحديات كبيرة في حل مشكلة الهلوسات بشكل كامل، ويرى الخبراء أن التصحيح التلقائي والتحقق اليدوي لا يزالان مجرد خطوات في طريق معالجة مشكلة أعمق تتعلق بطبيعة عمل الذكاء الاصطناعي نفسه، ومن الواضح أن الحل النهائي لهذه المشكلة لم يتم التوصل إليه بعد، مما يستدعي مواصلة البحث والتطوير لتحسين موثوقية هذه التقنيات.