كشفت شركة بايت دانس (ByteDance)، المالكة لمنصة تيك توك، عن نموذج ذكاء اصطناعي جديد يحمل اسم OmniHuman-1، والذي يُعد قفزة نوعية في توليد مقاطع الفيديو بالذكاء الاصطناعي، حيث يَعِد بتحسين جودة الفيديوهات المولدة بمقدار 10 أضعاف مقارنةً بالنماذج الحالية. يتميز OmniHuman-1 بإمكانية تحويل الصور الثابتة إلى مقاطع فيديو واقعية بناءً على إشارات حركة متعددة، مثل الصوت فقط، الفيديو فقط، أو مزيج من الصوت والفيديو.
كيف يحوّل OmniHuman-1 الصور إلى فيديوهات مذهلة؟
واقعية غير مسبوقة.. وتحديات جديدة
يتميز OmniHuman-1 بمستوى واقعي مذهل، لدرجة أنه قد يصبح من الصعب التمييز بين مقاطع الفيديو الحقيقية وتلك التي يُنتجها. هذا التطور يمثل خطوة كبيرة نحو تجاوز ما يُعرف بالوادي الغريب (Uncanny Valley)، حيث تصبح الشخصيات المُولدة رقميًا أكثر إقناعًا من الناحية البصرية والحركية.
لكن مع هذه الإمكانيات الثورية، تزداد المخاوف من إمكانية إساءة استخدام الفيديوهات المُنتجة بالذكاء الاصطناعي، سواء في التزييف العميق (Deepfake) أو في نشر محتوى مضلل. لذا، يُطالب الخبراء الشركات المطورة مثل بايت دانس بتطوير أدوات موثوقة تساعد في تمييز المحتوى المُولد بالذكاء الاصطناعي لمنع الخداع والاحتيال.
أهم مميزات OmniHuman-1
- استراتيجية تدريب مختلطة:
يستخدم تقنية التدريب المختلط للإشارات الحركية متعددة الوسائط، مما يسمح له بالاستفادة من تنوع البيانات وتحسين جودة الحركة والتعبيرات البشرية. - واقعية غير مسبوقة:
يتميز OmniHuman-1 بقدرته على إنتاج مقاطع فيديو بجودة فائقة حتى عند استخدام إشارات إدخال ضعيفة مثل الصوت فقط. - دعم أي نسبة أبعاد:
يمكنه إنشاء مقاطع فيديو لأي نوع من الصور، سواء كانت صور شخصية (Portrait)، نصف جسم (Half-body) أو جسم كامل (Full-body)، مع الحفاظ على التفاصيل والإضاءة والملمس الواقعي. - تحسين تعبيرات الوجه وإيماءات اليد:
يعاني العديد من النماذج السابقة من صعوبة محاكاة الحركات الطبيعية للأيدي أثناء الحديث، لكن OmniHuman-1 تمكن من تحسين هذا الجانب بشكل كبير. - تحريك الشخصيات وفقًا للموسيقى والغناء:
يمكنه التعامل مع أنماط موسيقية مختلفة، مثل الأغاني ذات النغمات العالية، وتوليد حركات متوافقة مع أسلوب الأغنية. - إمكانية تحريك الشخصيات الكرتونية والمجسمات الاصطناعية:
على عكس النماذج التقليدية، يدعم OmniHuman-1 تحريك الرسوم الكرتونية والشخصيات الافتراضية والحيوانات، مما يجعله أكثر مرونة وتنوعًا.
سباق الذكاء الاصطناعي يشتد
يأتي إطلاق OmniHuman-1 وسط سباق شرس بين عمالقة التكنولوجيا لتطوير نموذج ذكاء اصطناعي متقدم لتوليد الفيديو. وفقًا لوكالة رويترز، تخطط بايت دانس لاستثمارات تصل إلى 12 مليار دولار في مجال الذكاء الاصطناعي خلال عام 2025.
في المقابل، تعمل OpenAI على تطوير نموذج Sora، بينما تطوّر جوجل نموذج Veo، وهو أيضًا من النماذج المخصصة لإنشاء مقاطع فيديو عالية الجودة باستخدام الذكاء الاصطناعي.
الأسئلة الشائعة (FAQs)
هل يمكنني استخدام OmniHuman-1 حاليًا؟
لا، OmniHuman-1 غير متاح للاستخدام العام حاليًا، ولم يتم إصدار أي نسخة للتجربة.
هل يمكنه تحويل الصور الكرتونية إلى فيديوهات؟
نعم، يمكنه تحريك الصور الكرتونية والمجسمات الاصطناعية وحتى الحيوانات، مما يجعله مرنًا للغاية.
ما الفرق بين OmniHuman-1 و Sora من OpenAI؟
OmniHuman-1 يركز على تحريك الشخصيات باستخدام إشارات حركية متعددة (صوت، فيديو، مزيج من الاثنين). لكن Sora من OpenAI متخصص في إنتاج فيديوهات طويلة بناءً على نصوص.
هل يمكن أن يستخدم في إنشاء شخصيات افتراضية للألعاب؟
نعم، يمكن أن يكون مفيدًا جدًا لإنشاء شخصيات افتراضية تفاعلية للألعاب والميتافيرس، مما يفتح المجال لتجارب رقمية أكثر تطورًا.
هل نحن على أعتاب ثورة جديدة في صناعة المحتوى؟
مع ظهور تقنيات مثل OmniHuman-1، أصبح مستقبل إنتاج الفيديوهات أكثر تطورًا، حيث يمكن لأي شخص إنشاء محتوى بصري احترافي بسهولة غير مسبوقة. ومع ذلك، يبقى التحدي الأهم هو كيفية تنظيم هذه التكنولوجيا وضمان استخدامها بشكل مسؤول.
ما رأيك في هذه التطورات؟ هل ترى أنها ستفتح أبوابًا جديدة للإبداع، أم أنها تمثل خطرًا على المصداقية الرقمية؟




