• Landing Page
  • Shop
  • Contact
  • Buy JNews
02-04-2026 | 4:22
  • تسجيل الدخول
وصل بوست
  • الرئيسية
  • أخبار
  • إقتصاد
  • تكنولوجيا
  • رياضة
لا توجد نتيجة
عرض كافة النتائج
  • الرئيسية
  • أخبار
  • إقتصاد
  • تكنولوجيا
  • رياضة
لا توجد نتيجة
عرض كافة النتائج
وصل بوست
لا توجد نتيجة
عرض كافة النتائج

احذروا من عملية احتيال جديدة على يوتيوب: فيديو مزيف بتقنية الذكاء الاصطناعي

صورة توضيحية لمنصة يوتيوب

صورة توضيحية لمنصة يوتيوب

في تحذير جديد لمستخدمي منصة يوتيوب (Youtube)، أصدرت الشركة إشعارًا لمنشئي المحتوى بشأن عملية احتيال جديدة تستخدم مقاطع فيديو مزيفة بتقنية الذكاء الاصطناعي، تدّعي أنها من رئيس يوتيوب التنفيذي، نيل موهان. الهدف من هذا الفيديو المزيف هو خداع الضحايا وسرقة بيانات تسجيل دخولهم.

ما هي الحيلة؟

وفقا لموقع Theverge، أن الفيديو يتم مشاركته بشكل خاص مع المستخدمين، ويزعم أنه يخص تغييرات في سياسات تحقيق الدخل على المنصة. ولكن الحقيقة أن الهدف هو استدراج المستخدمين للحصول على بيانات دخولهم الخاصة. يوتيوب أكدت أن المنصة لا تتواصل مع منشئي المحتوى عبر مقاطع فيديو خاصة، مما يعني أن أي فيديو يتم مشاركته بهذه الطريقة هو بالتأكيد عملية تصيد احتيالي.

قد يعجبك أيضاً

إطلاق فلتر المكياج المدعوم بالذكاء الاصطناعي في Google Meet

قرار صادم من OpenAI: إطلاق محتوى إباحي على ChatGPT للمستخدمين البالغين

Perplexity تطلق ميزة جديدة لتعلم اللغات بأسلوب تفاعلي

كيف يتم الاحتيال؟

في الأسابيع الأخيرة، ظهرت تقارير على منصة ريديت حول رسائل احتيالية مشابهة، حيث تلقى العديد من المستخدمين رسائل بريد إلكتروني مشبوهة من حسابات تحمل أسماء مثل “Notification for YouTube Creators” أو “Channel for Creators”. هذه الرسائل تضمنت فيديوهات خاصة تدعي تغييرات في سياسات تحقيق الدخل، وتطلب من المستخدمين تحميل ملفات مشبوهة.

أحد المستخدمين أشار إلى أنه تلقى فيديو خاصًا من حساب باسم “Channel for Creators” يطالبه بالموافقة على سياسة جديدة لتحقيق الدخل عبر موقع مزيف يشبه DocuSign، بينما كان رابط الفيديو يصله من عنوان بريد إلكتروني باسم “No reply”.

تقنيات الذكاء الاصطناعي وDeepfake:

هذه الحيلة تستخدم تقنيات الذكاء الاصطناعي، مثل تقنية “Deepfake”، التي تتيح تعديل أو إنشاء مقاطع فيديو يظهر فيها شخص ما وهو يتحدث أو يفعل أشياء لم يفعلها في الحقيقة. هذا النوع من التكنولوجيا يسهل على المحتالين انتحال شخصية أشخاص موثوقين مثل نيل موهان، مما يجعل الفيديو يبدو أكثر مصداقية.

كيف تحمي نفسك؟

  • تأكد من المصدر: يوتيوب لا يرسل مقاطع فيديو خاصة للمستخدمين عبر البريد الإلكتروني. لذا، إذا تلقيت مثل هذه الرسائل، تجنب فتح الروابط أو تحميل الملفات.
  • الإبلاغ عن الفيديوهات المزيفة: يوتيوب تطلب من مستخدميها الإبلاغ عن أي مقاطع فيديو مزيفة عبر الموقع الرسمي للمنصة.
  • تحديث كلمات السر: إذا كنت قد تفاعلت مع أي من هذه الفيديوهات المزيفة، تأكد من تغيير كلمات السر الخاصة بحساباتك على يوتيوب.
  • تفعيل المصادقة الثنائية (Two-Factor Authentication): استخدام المصادقة الثنائية يزيد من أمان حسابك ويعزز الحماية ضد محاولات الاختراق.

تأثير الاحتيال على منشئي المحتوى:

هذه الأنواع من الاحتيال يمكن أن تؤدي إلى سرقة الحسابات وبيانات الدخول الشخصية، مما يعرض منشئي المحتوى لخطر فقدان الوصول إلى قنواتهم أو نشر محتوى ضار. من الضروري أن تكون حذرًا إذا كنت تتلقى أي رسائل مشبوهة أو طلبات تحميل من مصدر غير موثوق.

كيفية تحديد المواقع المزيفة مثل DocuSign:

يجب الحذر من المواقع التي تبدو مشابهة لمواقع معروفة مثل DocuSign. تأكد من التحقق من عنوان URL الخاص بالموقع وتجنب إدخال معلومات حساسة إذا كنت غير متأكد من مصداقيته. دائمًا تحقق من الأمان باستخدام HTTPS والتأكد من أن الموقع يحتوي على شهادة أمان موثوقة.

تجنب الوقوع في فخ الاحتيال!

عملية الاحتيال هذه ليست جديدة، فقد سبق وأن رُصد فيديو مزيف يستخدم تقنية التزييف العميق (Deepfake) لرئيس يوتيوب التنفيذي نيل موهان في عام 2023. لذا، من الضروري أن تكون دائمًا حذرًا وتتأكد من أي محتوى قبل التفاعل معه.

الأسئلة الشائعة (FAQ):

كيف يمكنني الإبلاغ عن الاحتيال؟ 

يمكنك الإبلاغ عن الفيديوهات المزيفة من خلال الموقع الرسمي ليوتيوب.

ماذا أفعل إذا تم اختراق حسابي؟ 

تأكد من تغيير كلمة السر فورًا، وتفعيل المصادقة الثنائية، والإبلاغ عن الحادث لفريق دعم يوتيوب.

نصيحة يوتيوب لمنشئي المحتوى: 

دائمًا ما توصي يوتيوب منشئي المحتوى بالإبلاغ عن أي مقاطع فيديو مشبوهة عبر موقعها الرسمي للحفاظ على حساباتهم وحمايتها من السرقة.

مشاركة55تغريد34Pin12
Raghda Osama

Raghda Osama

مقالات ذات صلة

صورة توضح ميزة المكياج المدعوم بالذكاء الاصطناعي في Google Meet أثناء مكالمة فيديو، تُظهر كيف يمنح الفلتر مظهراً طبيعياً واحترافياً للمستخدم.

إطلاق فلتر المكياج المدعوم بالذكاء الاصطناعي في Google Meet

2025-10-20
0

كشفت شركة جوجل عن ميزة مبتكرة في تطبيقها Google Meet، تمكن المستخدمين من الظهور بإطلالة أنيقة واحترافية عبر فلتر مكياج...

إعلان شركة OpenAI عن إتاحة محتوى إباحي على ChatGPT للبالغين ضمن تحديث ديسمبر 2025 المثير للجدل.

قرار صادم من OpenAI: إطلاق محتوى إباحي على ChatGPT للمستخدمين البالغين

2025-10-19
0

سبب إعلان سام ألتمان، الرئيس التنفيذي لشركة OpenAI، موجة جدل واسعة بعد كشفه عن نية الشركة إطلاق تحديث جديد لتطبيق...

واجهة منصة Perplexity AI تُظهر ميزة تعلم اللغات الجديدة بطريقة تفاعلية تعزز مهارات المحادثة والترجمة للمستخدمين

Perplexity تطلق ميزة جديدة لتعلم اللغات بأسلوب تفاعلي

2025-10-19
0

في خطوة تعكس التطور السريع في عالم الذكاء الاصطناعي، كشفت منصة Perplexity AI عن ميزة جديدة تُحدث تحولاً في طريقة...

واجهة تطبيق Gemini Live على هاتف أندرويد تُظهر ميزة الصوت الأصلي الجديدة من جوجل التي تُحاكي الصوت البشري في المحادثة.

جوجل تُوسع طرح Gemini Live مع الصوت الأصلي للأندرويد

2025-10-19
0

أعلنت جوجل مؤخراً عن طرح أوسع لميزة Gemini Live مع دعم الصوت الأصلي في نظام أندرويد، بدءاً من سلسلة هواتف...

اترك تعليقا

وصل بوست

منصة إعلامية مهتمة بالشأن العربي والدولي، توصلك بالأخبار المهمة لحظة بلحظة أين ما كانت وأين ما تكون.

تصنيفات

  • أخبار
  • إقتصاد
  • تاريخ
  • تكنولوجيا
  • رياضة
  • وصِل بوست ميديا

أحدث المقالات

  • إطلاق فلتر المكياج المدعوم بالذكاء الاصطناعي في Google Meet
  • قرار صادم من OpenAI: إطلاق محتوى إباحي على ChatGPT للمستخدمين البالغين
  • Perplexity تطلق ميزة جديدة لتعلم اللغات بأسلوب تفاعلي

جميع الحقوق محفوظة © 2024 شبكة وصِل بوست الاعلامية

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
لا توجد نتيجة
عرض كافة النتائج
  • الرئيسية
  • أخبار
  • إقتصاد
  • تكنولوجيا
  • رياضة

جميع الحقوق محفوظة © 2024 شبكة وصِل بوست الاعلامية