تكنولوجيا

الصور والفيديوهات المفبركة… سلاح خفي في حروب العصر الرقمي – 21 طريقة لاكتشاف الفيديوهات المفبركة

الصور والفيديوهات المفبركة… سلاح خفي في حروب العصر الرقمي – 21 طريقة لاكتشاف الفيديوهات المفبركة

كتب ا. د. وائل بدوى.

في زمن الذكاء الاصطناعي، لم يعد كل ما نراه حقيقيًا.
الفيديوهات المفبركة أصبحت أداة خطيرة للتضليل، تستخدم في الحروب، والسياسة، وحتى في التأثير على الرأي العام.
لكن رغم تطور هذه التقنيات، لا تزال هناك طرق تساعدك على كشفها.

21 طريقة لاكتشاف الفيديوهات المفبركة

1. تفاصيل الوجه غير طبيعية

أحد أهم المؤشرات التي تكشف الفيديو المفبرك هو عدم طبيعية تفاصيل الوجه، حتى لو بدا الفيديو واقعيًا للوهلة الأولى. تقنيات التزييف العميق تعتمد على تدريب نماذج ذكاء اصطناعي على آلاف الصور، لكنها لا تزال تعاني من صعوبة في الحفاظ على اتساق التفاصيل الدقيقة عبر الزمن.

قد تلاحظ أن:
• شكل الوجه يتغير قليلًا بين الإطارات
• ملمس الجلد يبدو “ناعمًا أكثر من اللازم” أو بلا مسام
• الحدود بين الوجه والشعر غير واضحة
• لون البشرة يتغير بشكل طفيف أثناء الحركة

السبب أن النموذج يحاول “إعادة رسم الوجه” في كل إطار، وليس تصويره بشكل حقيقي، مما يؤدي إلى أخطاء دقيقة لكنها قابلة للملاحظة.

الخبراء لا ينظرون إلى الوجه كصورة ثابتة، بل كـ نظام ديناميكي. لذلك، راقب:
• ثبات ملامح العينين
• تناسق الفك
• استقرار الأنف

إذا شعرت أن الوجه “يتحول” بدل أن يتحرك، فهذه علامة قوية على التزييف.

باختصار:
الوجه الحقيقي ثابت في هويته…
أما الوجه المفبرك فهو متغير في تفاصيله الدقيقة.

2. عدم تطابق حركة الشفاه مع الصوت

يُعد عدم التزامن بين الصوت وحركة الشفاه من أكثر العلامات وضوحًا، حتى مع تطور تقنيات الذكاء الاصطناعي.

في الفيديو الحقيقي:
• حركة الشفاه مرتبطة بدقة بالنطق
• كل حرف له شكل فم محدد
• التوقيت متزامن بشكل طبيعي

أما في الفيديو المفبرك:
• قد يتأخر الصوت جزءًا من الثانية
• أو يسبق حركة الشفاه
• أو تظهر حركات فم لا تتطابق مع الكلمات

السبب أن أنظمة التزييف غالبًا تُنشئ الصوت والصورة بشكل منفصل، ثم تحاول مزامنتهما لاحقًا، مما يخلق فجوة زمنية أو تشويهًا في الحركة.

راقب جيدًا:
• حروف مثل “ب”، “م”، “ف” (تحتاج إغلاق الشفاه)
• هل يتم نطقها دون إغلاق الفم؟

أيضًا:
• الكلمات الطويلة قد يظهر فيها “انزلاق” في التزامن
• الضحك أو الانفعال غالبًا يكون غير متوافق مع الصوت

المهم هنا أن العين والأذن يجب أن تتفقا.
إذا شعرت أن هناك انفصالًا بين ما تراه وما تسمعه… فهذه إشارة قوية.

3. تعبيرات الوجه غير طبيعية (جامدة أو مبالغ فيها)

الوجه البشري من أكثر الأنظمة تعقيدًا في التعبير، حيث يحتوي على عشرات العضلات التي تعمل بتناسق دقيق لإنتاج مشاعر طبيعية.

لكن في الفيديو المفبرك:
• التعبيرات تكون “سطحية”
• أو مبالغ فيها
• أو غير متناسقة مع السياق

قد ترى:
• ابتسامة ثابتة لفترة طويلة
• غضب دون تغير حقيقي في ملامح العين
• حزن بدون “انكسار” في الوجه

السبب أن الذكاء الاصطناعي يقلد الشكل الخارجي للتعبير، لكنه لا يفهم العمق العاطفي الحقيقي.

في الواقع:
• المشاعر تنتقل تدريجيًا
• وتظهر في أكثر من منطقة (العين + الفم + الجبهة)

أما في التزييف:
• قد يظهر التعبير في منطقة واحدة فقط

مثال مهم:
الابتسامة الحقيقية تظهر في العين (تجاعيد خفيفة)
أما المزيفة فتكون في الفم فقط

لذلك، اسأل نفسك:
هل هذا الوجه “يشعر”… أم “يمثل”؟

4. حركة الرمش غير طبيعية

حركة الرمش من أكثر المؤشرات التي يعتمد عليها الخبراء، لأنها سلوك لا إرادي معقد يصعب على الذكاء الاصطناعي محاكاته بدقة.

الإنسان الطبيعي:
• يرمش بمعدل 15–20 مرة في الدقيقة
• يختلف معدل الرمش حسب التوتر أو التركيز
• الرمش غير منتظم

أما في الفيديو المفبرك:
• قد لا يرمش الشخص لفترة طويلة
• أو يرمش بشكل منتظم جدًا (كأنه روبوت)
• أو يكون الرمش سريعًا بشكل غير طبيعي

السبب أن النماذج القديمة لم تكن مدربة جيدًا على هذه التفاصيل، وحتى الحديثة لا تزال تواجه صعوبة في جعل الرمش “عشوائيًا طبيعيًا”.

راقب:
• هل الرمش متكرر بنفس التوقيت؟
• هل هناك فترات طويلة بدون رمش؟

أيضًا:
• أحيانًا تكون حركة الجفن غير كاملة
• أو لا تغلق العين بشكل طبيعي

هذه التفاصيل الصغيرة تكشف الكثير.

5. الإضاءة غير متناسقة

الإضاءة واحدة من أصعب العناصر التي يمكن على الذكاء الاصطناعي تقليدها بدقة، لأنها تعتمد على قوانين فيزيائية معقدة.

في الفيديو الحقيقي:
• الضوء يأتي من مصدر واضح
• الظلال تتبع نفس الاتجاه
• الإضاءة على الوجه والخلفية متناسقة

أما في الفيديو المفبرك:
• قد يكون الوجه مضاء من جهة… والخلفية من جهة أخرى
• أو تظهر إضاءة “مسطحة” غير واقعية
• أو تتغير الإضاءة أثناء الحركة بشكل غير منطقي

مثال:
إذا كان الضوء يأتي من اليمين،
يجب أن يكون الظل على اليسار دائمًا.

لكن في الفيديو المزيف:
• قد يتغير اتجاه الظل
• أو يختفي تمامًا

أيضًا:
• انعكاس الضوء في العين (Catchlight) قد يكون غير منطقي

الإضاءة تكشف التزييف لأنها مرتبطة بالواقع الفيزيائي،
وأي خلل فيها يعني أن المشهد… لم يُلتقط بالكاميرا، بل صُنع بالخوارزميات.

6. الظلال غير منطقية أو غير متطابقة مع مصدر الإضاءة

الظلال ليست مجرد تأثير بصري، بل هي انعكاس مباشر لقوانين الفيزياء. لذلك، تُعد من أقوى الأدلة التي تكشف التزييف.

في الفيديو الحقيقي:
• لكل مصدر ضوء اتجاه محدد
• الظلال تتوافق مع زاوية الضوء
• طول الظل وشدته منطقيان

أما في الفيديو المفبرك:
• قد ترى ظلًا في اتجاه لا يتطابق مع الإضاءة
• أو ظلالًا متعددة بدون وجود مصادر ضوء واضحة
• أو ظلالًا “مقطوعة” أو غير مكتملة

السبب أن الذكاء الاصطناعي يركّز على الوجه أو الجسم، لكنه لا يحاكي البيئة الفيزيائية بدقة كافية.

راقب:
• ظل الأنف
• ظل الذقن
• الظل خلف الشخص

إذا كان الظل لا يتفق مع الضوء… فالمشهد غير حقيقي.

الظلال لا تكذب… لأنها تتبع قوانين لا يمكن التلاعب بها بسهولة.

 

7. تشوهات في التفاصيل الدقيقة (الأصابع – الأسنان – الأذنين)

الذكاء الاصطناعي بارع في “الصورة العامة”، لكنه يضعف عند التفاصيل الدقيقة.

في الفيديو المفبرك، تظهر أخطاء في:
• عدد الأصابع أو شكلها
• الأسنان (غير متناسقة أو مشوشة)
• الأذنين (مشوهة أو غير متماثلة)

السبب أن هذه الأجزاء:
• تحتوي على تفاصيل معقدة
• وتتغير باستمرار أثناء الحركة
• ويصعب على النموذج توليدها بدقة في كل إطار

لاحظ:
• أصابع “ملتصقة” أو غير طبيعية
• أسنان غير واضحة أو متحركة بشكل غريب
• أذن تتغير شكلها عند الحركة

هذه الأخطاء قد تكون صغيرة… لكنها قاتلة في كشف التزييف.

 

8. الصوت غير متناسق مع السياق أو البيئة

ليس فقط التزامن مهم، بل سياق الصوت نفسه.

في الفيديو الحقيقي:
• الصوت يتأثر بالمكان (صدى – ضوضاء – مسافة)
• يتغير حسب حركة الشخص

أما في الفيديو المفبرك:
• الصوت قد يبدو “مفصولًا” عن البيئة
• لا يوجد صدى أو تأثير مكاني
• نبرة الصوت ثابتة بشكل غير طبيعي

مثال:
شخص يتحدث في شارع مزدحم…
لكن الصوت يبدو كأنه في استوديو!

هذا خلل واضح.

أيضًا:
• قد يكون الصوت “نظيفًا أكثر من اللازم”
• أو خاليًا من الضوضاء الطبيعية

الصوت الحقيقي يعيش داخل البيئة…
أما المزيف فيبدو وكأنه “مضاف” عليها.

 

9. حركات جسدية غير طبيعية (Biomechanics Errors)

الجسم البشري يخضع لقوانين بيوميكانيكية دقيقة، يصعب على الذكاء الاصطناعي تقليدها بالكامل.

في الفيديو المفبرك قد ترى:
• دوران الرأس بزاوية غير طبيعية
• حركة يد لا تتوافق مع الجسم
• انتقال مفاجئ بين وضعيات

أحيانًا:
• الجسم يتحرك بسلاسة “زائدة عن الحد”
• أو بشكل متقطع

مثال مهم:
الإنسان لا يمكنه تدوير رأسه 360 درجة…
لكن بعض النماذج قد تنتج حركة قريبة من ذلك.

راقب:
• الرقبة
• الكتفين
• توازن الجسم

إذا شعرت أن الحركة “غير إنسانية”… فهي كذلك.

 

10. استخدام أدوات كشف التزييف (Deepfake Detection Tools)

مع تطور التزييف، ظهرت أدوات مضادة تعتمد على الذكاء الاصطناعي لكشفه.

هذه الأدوات تقوم بـ:
• تحليل الإطارات (Frame Analysis)
• اكتشاف التكرار أو التشوهات
• فحص الترددات البصرية
• مقارنة الأنماط مع بيانات حقيقية

بعضها يعتمد على:
• تحليل حركة الوجه
• أو فحص البكسلات
• أو الكشف عن “بصمة التزييف”

لكن مهم جدًا:
هذه الأدوات ليست 100% دقيقة،
بل هي وسيلة مساعدة.

لذلك:
• لا تعتمد عليها وحدها
• بل استخدمها مع التحليل البشري

الذكاء الاصطناعي يُزيّف…
والذكاء الاصطناعي يكشف…
لكن الحكم النهائي يبقى للإنسان.

11. تغيّر جودة الفيديو داخل نفس المشهد

في الفيديو الحقيقي، تكون الجودة متسقة نسبيًا عبر كامل المشهد، حتى مع اختلاف الإضاءة أو الحركة.
أما في الفيديو المفبرك، فقد تلاحظ تغيرًا مفاجئًا في الجودة، خاصة في مناطق معينة مثل الوجه.

قد يظهر:
• الوجه أكثر وضوحًا من الخلفية
• أو العكس
• أو تتغير الدقة فجأة أثناء الحركة

السبب أن الذكاء الاصطناعي غالبًا يركز على “العنصر المستهدف” (الوجه مثلًا)، ويقوم بإعادة توليده، بينما تبقى باقي الصورة كما هي، مما يخلق عدم تجانس بصري.

راقب:
• هل الوجه يبدو “مركبًا” فوق المشهد؟
• هل هناك اختلاف في وضوح العناصر؟

أي تغير غير منطقي في الجودة داخل نفس اللقطة… مؤشر قوي على التلاعب.

 

12. اهتزاز أو تشوه حول الوجه (Edge Artifacts)

من العلامات الدقيقة التي يعتمد عليها الخبراء وجود “تشوهات” حول حواف الوجه، خاصة أثناء الحركة.

في الفيديو المفبرك:
• قد ترى اهتزازًا خفيفًا حول الرأس
• أو “هالة” غير طبيعية
• أو تكسير في الحواف

السبب أن عملية الدمج بين الوجه المفبرك والخلفية لا تكون مثالية دائمًا، خصوصًا في الحركات السريعة.

راقب:
• حدود الوجه مع الخلفية
• الشعر عند الحركة
• الذقن عند الالتفات

إذا لاحظت أن الحواف “غير ثابتة”… فهذه إشارة قوية.

 

13. خلفية غير مستقرة أو غير منطقية

الذكاء الاصطناعي يركز غالبًا على الشخص، ويُهمل الخلفية.

في الفيديو المفبرك قد تلاحظ:
• عناصر في الخلفية تتحرك بشكل غريب
• أو تتغير بدون سبب
• أو تختفي وتظهر

أحيانًا:
• الظلال في الخلفية لا تتوافق مع حركة الشخص
• أو الكاميرا تبدو ثابتة بينما الخلفية “تتلاعب”

في الفيديو الحقيقي، الخلفية:
• ثابتة نسبيًا
• وتتبع قوانين الحركة والضوء

أما في التزييف:
• قد تكون “ثانوية” ومليئة بالأخطاء

الخلفية تكشف الحقيقة… لأنها أصعب في التوليد من الوجه.

 

14. تقطيع غير منطقي أو انتقالات غريبة

الفيديو المفبرك غالبًا يعتمد على دمج لقطات متعددة، مما يؤدي إلى:
• قفزات زمنية غير مبررة
• تغيّر مفاجئ في زاوية الكاميرا
• انقطاع غير طبيعي في الحركة

في الفيديو الحقيقي:
• الحركة مستمرة
• والانتقالات طبيعية

أما في المزيف:
• قد تشعر أن هناك “شيئًا مفقودًا” بين اللقطات
• أو أن التسلسل غير منطقي

اسأل نفسك:
هل هذا المشهد متصل… أم مركب؟

 

15. بيانات الفيديو (Metadata) غير متناسقة

كل فيديو يحتوي على بيانات مخفية تُعرف باسم “الميتاداتا”، تشمل:
• تاريخ التصوير
• نوع الكاميرا
• الموقع

في الفيديو الحقيقي:
• هذه البيانات تكون منطقية ومتسقة

أما في الفيديو المفبرك:
• قد تكون مفقودة
• أو معدلة
• أو لا تتوافق مع القصة

مثال:
فيديو يُقال إنه حديث… لكن بياناته قديمة!

أو:
فيديو من هاتف… لكن الميتاداتا تشير إلى برنامج تعديل.

يمكن استخدام أدوات لفحص هذه البيانات، وهي من أقوى الأدلة التقنية.

 

16. مصدر الفيديو غير موثوق

أول وأبسط مؤشر—وغالبًا الأقوى—هو مصدر الفيديو.

في العالم الرقمي، المصدر هو نصف الحقيقة.
إذا كان الفيديو منتشرًا من:
• حساب مجهول
• صفحة جديدة
• قناة بلا تاريخ أو مصداقية

فهذا يرفع احتمالية التزييف بشكل كبير.

في المقابل:
• المؤسسات الإعلامية الموثوقة
• الجهات الرسمية
• الصحفيون المعروفون

يخضعون لمعايير تحقق صارمة.

لكن المهم:
حتى المصادر الكبيرة قد تخطئ، لذلك لا تعتمد فقط على “الاسم”، بل على السجل والمصداقية.

قاعدة ذهبية:
كلما كان المصدر أضعف… كان الشك أقوى.

 

17. غياب التغطية من مصادر متعددة

الأحداث الكبيرة لا تحدث في عزلة.

إذا رأيت فيديو لحدث ضخم:
• قصف
• انفجار
• تصريح خطير

ولم تجده في:
• وكالات أنباء
• قنوات موثوقة
• منصات رسمية

فهذه علامة تحذير.

في الواقع:
• الأخبار الحقيقية تنتشر عبر أكثر من مصدر
• ويتم تأكيدها بسرعة

أما الفيديو المفبرك:
• غالبًا يظهر في دائرة محدودة
• أو يتم تداوله فقط على وسائل التواصل

اسأل نفسك:
هل هذا الحدث “حقيقي”… أم “منفرد بشكل مريب”؟

 

18. التوقيت المشبوه للنشر

التزييف لا يحدث عشوائيًا… بل في توقيت مدروس.

غالبًا يظهر المحتوى المفبرك:
• أثناء الأزمات
• في الحروب
• قبل أو بعد أحداث سياسية مهمة

الهدف:
• التأثير على الرأي العام
• نشر الذعر
• توجيه الانتباه

إذا ظهر فيديو “صادم” في توقيت حساس،
فهذا لا يعني أنه حقيقي… بل قد يكون مُصممًا لهذا التوقيت تحديدًا.

 

19. إعادة استخدام محتوى قديم (Out-of-Context)

أحد أخطر أنواع التضليل ليس التزييف الكامل، بل إعادة استخدام فيديو حقيقي في سياق خاطئ.

مثال:
• فيديو قديم من حرب سابقة
• يُعاد نشره على أنه حدث اليوم

وهذا النوع صعب الكشف لأنه:
• “حقيقي”… لكن “مضلل”

لذلك:
• تحقق من تاريخ الفيديو
• ابحث عنه في الإنترنت
• قارن بين النسخ المختلفة

الحقيقة قديمة… لكن الكذبة جديدة.

 

20. البحث العكسي والتحقق البصري

من أقوى الأدوات المتاحة للجميع:
• Google Lens
• InVID
• أدوات التحقق البصري

يمكنك من خلالها:
• معرفة أصل الفيديو
• العثور على النسخة الأولى
• اكتشاف التعديلات

هذه الأدوات تكشف:
• هل الفيديو قديم
• هل تم قصه أو تعديله
• أين ظهر أول مرة

وهي خطوة أساسية لأي تحقق احترافي.

 

21. التفكير النقدي (أهم أداة على الإطلاق)

في النهاية، أهم أداة ليست تقنية… بل عقلية.

التفكير النقدي يعني:
• عدم تصديق كل ما تراه
• طرح الأسئلة
• تحليل المنطق

اسأل نفسك:
• هل هذا منطقي؟
• هل هناك دليل كافٍ؟
• من المستفيد من نشر هذا الفيديو؟

إذا كان الفيديو:
• صادم جدًا
• مثير للعاطفة
• يدفعك للمشاركة فورًا

فهنا يجب أن تتوقف.

لأن التزييف لا يستهدف عينيك…
بل عاطفتك.

 

في عصر الذكاء الاصطناعي،
لم يعد التحدي هو الوصول إلى المعلومة…
بل التمييز بين الحقيقة والزيف.

الوعي الرقمي أصبح ضرورة،
لأن أخطر ما في الحروب الحديثة ليس السلاح…
بل الصورة المفبركة.

 

تم نسخ الرابط بنجاح!

مقالات ذات صلة

زر الذهاب إلى الأعلى