الأحد 30 نوفمبر 2025 12:39 صـ 8 جمادى آخر 1447هـ

رئيس التحرير محمد يوسف رئيس مجلس الإدارة خالد فؤاد حبيب

رئيس التحرير محمد يوسف رئيس مجلس الإدارة خالد فؤاد حبيب

آراء وكتاب

مالك السعيد المحامي

مالك السعيد المحامي يكتب: قانون الإثبات في زمن الفيديو المفبرك.. كيف يواجه القضاء الأدلة المصنوعة بالذكاء الاصطناعي؟


يشهد قانون الإثبات في العالم تحولات جذرية مع دخول تقنيات الذكاء الاصطناعي المتقدمة إلى ساحة إنتاج الأدلة، وفي مقدمتها تقنية الفيديو المفبرك أو الـديب فيك التي تنتج صورًا ومقاطع شديدة الواقعية تستهدف تقويض الثقة في الحقيقة نفسها. وقد باتت المحاكم تواجه تحديًا مزدوجًا يتمثل في التمييز بين الأدلة الرقمية الأصلية وتلك المُصنّعة، وفي تطوير أدوات تحقق قادرة على كشف التلاعب بدقة علمية. هذا التحول يفرض إعادة تعريف لمفهوم “الحقيقة القضائية” في ظل بيئة معلوماتية مشوشة يختلط فيها الواقعي بالاصطناعي
تتعامل الأنظمة القضائية اليوم مع الأدلة الرقمية وفق مبدأين رئيسيين الأول هو سلامة المصدر أي ضمان أن المقطع أو الصورة جاءت من جهاز معروف أو منصة موثوقة ومسار نقل مُوثّق دون اختراق أو تعديل. الثاني هو سلامة المحتوى ويشمل خضوع المادة الرقمية للفحص الفني عبر أدوات تحليل البصمة الرقمية ومعدلات الإطار وأنماط الإضاءة ونِسَب التردد الصوتي. وتشير دراسات مختبرات التحقق الرقمية في الولايات المتحدة والاتحاد الأوروبي إلى أن نحو 63٪ من المقاطع محلّ الشك تظهر عليها علامات “اختلال ضوئي” أو “مناطق غير طبيعية في حركة الشفاه”، وهي مؤشرات يلتقطها تحليل الذكاء الاصطناعي العكسي المستخدم في الطب الشرعي الرقمي Digital Forensics
ويُعدّ الاتجاه الأبرز عالميًا هو الاعتماد على تحليل الميتاداتا أو “بيانات ما وراء الصورة” التي تكشف تاريخ الالتقاط ونوع الجهاز وخط سير الملف، وهو ما يسمح للمحققين بتتبع أي انقطاع أو إعادة تحرير غير مبررة. وفي المقابل تذهب بعض الأنظمة القضائية كالولايات المتحدة وكندا إلى اعتماد شهادة خبراء مختصين في تتبع الذكاء الاصطناعي عبر تقنيات مثل تحليل البصمة الخوارزمية التي تقيم نمط التوليد الاصطناعي من تكرار البِكسلات أو انتظام الحركة. ووفق بيانات لجنة النزاهة الرقمية الأمريكية لعام 2024 فإن 38٪ من القضايا الرقمية التي تتضمن فيديوهات مشكوك فيها حُسمت بعد الاستعانة بخبراء الذكاء الاصطناعي لإثبات وجود “تشوهات رياضية” في المادة المصنوعة
يتسع النقاش أيضًا ليشمل مسؤولية منصات التواصل عن انتشار الأدلة المزيفة وضرورة فرض قواعد إلزامية لـ“ختم المحتوى” Content Authentication بحيث يُرفق كل فيديو أو صورة برمز تشفير يثبت أصله، وهو اتجاه تبنته شركات كبرى مثل ميتا وأدوبي ومايكروسوفت ضمن مبادرة C2PA العالمية. وتؤكد تقارير الاتحاد الأوروبي أن 71٪ من المقاطع المفبركة متداولة على منصات لم تعتمد بعد أنظمة توثيق المحتوى، ما يعكس فجوة تشريعية وتكنولوجية تستوجب تدخلًا أكثر حسماً لضبط الفضاء الرقمي ومنع توظيف التقنية في تضليل العدالة أو تحريف الوقائع
في السياق ذاته تتقدم برامج الكشف الجنائي بخطوات واسعة إذ تطور المختبرات الأمنية تقنيات تحليل الحركة الدقيقة Micro-Expression Tracking التي تكشف تباينات لا تراها العين المجردة، إضافة إلى تقنيات تحليل ظل الوجه Shadow Consistency التي تفحص توافق الضوء على ملامح الشخص، وهي تفاصيل غالبًا ما تخطئ فيها خوارزميات التوليد. ويشير تقرير معهد فراونهوفر الألماني لعام 2025 إلى أن معدل اكتشاف الديب فيك ارتفع من 40٪ في 2020 إلى نحو 85٪ بفضل دمج الذكاء الاصطناعي في آليات الفحص
غير أن التحدي الأكبر يظل قانونيًا لا تقنيًا، فالأنظمة القضائية مطالبة بإعادة صياغة قواعد الإثبات بما يستوعب الطبيعة المتغيرة للأدلة الرقمية عبر وضع معايير إلزامية لاعتماد الفيديوهات، وتحديد من يتحمل عبء الإثبات عند الاشتباه في الفبركة، فضلًا عن ترسيخ مبدأ “قابلية التدقيق” Auditability في الأدلة التي تنتجها جهات أو أفراد. كما يتصاعد الجدل حول المسؤولية المدنية والجنائية لمنصات التواصل التي تسمح بنشر محتوى مفبرك دون تطبيق أدوات فحص حقيقية، خاصة في قضايا الابتزاز والتشهير والانتخابات العامة.
وفي سبيل السعي لمواجهة هذه الإشكالية تتجه الدول المتقدمة إلى وضع حزمة حلول عملية وقانونية تقلل تأثير الأدلة المصنوعة بالذكاء الاصطناعي، إذ اعتمد الاتحاد الأوروبي في لائحته للذكاء الاصطناعي لعام 2024 تصنيفًا خاصًا لمحتوى الديب فيك يُلزم المنتجين بوضع إشارات تعريفية لا يمكن نزعها، ويمنح المحاكم سلطة طلب التحقق الإلزامي من أي مادة بصرية من خلال مختبرات معتمدة للطب الشرعي الرقمي. كما أن الولايات المتحدة وضعت “معيار الأصالة الرقمية” Digital Authenticity Standard الذي يُلزم الجهات الحكومية باستخدام أنظمة توثيق تعتمد التشفير المتسلسل لكل لقطة، ويتيح للمحققين مسارًا واضحًا لتتبع التعديل أو التلاعب. وفي آسيا وضعت كوريا الجنوبية واليابان منظومة “سلاسل الثقة” التي تربط الكاميرات والمنصات عبر مفاتيح تشفير موحدة، بما يمنح القضاء قدرة فورية على استبعاد المحتوى غير الموثق. هذه الخطوات تُظهر أن الدول المتقدمة تتعامل مع القضية كتهديد للبنية الديمقراطية ذاتها وليست مجرد إشكالية تقنية عابرة
أما في المنطقة العربية فيتسارع الجدل حول الحاجة إلى أطر تشريعية أكثر صرامة، بينما تشهد مصر تحديدًا نقاشًا واسعًا داخل الأوساط القضائية والتقنية حول دمج فحوص الذكاء الاصطناعي في منظومة الإثبات. فقد بدأت وزارة العدل المصرية تطوير وحدات للفحص الرقمي داخل مكاتب الخبراء، وجرى طرح مقترحات تتعلق بإنشاء “مركز قومي لمصداقية المحتوى” يتولى إصدار شهادات صحة للأدلة الرقمية قبل تقديمها للمحاكم، وتحديث قانون الإثبات ليشمل تعريفًا دقيقًا للأدلة المُولدة آليًا واشتراط فحصها من جهة معتمدة. كما ظهرت مبادرات عربية في الإمارات والسعودية لوضع معايير لاعتماد الفيديوهات الرقمية وربطها بأنظمة بصمة المصدر ومفاتيح التتبع، في محاولة لتضييق الفجوة بين تطور التكنولوجيا وسرعة التشريع. وفي ظل تصاعد استخدام الديب فيك في حملات التشويه والابتزاز تبدو المنطقة العربية بحاجة ملحة لتوحيد معايير التحقق، وتعزيز مسؤولية المنصات، وإرساء إطار قانوني قادر على حماية الحقيقة في المجال العام والعدالة داخل ساحات القضاء
إن دخول الديب فيك ساحة القضاء لا يمثل أزمة تقنية بقدر ما يمثل اختبارًا جوهريًا لقدرة القانون على حماية الحقيقة في زمن الذكاء الاصطناعي. ومع تطور الأدوات العلمية واشتداد التلاعب الرقمي يبدو أن المستقبل سيشهد تحولًا واسعًا في فلسفة الإثبات نفسها، حيث لن تكون الصورة ولا الفيديو دليلًا قائمًا بذاته، بل مجرد مادة أولية تحتاج دائمًا إلى شهادة تقنية تُثبت أصالتها قبل اعتمادها في ميزان العدالة