لم يعد التلاعب بالحقيقة حكراً على الشائعات أو الأخبار المفبركة، بل دخل عصر الذكاء الاصطناعي ليصنع واقعاً بديلاً لا وجود له، بصور حية وأصوات مقنعة ومشاهد كاملة تنتج رقمياً بدقة تفوق التصور، فما كان يوماً خيالاً سينمائياً، بات اليوم تهديداً مباشراً للأمن المجتمعي والمصداقية، تحت اسم «التزييف العميق»، وبينما يتسارع تطور هذه التقنية، ترتفع الأصوات في العالم العربي للمطالبة بوضع ميثاق أخلاقي واضح يحدد حدود الاستخدام المسموح لهذه التقنيات ويمنع انزلاق المجتمعات إلى دوامة التضليل، والخداع، وفقدان الثقة.

وفي هذا الشأن، أكد مختصون وتربويون وقانونيون لـ«البيان» أن ظاهرة «التزييف العميق» باتت تمثل تحدياً حقيقياً على المجتمع، وأن التعامل معها يجب لا أن يقتصر على المعالجة التقنية، بل لا بد من منظومة تتكامل فيها جوانب التشريع، والتعليم والتربية، والتوعية، والجاهزية التقنية لمواجهة هذا التحدي.

وطالب المختصون بوضع ميثاق عربي لأخلاقيات الذكاء الاصطناعي، يراعي الخصوصية الثقافية للمجتمعات العربية، ويُحدد الإطار الأخلاقي الذي يُفترض أن تُستخدم فيه هذه الأدوات، خصوصاً في ظل غياب منصات محلية للتحقق من صحة المحتوى الرقمي المنتشر على نطاق واسع.

كما شددوا على ضرورة إنشاء وحدات قضائية متخصصة تضم قضاة وخبراء تقنيين، تكون مهمتها فهم أبعاد الجرائم الرقمية المستحدثة، وتمكين السلطة القضائية من التعامل مع أدلة رقمية معقدة، لا سيما تلك الناتجة عن مقاطع مزيفة يصعب كشفها بالوسائل التقليدية.

واقترحوا كذلك إلزام شركات التقنية بوضع «علامات رقمية مائية»على المحتوى المصنوع بواسطة الذكاء الاصطناعي، مما يتيح تتبع مصدره لاحقاً، ويوفر وسيلة لتحقيق العدالة في حال وقوع الضرر.

ظاهرة قديمة

وأكد الدكتور عبيد صالح المختن، باحث في تقنية المعلومات والجريمة الإلكترونية، أن ظاهرة «التزييف العميق» ليست جديدة، بل بدأت منذ أكثر من خمس سنوات، مع الانتشار المتسارع لتقنيات الذكاء الاصطناعي، وخصوصاً الذكاء الاصطناعي التوليدي مثل ChatGPT وGemini وغيرها.

وأوضح أن هذه التقنيات تطورت اليوم إلى درجة باتت معها قادرة على توليد محتوى مرئي وصوتي شديد الواقعية، وأن الأمر لم يعد مقتصراً على التلاعب بالصوت أو تركيب على تسجيل قائم، بل أصبح بالإمكان خلق مشهد كامل لشخص في مكان لم يتواجد فيه، وهو ما يشكل تحدياً كبيراً أمام جهات التحقيق والقضاء.

وقال الدكتور عبيد المختن: إن التقنيات الحديثة باتت قادرة على تحويل صورة ثابتة إلى فيديو متحرك لشخص يبدو حقيقياً، بل ويمكن تركيب مشهد كامل مصطنع اعتماداً فقط على مجموعة من الصور الملتقطة من زوايا مختلفة. وأضاف: «نحن اليوم أمام مشاهد كاملة تولَّد دون أن يكون لها وجود سابق، وهو ما يصعّب مهمة إثبات صحة الأدلة، ويضع أجهزة الشرطة والنيابة أمام تحديات قانونية وتقنية غير مسبوقة».

وأشار إلى أن هناك سباقاً مستمراً بين من يستخدم هذه الأدوات للإضرار بالآخرين وتحقيق مكاسب غير مشروعة، وبين من يوظف الذكاء الاصطناعي لكشف هذه التزييفات، مبيناً أن العلم ذاته الذي يُستخدم في التزييف يمكن توظيفه في التحليل وكشف الثغرات في المقاطع أو الصور أو المستندات المزورة، وهو ما تقوم به مختبرات التحليل الجنائي الرقمية.

أدوات مناسبة

وشدد على أهمية توفر الأدوات المناسبة، إلى جانب التعليم والتدريب المستمر لخبراء الأدلة الرقمية، مشيراً إلى ضرورة اختيار كوادر تمتلك مهارات تحليل عالية، تتمتع بكفاءة تقنية دقيقة وقدرة على فهم السياق التكنولوجي المتسارع.

وأضاف: «في مختبرات الأدلة الجنائية في الإمارات، وعلى رأسها مختبر القيادة العامة لشرطة أبوظبي، ومختبر شرطة دبي، وغيرها من القيادات الشرطية في الدولة، يتم العمل باستخدام أحدث تقنيات الذكاء الاصطناعي، لتحليل المقاطع والتأكد من صحتها، وكشف الثغرات مهما بلغت دقة التزييف».

وأكد أن هذه المواجهة تمثل تحدياً مستمراً بين من يسعى لجعل المجتمع أكثر أمناً، ومن يستغل التطور التقني في الإضرار بالناس. وقال «رغم التطور الكبير في تقنيات التزييف، إلا أن هناك دوماً وسائل مضادة لكشفها، وإنها معركة مستمرة بين الخير والشر، والجهات المختصة في الدولة جاهزة، من فرق عمل ومختبرات، لمواكبة هذا التطور المتسارع والعمل على مدار الساعة لضمان أمن الأفراد والمجتمع».

أداة احتيال

وأكد بشار كيلاني، المتخصص في التحول الرقمي و الذكاء الاصطناعي ومؤسس AI360 للابتكارات، أن خطورة التزييف العميق تتجاوز الترف الإعلامي، لتصل إلى تهديد مباشر لأمن الأفراد والمؤسسات.

وقال: «نرى اليوم مقاطع مفبركة تُظهر شخصيات معروفة كأنها توجه رسائل سياسية أو اقتصادية، رغم أنها لم تنطق بهذه الكلمات مطلقاً. والأمر يصبح خطيراً حين تُستخدم هذه المقاطع في الاحتيال، مثل أن يتصل شخص بصوت موظف بنك مزيف، ويطلب من الضحية معلوماته الشخصية، ليقع فريسة للاحتيال الرقمي، والخطر مضاعف حين تكون المقاطع شديدة الإقناع ويصعب اكتشافها بالعين المجردة».

وأشار الكيلاني إلى أن الإمارات من الدول السباقة في مواجهة هذه الظواهر، فقد أصدرت قانون الأمن السيبراني في 2021، الذي يتضمن نصوصاً واضحة تُجرم استخدام الذكاء الاصطناعي في التلاعب أو الاحتيال، وذكر تقنية «الديب فيك» صراحة، كما صدر قانون حماية البيانات الشخصية، الذي يُقيّد استخدام البيانات ويضع عقوبات صارمة ضد من يسيء استخدام التقنية.

ميثاق أخلاقيات

وقال الدكتور المهندس خالد النابلسي نائب رئيس الاتحاد العربي لمكافحة التزييف والتزوير، إن التزييف العميق لا يمثل خطراً تقنياً فقط، بل يعد تهديداً ثقافياً وقيمياً، لأنه يهدد الثقة المجتمعية بالمصادر، ويخلق واقعاً افتراضياً قد يُستخدم لتدمير السمعة أو تضليل الجمهور في لحظات حرجة كالحملات الانتخابية أو الأزمات الأمنية.

وتابع: «نحتاج إلى ميثاق عربي لأخلاقيات الذكاء الاصطناعي، يحدد ما هو مقبول أخلاقياً وتقنياً في استخدام هذه الأدوات، خصوصاً في الفضاء الرقمي العربي، الذي يفتقر إلى منصات محلية للتحقق من صحة المحتوى، وإن غياب المعيار الأخلاقي الواضح قد يُفسح المجال لانتشار الفوضى الرقمية.

وأكد النابلسي أن الحل لا يكمن فقط في الرقابة التقنية، بل في بناء منظومة تشريعية وتعليمية متكاملة، مقترحاً تطوير برامج توعية مخصصة للطلبة والموظفين، إلى جانب إنشاء معامل وطنية مختصة في كشف التزييف تعتمد على الذكاء الاصطناعي نفسه لتحليل المقاطع وتقييم مصداقيتها.

وذكر أنه رغم تطور أدوات التزييف، فإن سباق كشف الحقيقة لا يتوقف، فالدول المتقدمة، وعلى رأسها دولة الإمارات، بدأت تستثمر بشكل مكثف في أنظمة الكشف الذكية، وتعزيز الكوادر المتخصصة، وسنّ التشريعات الصارمة، لكن تبقى المواجهة مفتوحة.

الإمارات سباقة

وأوضح المستشار القانوني الدكتور يوسف الشريف أن الإمارات سبّاقة في سنّ قوانين لمكافحة الجرائم الإلكترونية، غير أن ثمة حاجة ملحة لتطوير تشريعات تفصيلية تتناول جرائم التزييف العميق الناتجة عن استخدام تقنيات الذكاء الاصطناعي، لا سيما أن هذه التقنية أصبحت تُستخدم بشكل متزايد لتزييف الأصوات والوجوه والمقاطع المصورة لأغراض قد تكون خادعة أو إجرامية.

وأشار إلى أن أغلب القوانين الحالية تُعاقب بناءً على نتيجة الضرر كالتشهير أو الاحتيال أو انتهاك الخصوصية، دون الالتفات إلى الوسيلة المستخدمة، وهو ما قد يُحدث فراغاً تشريعياً ويُضعف القدرة على المواجهة الاستباقية لهذه الأنماط الجديدة من الانتهاكات الرقمية.

وأكد ضرورة سن قانون وطني خاص بالذكاء الاصطناعي، يتضمن فصولاً واضحة تُعرّف مصطلحات مثل «التزييف العميق» و«المحتوى الاصطناعي»، ويُميز بين الاستخدام المسؤول والتوظيف الإجرامي، مع تحديد المسؤولية بين المطور والمستخدم، بما يضمن عدم إفلات الفاعلين من العقاب بحجة «جهل الأداة».

ورأى أن من المهم إلزام شركات التقنية بوضع «علامات رقمية مائية» على المحتوى المُنتَج بواسطة الذكاء الاصطناعي، مما يُمكّن من تتبعه لاحقاً، كما دعا إلى إنشاء وحدة قضائية متخصصة تضم قضاة وخبراء تقنيين لفهم أبعاد الجرائم المستحدثة.

ولفت إلى أن المتضرر من التزييف العميق – سواء كان فرداً أو مؤسسة – له حق التبليغ والمطالبة بالتعويض، شريطة إثبات الضرر المادي أو المعنوي، وهو أمر يزداد تعقيداً مع غياب أدوات كشف دقيقة ومعترف بها قضائياً.

وطالب بإطلاق برامج توعية وطنية تشرح مخاطر التزييف العميق وآليات الوقاية منه، على أن تُنشأ لجنة وطنية لمتابعة التطور القانوني والتقني في هذا المجال وتقديم التوصيات التشريعية بشكل دوري.

أدوات قادرة

وأكدت الدكتورة إيناس أبو لبدة متخصصة في الذكاء الاصطناعي، أن أدوات التزييف العميق أصبحت قادرة على إنتاج فيديوهات لا يمكن تمييزها بالعين المجردة، مشيرة إلى أن البرامج مفتوحة المصدر التي تعتمد على التعلم العميق باتت متاحة مجاناً، وتُستخدم أحياناً لأغراض خبيثة.

وأوضحت أن الذكاء الاصطناعي يمكنه تحليل آلاف الصور أو المقاطع الصوتية خلال دقائق، وإنشاء نسخة مزيفة لأي شخصية عامة أو خاصة، ما يضع الأفراد والمؤسسات أمام تحدٍ تقني وأخلاقي كبير.

وحذّرت من أن هذه القدرة التقنية تفوق حالياً قدرة الكثير من الجهات على المراقبة أو المعالجة، مشددة على أن أي تأخير في وضع الضوابط سيجعل المجتمع عُرضة لهجمات إعلامية مزيفة يصعب الرد عليها بسرعة.

خطوة مواكبة

وقال محمود أبو الفتوح، معلم التصميم والابتكار الإبداعي في إحدى المدارس الخاصة بدبي، إن إدراج مادة الذكاء الاصطناعي في المناهج خطوة تواكب العصر الرقمي، وتعكس وعيًا بأهمية إعداد الطلبة لمستقبل تقني سريع التغير، لكنه شدد على أن النجاح في تدريس هذه المادة لا يعتمد فقط على وجودها، بل على الطريقة التي ستُقدَّم بها والمضامين التي ستُختار لها.

وأكد أن أي مادة تكنولوجية لا بد أن ترتبط بالحياة اليومية للطلبة، وتتناول الأمثلة الواقعية التي يواجهونها، مثل استخدام أدوات الذكاء الاصطناعي في تعديل الصور، أو كتابة النصوص، أو المحادثات التلقائية، موضحاً أن الطلبة سبقوا المناهج في استخدام هذه الأدوات، ما يجعل من الضروري أن تأتي الحصص الدراسية لتعالج هذا الواقع وتوجهه.

ودعا أبو الفتوح إلى تضمين الجانب الأخلاقي في كل جوانب تعليم الذكاء الاصطناعي، وليس كإضافة جانبية أو محاضرة توجيهية، مؤكدًا أن التقنية في غياب الأخلاق تُصبح سلاحاً ذا حدين، وقد تُستخدم في التنمر الرقمي، أو تزييف الصور والمعلومات، أو المبالغة في الاعتماد على الحلول الجاهزة.

كما شدد على ضرورة أن تكون هناك سياسات واضحة داخل المدارس تضبط استخدام أدوات الذكاء الاصطناعي، خاصة في تنفيذ الواجبات والمشاريع، لتفادي تحول هذه الأدوات من وسائل دعم إلى وسيلة غش أو تكرار آلي للمعلومة، واقترح إصدار «مدونات سلوك رقمية» على أن تتضمن ضوابط دقيقة للاستخدام، وآليات تربوية للرد على أي إساءة، بما يضمن أن يكون إدماج الذكاء الاصطناعي في التعليم إضافة حقيقية، وليست مجرد استجابة شكلية لعصر التكنولوجيا.