أنجانا أهوجا

مصطلح «الخبر العاجل» يجب أن يستبدل قريباً بـ«التحقق العاجل»

سواء كان الأمر يتعلق بأصوات مستنسخة تستخدم لسحب الأموال من الحسابات المصرفية، أو مقاطع فيديو مُولّدة بالذكاء الاصطناعي تُظهر سياسيين يتصرفون بشكل سيئ، فقد بات العالم الرقمي مليئاً بالتزييف والكذب والاحتيال.

وهنا يأتي هاني فريد، الأستاذ بجامعة كاليفورنيا في بيركلي والمتخصص في الأدلة الجنائية الرقمية، ليطرح رأيين يُشيران إلى صورة أكثر قتامة. جاء الرأي الأول في بودكاست في يناير، عندما طُلب منه تقييم مدى خطورة التزييف العميق على المجتمع، على مقياس من واحد إلى عشرة. فكان جوابه: اثنا عشر.

الرأي الثاني جاء عندما سألت هاني فريد مؤخراً عما إذا كان الناس لا يزالون قادرين بشكل عام على التمييز بين المحتوى الحقيقي والمحتوى المُولّد بالذكاء الاصطناعي. فأجاب: «لا، لقد انتهى هذا الأمر». وأوضح أن التجارب التي أجراها في مختبره لدراسات الإدراك تُظهر أن الناس يستطيعون تحديد ما إذا كانت الصورة أو الصوت أو الفيديو حقيقيًا بدقة تصل إلى حوالي 65% من الحالات (لكن الاحتمال يكون غالباً بحدود 50%). ويقول إن الأشخاص الذين يتصفحون محتوى عاطفياً ربما يكون وضعهم أسوأ بكثير. حتى هو لم يعد واثقاً من قدرته على التمييز بدقة بين الحقيقة والزيف دون مساعدة الطب الشرعي.

وعندما يتشابه التزييف مع الحقيقة والعكس، يصبح التحقق من أحداث العالم الواقعي أكثر صعوبة ويستغرق وقتاً أطول. وأشار إلى أن المعلومات المزيفة المتداولة حول الحرب الإيرانية تفوق المعلومات الصحيحة بكثير. وقد احتاجت وسائل الإعلام إلى أيام عدة لربط صور الأقمار الصناعية وشهادات الشهود وآراء خبراء الأسلحة للتوصل إلى استنتاج أن الولايات المتحدة قصفت مدرسة للبنات. وهكذا، لم يعد الخط الفاصل بين الحقيقة والخيال ضبابياً بقدر ما أصبح غير مرئي.

لكن هل هناك خطوات يمكن للمؤسسات والأفراد اتخاذها اليوم لممارسة «النظافة الرقمية»؟ يقول فريد إنه نظراً لإمكانية استنساخ صوت في غضون 10 - 15 ثانية فقط من التسجيل الصوتي، ينبغي على البنوك التخلي فوراً عن استخدام بصمات الصوت للوصول إلى المعلومات الحساسة. كما ينصح العائلات بإنشاء كلمة مرور سرية والتدرب على استخدامها لحماية أنفسهم من المحتالين الذين ينتحلون شخصية أحد الأقارب المحتاجين بشدة للمال.

وقد انضمت بعض الشركات طواعية إلى برامج العلامات المائية لتمييز محتواها على أنه مُولّد أو مُعدّل بواسطة الذكاء الاصطناعي. على سبيل المثال، يُدرج برنامج SynthID من جوجل توقيعات رقمية سرية عند إنشاء الملفات أو تعديلها. وتبقى هذه العلامات مخفية عن المشاهدين، لكنها يمكن أن تظهر عند التحليل المتخصص. وهي تستمر حتى بعد القص أو التعديلات الأخرى. (ويمكن لمستخدمي «جيميني» تحميل المحتوى للتحقق من وجود العلامات المائية). ويصعب إزالة التوقيعات المُضمّنة دون الإضرار بجودة الملف، على عكس البيانات الوصفية التي تتضمن مُعرّفات مُرفقة مثل التاريخ والموقع. ويرغب الاتحاد الأوروبي في جعل العلامات المائية الرقمية إلزامية.

لكن هل ينبغي تجريم ترويج المواد المُولّدة بواسطة الذكاء الاصطناعي على أنها حقيقية؟ يعتقد فريد أن ذلك غير مرغوب فيه وغير قابل للتنفيذ. وهو يرى في الوقت نفسه أن شركات التكنولوجيا يجب أن تتحمل بعض المسؤولية الجنائية.

وتُشير تقديرات شركة الأبحاث «غارتنر» إلى أنه بحلول عام 2028، سيكون ربع المتقدمين للوظائف مزيفين، وبعضهم محتالون يسعون لاختراق أنظمة الشركات. وتكمن المشكلة في أن التكنولوجيا قد أسهمت في انتشار خيبة الأمل بين الجميع: فكل ما يتطلبه الأمر هو حافز ما وهاتف محمول لإنتاج فيديوهات مُزيّفة مقنعة بتقنية التزييف العميق.

وتشوه الأوهام، التي تعززها تحيزاتنا، إدراكنا للواقع، ومعظمنا يتواصل مع العالم الخارجي عبر شاشاتنا، وهي عبارة عن موجز مُشوّش تُحدّد هوامشه بواسطة خوارزميات، ويتمّ التلاعب فيه بشكل متزايد عبر روبوتات الدردشة والمساعدين الرقميين المُتملّقة والتي تقدم الكثير من الإيحاءات.

ويعني انتشار التزييف العميق أن الأشخاص الذين يهتمون بالحقيقة سيؤجلون إعادة نشر المعلومات للتحقق منها - إن أعادوا نشرها أصلاً. وهذا يُفسح المجال بشكل متزايد لأولئك الذين لا يُبالون، أو لأولئك الذين يستفيدون من المعلومات المُضلّلة والمغلوطة. في استطلاع حديث أجراه معهد رويترز لدراسة الصحافة بجامعة أكسفورد حول تأثير الذكاء الاصطناعي على الإعلام، أشار أحد المشاركين إلى أن مصطلح «الخبر العاجل» يجب أن يستبدل قريباً بمصطلح «التحقق العاجل». ويطرح آخرون فكرة «سلسلة الحفظ الرقمية» للمعلومات الرقمية، التي تُفصّل مصدرها وملكيتها وأي تغييرات طرأت عليها.

باختصار، يبدو أن الواقع يتلاشى أمام التزييف، ونحن في واقع الأمر نتضرر مرتين: نقع ضحية للأكاذيب، ونرفض أحياناً الحقائق بالخطأ باعتبارها أخباراً زائفة في ما يُعرف الآن بـ«للكاذب مكاسب»، فيا لسعادة المخادعين والمضللين!