كيف تعيد أسراب الذكاء الاصطناعي هندسة الرأي العام؟


كشفت أبحاث حديثة نُشرت في منتدى سياسات العلوم بدورية Science عن تهديد أكثر تعقيداً ونعومة «أسراب الذكاء الاصطناعي. هذه الأسراب ليست مجرد برامج تنشر تعليقات تلقائية، بل هي «شخصيات اصطناعية» تتمتع بذاكرة، وقدرة على التنسيق، ومهارة فائقة في التسلل إلى المجتمعات الرقمية لتوجيه الرأي العام عبر ما يُعرف بـ «الإجماع الاصطناعي».

لقد ولت أيام «جيوش البوتات» التي تعتمد على نسخ النصوص ولصقها؛ فالجيل الجديد من عمليات التأثير يعتمد على دمج النماذج اللغوية الكبيرة (LLMs) مع الأنظمة متعددة الوكلاء. هذه التقنية تسمح لمشغل واحد بإطلاق آلاف الأصوات الرقمية التي تبدو وكأنها لأشخاص حقيقيين، يتحدثون بلهجات محلية، ويتبنون قيم المجتمعات التي يتسللون إليها.

يؤكد البروفيسور أندريا بارونشيلي، أستاذ علوم التعقيد، أن الخطر لا يكمن فقط في «المحتوى الزائف»، بل في قدرة هذه الأسراب على خلق وهم بأن «الجميع يتفق على هذا الرأي». هذا التكتيك يضرب جوهر الديمقراطية، حيث يميل البشر غريزياً لتبني آراء تبدو وكأنها تحظى بإجماع شعبي، مما يجعل «الإجماع المهندس» أداة قوية لتغيير المعايير الاجتماعية والسياسية دون أن يشعر أحد بوجود تدخل خارجي.

آليات التسلل

تتميز أسراب الذكاء الاصطناعي بقدرات تقنية تجعل كشفها شبه مستحيل بالطرق التقليدية. فهي تعمل وفق استراتيجية «الاختبارات الدقيقة»، حيث تقوم الأسراب بنشر ملايين المتغيرات من رسالة معينة في أجزاء مختلفة من الإنترنت، ثم تراقب أيها يحقق تفاعلاً أكبر. بمجرد تحديد الرسالة الأكثر إقناعاً، يقوم السرب بنشرها على نطاق واسع بسرعة الآلة.

أبرز خصائص هذه الأسراب وفقاً لتقرير جامعة كولومبيا البريطانية الهوية المستمرة حيث تمتلك الشخصيات الاصطناعية ملفات شخصية متكاملة وتاريخاً من المنشورات، مما يوحي بأنها لمواطنين حقيقيين. ثم التنسيق اللامركزي و يمكن للروبوتات دعم بعضهم البعض عبر «الإعجابات» وإعادة النشر، مما يرفع من تصنيف المحتوى في خوارزميات منصات التواصل الاجتماعي. ثم التكيف الثقافي حيث القدرة على استخدام الرموز الثقافية، الفكاهة المحلية، والمصطلحات العاطفية التي تلامس مخاوف أو طموحات فئة معينة.

هذا التلاعب لا يهدف بالضرورة إلى تغيير رأيك في قضية ما بشكل مباشر، بل يهدف إلى إقناعك بأن رأيك «أقلية» أو أن هناك «حقيقة جديدة» يتفق عليها الجميع، مما يؤدي في النهاية إلى تآكل الثقة في النقاش العقلاني المستقل.

عصر السيادة الخوارزمية

يحذر الباحثون، ومن بينهم الدكتور كيفن ليتون براون، من أن الانتخابات القادمة في عام 2026 ستكون «ميدان الاختبار الحقيقي» لهذه التكنولوجيا. ففي دول مثل الهند، والولايات المتحدة، ونيبال، بدأت تظهر بوادر استخدام المحتوى المولد بالذكاء الاصطناعي لإغراق الفضاء الرقمي وتسميم البيانات التي تعتمد عليها الأنظمة الأخرى في التحليل.

النتيجة المتوقعة، وفقاً للخبراء، هي انخفاض حاد في الثقة تجاه «الأصوات المجهولة» على وسائل التواصل الاجتماعي. وبينما قد يبدو هذا جيداً للحماية من التضليل، إلا أنه يحمل أثراً جانبياً خطيراً: سيصبح من الصعب جداً على الحركات الشعبية الحقيقية (Grassroots) إيصال صوتها، حيث سيتم الشك في كل ناشط جديد بأنه «عميل اصطناعي»، ما يعزز سطوة المشاهير والكيانات الكبرى التي تمتلك «هوية موثقة» مسبقاً.