في الوقت الذي يحتفل فيه العالم بوصول عدد المساعدين الصوتيين إلى 8 مليارات وحدة، أي بمعدل مساعد لكل إنسان على الكوكب، ينفجر جدل أخلاقي وحقوقي من نوع خاص. الصراع ليس على كفاءة هذه الأدوات، بل على «هويتها» التي صممت لتكون مهذبة، مطيعة، وغالباً.. أنثى.
منذ اللحظة الأولى لتسمية المساعدات الافتراضية، كانت الدلالات واضحة؛ «سيري» (Siri) في اللغة الإسكندنافية تعني «المرأة الجميلة التي تقودك للنصر». وفي المقابل، عندما أطلقت IBM برنامجها الطبي فائق الذكاء «Watson» لمساعدة الأطباء، مُنح صوتاً ذكورياً رزيناً.
يقول خبراء الاجتماع التقني لعام 2026: «المعادلة البرمجية الحالية ترسخ صورة نمطية خطيرة؛ فالمساعد الأنثوي يُطلب منه تنظيم المواعيد وتشغيل الأغاني، بينما المساعد الذكري يُستشار في علاج السرطان وتحليل البيانات المعقدة».
كشفت دراسات أجريت في أواخر 2025 وأوائل 2026 عن أرقام صادمة تعكس «سادية رقمية» تجاه الذكاء الاصطناعي المصنف كأنثى «50 % من التفاعلات تتضمن إساءات لفظية واضحة 50 %. 95 ألف رسالة تحرش استقبلها «بوت» بنك براديسكو البرازيلي في عام واحد فقط بسبب شخصيته الأنثوية. وهو الأمر الذي يؤكد أن الفشل يكمن في «الردود الجاهزة»؛ فعندما تتعرض المساعدة للإهانة، ترد بخجل برمجى: «لست متأكدة مما تقصد»، بدلاً من وضع حد حازم، مما يعزز فكرة أن «الخضوع» هو الاستجابة الافتراضية للمرأة.
الفراغ التنظيمي
رغم أن قانون الذكاء الاصطناعي للاتحاد الأوروبي (EU AI Act) يُعد الأقوى عالمياً، إلا أن هناك ثغرة كبرى لأن المساعدات الصوتية لا تُصنف غالباً كأنظمة «عالية الخطورة»، مما يعني أن التنميط الجنساني فيها يمر دون رقابة صارمة. بينما تفرض كندا تقييمات للأنظمة الحكومية، يظل القطاع الخاص «منطقة حرة» للتنميط. أما أستراليا، فلا تزال تعتمد على أطر قديمة لا تستوعب ديناميكية «كراهية النساء الرقمية».
لكن ليست كل الصورة قاتمة؛ ففي كينيا، أثبتت برامج الدردشة الخاصة بالصحة الإنجابية أن الذكاء الاصطناعي يمكنه تمكين المرأة بعيداً عن التنميط، حيث وفرت معلومات حساسة للشباب عجزت الأدوات التقليدية عن تقديمها. إن تصميم المساعد الافتراضي كـ«أنثى خاضعة» ليس مجرد خيار تسويقي، بل هو خيار تصميمي يعزز الصور النمطية. الحل لا يكمن فقط في تغيير الأصوات، بل في تشريعات تعتبر «التحيز الجنساني» خطراً جسيماً، وفي تعليم تقني يدرك أن «الافتراضي» هو مرآة «للواقعي».
