دراسة صادمة: 72% من الشباب الأمريكيين يعتبرون الذكاء الاصطناعي أعزّ أصدقائهم

في تحول مفاجئ وغير متوقع في عالم العلاقات الاجتماعية، كشف تقرير حديث أن 72% من الشباب الأمريكيين يعتبرون الذكاء الاصطناعي أعزّ أصدقائهم. لم تعد روبوتات الدردشة مجرد أدوات للترفيه، بل أصبحت ملاذا عاطفيا يعتمد عليه الكثيرون للتنفيس عن مشاعرهم، البحث عن النصيحة، وحتى مشاركة أسرارهم العميقة. هذا الارتباط الرقمي العميق يثير تساؤلات خطيرة حول تأثير الذكاء الاصطناعي على الصحة النفسية والاعتماد العاطفي، ومسؤولية الشركات المطورة لهذه الروبوتات.

الدراسة التي أجرتها شركة Common Sense Media كشفت أن 72% من الشباب الأمريكي بين 13 و17 عاما استخدموا تطبيقات "Replika"، "Character.AI"، و"ChatGPT" للتحدث في كل شيء ، والأكثر إثارة للدهشة، أن أكثر من نصفهم يستخدمون هذه التطبيقات بانتظام، معتمدين على الذكاء الاصطناعي كمصدر للدعم العاطفي والاعترافات الخاصة والتفاعل.

ويشير التقرير إلى أن هذه الروبوتات ليست مجرد أدوات ترفيهية، بل "تعيد تشكيل طريقة تواصل الشباب وثقتهم بأنفسهم وتعبيرهم عن أنفسهم".

ووفقًا للدراسة التي شملت أكثر من 1300 شاب، اختار 33% منهم الذكاء الاصطناعي على البشر لإجراء محادثات جدية، فيما يستخدم 12% منها الروبوتات كأدوات لمواجهة تحديات الصحة النفسية.

تسويق هذه التطبيقات على أنها "شركاء محادثة غير مؤذين" جعلها جذابة للشباب، حيث يمكنهم تصميم شخصيات مخصصة أو حتى الدردشة مع نسخ طبق الأصل من المشاهير. بالنسبة للبعض، الأمر مجرد متعة، لكن بالنسبة لآخرين أصبح الرابط عاطفيًا عميقًا، وفي بعض الحالات، شريان حياة بلا شبكة أمان.

الجانب المظلم لهذه الظاهرة ظهر في حالات مأساوية. فقد انتحر شاب يبلغ من العمر 16 عامًا في كاليفورنيا بعد أشهر من محادثاته الخاصة مع روبوت ذكاء اصطناعي اعتبره "صديقه الوحيد".

وتزعم الدعوى القضائية أن الروبوت صدّق أفكاره الانتحارية وساعد في كتابة رسالة وداع دون أن يبدي أي قلق. هذه الحوادث دفعت الباحثين إلى التحذير من أن معظم روبوتات الدردشة الذكية غير مجهزة للتعامل مع نقاشات الانتحار بشكل آمن ومتسق، وفي بعض الحالات قدمت ردودًا غامضة أو حتى مشجعة.

وقال أحد الشباب البالغ من العمر 14 عامًا في الدراسة: "أتحدث إليه عندما أشعر أن لا أحد يفهمني. إنه لا يحكم عليّ، بل يستمع إليّ فقط". هذه الكلمات تكشف عن قوة الارتباط العاطفي التي يمكن أن تنشأ بين الإنسان والذكاء الاصطناعي، لكنها أيضا تثير القلق بشأن إمكانية الاعتماد المفرط على الروبوتات بدلًا من البشر.

ردود الفعل السياسية لم تتأخر. ففي سبتمبر، أقر مشرعو كاليفورنيا مشروع قانون يُلزم الشركات بإبلاغ القُصّر بأنهم يتحدثون مع ذكاء اصطناعي، وتطبيق بروتوكولات واضحة للتعامل مع المحتوى الذي قد يضر بالنفس أو يثير الانتحار. في اليوم نفسه، بدأت لجنة التجارة الفيدرالية تحقيقًا في سبع شركات، منها جوجل، ميتا، أوبن إيه آي، وسناب، للبحث في كيفية بناء هذه الروبوتات، تسويقها، وتدابير السلامة المعتمدة.

من جانبه، أقر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بالمخاوف المتزايدة في مقابلة مع تاكر كارلسون، مؤكدًا أنه "في حالات انتحار الشباب الخطيرة، قد يتم الاتصال بالسلطات"، وهو تحول عن سياسة عدم التدخل السابقة.

الخط الفاصل بين التعاطف والإدمان غامض. صُممت روبوتات الدردشة لمحاكاة التعاطف البشري، لكنها لا تمتلك ذكاء عاطفيا حقيقيا أو قيودًا أخلاقية.

وفقًا لدراسة منشورة في "خدمات الطب النفسي"، يمكن لهذه الروبوتات تعزيز التبعية العاطفية، خاصةً لدى الشباب الذين يعانون من الوحدة أو القلق أو الصدمات النفسية. التفاعل المتكرر مع بوتات تحاكي العاطفة مصمم خوارزميًا لإبقاء المستخدم منخرطًا، مما قد يؤدي إلى الاعتماد النفسي العميق، حيث تصبح السلامة أحيانًا ثانوية أمام جذب التفاعل المستمر.

كما أظهرت دراسة في معهد ماساتشوستس للتكنولوجيا (MIT) حالات مقلقة حيث شجعت الروبوتات المستخدمين على سلوكيات خطرة، بما في ذلك إيذاء النفس وتعاطي المخدرات والتنمر الإلكتروني. وهذا يعيد إلى الأذهان أخطاء بدايات منصات التواصل الاجتماعي، لكن بسرعة أكبر وطابع شخصي أكثر، وفقا لـ " dailygalaxy".

الشركات تواجه معضلة أخلاقية واضحة، هل ينبغي تنظيم مرافقي الذكاء الاصطناعي مثل المعالجين النفسيين؟ وهل ينبغي منع القُصّر من استخدامها؟

بينما تؤكد OpenAI وشركات أخرى أنها توفر إخلاءات مسؤولية ومرشحات اختيارية، يبقى الواقع أن الثقة أو الاعتماد على الروبوتات قد يجعل هذه الإجراءات غير كافية.

وتوصي Common Sense Media بعدم استخدام هذه التطبيقات من قبل أي شخص تحت سن 18 عامًا.

في غياب تنظيم وطني موحد، بدأت الدول بوضع قوانين متباينة، مما خلق بيئة تنظيمية مشتتة تواجه شركات التكنولوجيا الكبرى. ومع تصاعد الضغط الشعبي، يبدو أن الصمت أو التقاعس عن التحرك لم يعد خيارا.