فالفقه التقليدي يرى أن الروبوتات الذكية تندرج ضمن الأشياء، ومن ثم فإن أساس المسؤولية عن الأضرار الناشئة عنها هو المسؤولية الناشئة عن حراسة الأشياء الميكانيكية أو ذات العناية الخاصة أو الحارس الذي يقوم في حقه الخطأ المفترض لقدرته على السيطرة على تشغيلها أو إيقافها، وذهب البعض إلى أن المسؤولية عن أضرار الروبوتات الذكية تجد أساسها في نظرية المسؤولية عن عيوب المنتجات، فالمُنتِج يتحمل المسؤولية عن منتجاته المعيبة نتيجة لعدم تحقق السلامة والأمان في منتجاته، غير أن هذه النظريات لا تواجه حالات حدوث الخطأ في حالة انحراف الروبوتات الذكية عن المسار المحدد لها ، ولذلك فقد اتجه جانب من الفقه نحو الأخذ بالنظريات الحديثة من أنه ينبغي منح الروبوتات الذكية الشخصية القانونية، ومن ثم يصبح لها ذمة مالية مستقلة يتم تعويض المضرور من خلالها، كما ابتكر البرلمان الأوروبي في فبراير عام 2017 «نظرية النائب الإنساني»، والتي لا تفترض الخطأ ولا تعتبر الروبوت شيئاً، فهي تهدف إلى الانتقال من المسؤولية ذات الخطأ المفترض وفقاً لمسؤولية حارس الأشياء أو الآلات الميكانيكية التي تحتاج إلى عناية خاصة، أو المسؤولية عن الشخص ناقص الأهلية إلى المسؤولية القائمة على الخطأ الواجب الإثبات للنائب الإنساني، سواء في التصنيع أو التشغيل أو الإدارة أو للإهمال أو الامتناع عن اتخاذ موقف لتجنب الحادث الخطر المتوقع من الأنظمة الذكية أو الروبوتات.
المسؤولية المدنية عن أضرار الروبوتات الذكية
تُعد الروبوتات الذكية أحد أشكال أنظمة الذكاء الاصطناعي المجسمة ولها أشكال مختلفة، ولديها القدرة على اتخاذ قرارات بشكل تلقائي دون تدخل مباشر من الإنسان وفقاً للبرمجة المسبقة لها، فاستقلالية الروبوتات الذكية تعتمد على قدرتها على التعلم الآلي واكتساب المعارف وتطوير ذاتها عن طريق أجهزة الاستشعار في حالة إدخال بيانات جديدة فيها، لكن كلما كانت الروبوتات الذكية قادرة على اتخاذ قرارات مستقلة من دون تدخل من الإنسان تطرأ إشكالية تحديد الشخص المسؤول عن الأضرار وفقاً للقواعد العامة في المسؤولية المدنية، فالاستقلالية التي تجعل الروبوتات الذكية قادرة على التفكير بالطريقة التي ينتهجها الإنسان وتفادي الأخطار هو ما يجعل الروبوتات قابلة للانتقال من مرحلة الشيء محل الحراسة إلى مرحلة الكائن الذي ينوب عنه الإنسان في تحمل المسؤولية بقوة القانون دون افتراض الخطأ، لذا ينبغي معرفة أساس المسؤولية في حالة استخدام الروبوتات الذكية وحدوث أضرار نتيجة لهذا الاستخدام، خاصة إذا كانت هذه الأضرار ناشئة عن تصرف مستقل من الروبوت الذكي كما في حالة استخدام الروبوت الطبي الذكي وقيامه بتشخيص خاطئ لحالة أحد المرضى بناء على ما قام بجمعه من بيانات عن حالة المريض بشكل رقمي.
وتعتبر طبيعة الروبوتات الذكية وما إذا كانت تندرج تحت مجموعة الأشخاص أو الأشياء هي محل خلاف فقهي، واختلفت الآراء بشأن طبيعتها، فالآلات التقليدية لا اختلاف على اعتبارها من الأشياء من الناحية القانونية وهي لا تتمتع بالشخصية القانونية، وأما الروبوتات الذكية فهي ليست كالآلات التقليدية، فلها القدرة على محاكاة الذكاء البشري والتعلم الذاتي، لذلك اختلف الأمر بشأنها هل تعتبر من قبيل الأشياء، أم أن اختلافها عن الآلات التقليدية يعطيها الحق في اكتساب الشخصية القانونية واعتبارها من الأشخاص ومن ثم فإنها تكتسب حقوقاً وتتحمل الالتزامات، أم يجب منحها مكانة قانونية خاصة، فلا يمكن إدراجها ضمن إحدى المجموعات القانونية القائمة، فهي تحمل شخصية قانونية خاصة بها؛ لكونها أحد تطبيقات الذكاء الاصطناعي، وهو ما يبرر التوجه الأوروبي نحو نظرية النائب الإنساني.
لذلك فالروبوتات ليس لديها شخصية قانونية وذمة مالية مستقلة حتى يمكن تحميلها المسؤولية ويتم تعويض المضرور من ذمتها المالية، ولكن المشرّع الأوروبي من أجل التمهيد لمنح الروبوتات الشخصية القانونية لم يجعلها كالأشياء الخاضعة للحراسة أو للشخص معدوم أو ناقص الأهلية، ولذلك وجّهت لجنة قواعد القانون المدني بشأن الروبوتات إلى منح الروبوتات الذكية الشخصية القانونية الإلكترونية مستقبلاً ومراجعة النصوص التشريعية متى ظهرت الأجيال الجديدة من الروبوتات الذكية القادرة على التعلم واتخاذ القرارات الاستقلالية من دون تدخل بشري.