Page 52 - مجلة ثقافة قانونية عدد المؤتمر
P. 52
وهنا نجد أن قانون "روي أمارا" ينطبق على هذه الحالة مثلما كان في النوبات السابقة من التحول التكنولوجي :فنحن نميل
إلى المغالاة في تقدير الآثار قصيرة الأجل ،ونقلل من شأن الآثار الأطول أجلا ،وقانون "روي أمارا" هو مبدأ صاغه الباحث
والمستقبلي الأمريكي "روي أمارا" ،وينص على أننا نميل إلى المبالغة في تقدير تأثير التكنولوجيا على المدى القصير والتقليل من
شأن تأثيرها على المدى الطويل.
تؤدي الثورة التكنولوجية إلى تغييرات جوهرية في شتى نواحي الحياة؛ حيث يشهد الذكاء الاصطناعي ) (AIنموا هائلاً
وتطبيقات جديدة في عدد متزايد من المجالات؛ مثل الأمن ،والبيئة ،والتعليم ،والصحة ،والثقافة ،والتجارة ،إلى جانب الاستخدام
المتزايد للبيانات الضخمة .ومع دخول الذكاء الاصطناعي إلى مجالات مثل العدالة وبحوث الجريمة ،يطرح التساؤل حول العلاقة بين
القانون والذكاء الاصطناعي ،وما إذا كانت هناك قواعد أخلاقية وقانونية تحكم الذكاء الاصطناعي ،إضافة إلى التحديات المرتبطة
بالمسؤولية القانونية المدنية والجنائية.
أدى الانتشار الواسع للذكاء الاصطناعي ) (AIوالتقنيات المرتبطة به إلى تصاعد الجدل حول إسناد المسؤولية المدنية
والجنائية إلى الأنظمة غير البشرية .وفي الوقت نفسه ،تثير المخاطر المتزايدة المرتبطة باستخدام أنظمة الذكاء الاصطناعي بما في
ذلك انتهاكات جسيمة للمصالح القانونية مثل الحياة ،والسلامة الجسدية ،والخصوصية تساؤلات حول مدى كفاية القانون الجنائي
التقليدي في التعامل مع الجرائم التي قد تنجم عن هذه الأنظمة.
كان الباحث ) (Perri 6من أوائل من تناولوا صعوبة إسناد المسؤولية؛ حيث توقع في عام 2001أنه بمجرد أن تصل الآلة
إلى مستوى معين من الاستقلالية ،ستنشأ صعوبات في إسناد المسؤولية القانونية وتحديدها ،وبعد ذلك ،صاغ الباحث "ماتياس"
) (Matthiasمصطلح "فجوة المسؤولية" ،وهو تعبير أصبح شائعًا في المناقشات الحديثة حول الذكاء الاصطناعي ،ويرى "ماتياس"
أن نقص القدرة على التنبؤ والسيطرة في الذكاء الاصطناعي الحديث يمثل العائق الرئيسي في تحديد الجهة المسؤولة ،فكلما زادت
قدرة الذكاء الاصطناعي على التعلم واتخاذ القرارات بنا ًء على بيئته المحيطة ،زادت صعوبة إسناد المسؤولية القانونية.
مع تزايد استخدام الذكاء الاصطناعي في المجالات عالية الخطورة ،مثل القطاع الطبي والمركبات ذاتية القيادة ،تبرز
تساؤلات حول المسؤولية القانونية في حال حدوث أضرار ،ويتمثل التحدي الرئيسي في إسناد المسؤولية عند وقوع أخطاء ناتجة عن
أنظمة الذكاء الاصطناعي ،خاصة مع صعوبة التنبؤ بسلوك هذه الأنظمة.
وتظهر تحديات إسناد المسؤولية في فجوة المسؤولية ،وهي صعوبة تحديد الجهة المسؤولة عند وقوع أضرار ناتجة عن
أنظمة الذكاء الاصطناعي ،والقصد الجنائي ) : (Mens Reaصعوبة إثبات النية الإجرامية في أنظمة الذكاء الاصطناعي ،والفعل
الجرمي ) : (Actus Reusصعوبة إثبات الفعل الجرمي في حالات الأتمتة الكاملة.
المسؤولية الجنائية لجرائم الروبوت الإنسآلة
"دراسة تأصيلية في ضوء نظريات قانون العقوبات"
ــــــــــــــــــــ
تامر حامد القاضي
يعيش العالم ثورة تكنولوجية غير مسبوقة ،شعارها الذكاء الاصطناعي ،وأدواتها تطبيقات متنوعة ،تحركها تقنية خوارزمية
دقيقة ،وهدفها المعلن خدمة البشر في شتى مناحي الحياة ،ثورة أخذت تتعمق في النظم؛ فقد حظيت بالتأييد ،بل أصبحت محل فخر
وتبا ٍه بين الدول والشركات العالمية ،بل أضحت إشارة للتطور التكنولوجي الذي لا مثيل له سابقًا ،ولعل الروبوت الإنسآلة الذي أحدث
إربا ًكا ما بين الاعتماد عليه في المجال الطبي والخدماتي المتنوع والتعليمي والعسكري والقانوني وغيرها من المجالات.
تلاقى التطور التكنولوجي في استحداث الإنسآلة مع موجبات تدخل القانون لتنظيم الحماية القانونية؛ لأن كل تصرف لا بد
أن ينظم في ضوء السلوك المراد وفق حكم القانون ،ولما كانت نصوص الأخير جمعت ما بين الأقدمية والحداثة ،إلا أنها جاءت خالية
من تنظيم أحكام المسؤولية الجنائية المترتبة على جرائم الروبوت-الإنسآلة ،ومع هذا التدخل والتطور التكنولوجي وغياب النص
القانوني ،عملت دراستنا على اتباع منهجية البحث التأصيلي النظري القائم على تحليل نظريات القانون الجنائي في القسم العامة لضبط
أحكام المسؤولية الجنائية في جرائم الروبوت ،ولتشكل آفاقا مستقبلية نحو تنظيمها في قانون خاص أو تعديل في النصوص القائمة.
مجلة ثقافة قانونية -عدد خاص بمؤتمر القانون والذكاء الاصطناعي | 52Page