Page 79 - مجلة ثقافة قانونية عدد المؤتمر
P. 79

‫تم حظر أنظمة وتطبيقات الذكاء الاصطناعي ذات المخاطر غير المقبولة‪ ،‬وتشمل ممارسات‬
‫تكنولوجيا الذكاء الاصطناعي "الضارة"‪ ،‬والتي تتعارض بشكل خاص وقيم الاتحاد الأوروبي‬
‫كأنظمة تحديد الهوية البيومترية عن بعد وأنظمة التعرف على المشاعر في مكان العمل والمؤسسات‬
‫التعليمية وأنظمة التقييم الاجتماعي على أساس السلوك الاجتماعي أو الخصائص الشخصية وأنظمة‬

                     ‫الذكاء الاصطناعي التي تتلاعب بالسلوك البشري للتحايل على إرادته الحرة‪.‬‬
‫كما أسس مشروع القانون لمنهجية خاصة بتقييم المخاطر تعمل على تحديد متطلبات تنظيمية لأنظمة‬
‫الذكاء الاصطناعي "عالية المخاطر"‪ ،‬والتي تشكل مخاطر كبيرة على صحة الأشخاص وسلامتهم‬
‫وحقوقهم الأساسية؛ حيث سيتعين على تلك الأنظمة الامتثال لمجموعة من المتطلبات الإلزامية‬
‫الأساسية المطبقة بوجه عام لتصبح جديرة "بالثقة"‪ ،‬مع اتباع حزم إضافية من الالتزامات‪ ،‬والتي‬
‫تشمل إجراءات لتقييم مطابقة تلك الأنظمة لاختبارات ومعايير محددة مثل تطبيق نظام لإدارة‬
‫المخاطر والالتزام بوجود إشراف بشري فعال وإمكانية لتتبع السجلات ومجموعة أخرى من‬

     ‫الالتزامات الخاصة بالمتانة السيبرانية والدقة وأمن المعلومات‪ ،‬وذلك قبل طرحها في الأسواق‪.‬‬

‫كما تناول المشروع وضع التزامات تقع على مقدمي الحلول والخدمات المرتبطة بهذه الأنظمة‬
‫وعلى المستوردين والموزعين وعلى المستخدمين لها‪ ،‬وذلك لضمان سلامة وقانونية الاستخدامات‬
‫وفقا للقوانين والقواعد المنظمة لعمل الاتحاد الأوروبي‪ ،‬وذلك خلال كل مراحل حياه إنتاج وتطوير‬

                                                    ‫وتشغيل وصيانة أنظمة الذكاء الاصطناعي‪.‬‬

‫سيتم إنفاذ القواعد المقترحة من خلال نظام للحوكمة يعتمد على تسجيل أنظمة الذكاء الاصطناعي‬
‫عالية الخطورة في قاعدة بيانات موحدة وإعطاء الصلاحيات لجهات إنفاذ القانون لمنع أي منتج أو‬
‫خدمة لها مخاطر جسيمة على السوق تصل إلى حد المنع أو الحجب في حالة عدم امتثال مقدمي‬

             ‫الخدمة للقواعد التنظيمية‪ ،‬كما وضع المشروع غرامات مالية في حالات عدم الامتثال‪.‬‬
‫دخل القانون حيز التنفيذ في أغسطس ‪ ،2024‬وسيتم تطبيقه بالكامل بعد عامين من دخوله حيز‬

                                                                ‫التنفيذ‪ ،‬مع بعض الاستثناءات‪.‬‬
                      ‫توجيه المسؤولية المدنية للذكاء الاصطناعي ‪AI Liability Directive‬‬
‫في سياق مواز‪ ،‬أصدر الاتحاد الأوروبي توجيه المسؤولية المدنية للذكاء الاصطناعي ‪AI‬‬
‫‪ ،Liability Directive‬ففي أكتوبر ‪ ،2020‬اعتمد البرلمان الأوروبي قرا ًرا تشريعيًا بمبادرة‬
‫ذاتية‪ ،‬استنادًا إلى المادة ‪ 225‬من معاهدة عمل الاتحاد الأوروبي‪ ،‬بشأن المسؤولية المدنية عن الذكاء‬
‫الاصطناعي‪ ،‬وطلب من المفوضية اقتراح تشريعات‪ .‬وعليه فقد تقدمت المفوضية بناء على طلب‬
‫البرلمان الأوروبي‪ ،‬في ‪ 28‬سبتمبر ‪ ،2022‬بمقترح تشريعي لإعداد توجيه خاص بالمسؤولية‬

                                         ‫المدنية للذكاء الاصطناعي‪ .‬هدف المشروع إلى ما يلي‪:‬‬
‫تحسين أداء السوق الأوروبي من خلال وضع قواعد موحدة لبعض جوانب المسؤولية المدنية‬

                ‫غير التعاقدية عن الأضرار الناجمة عن استخدام أنظمة الذكاء الاصطناعي‪.‬‬
              ‫تسهيل الوصول إلى الأدلة للضحايا (مثل سجلات تدريب النظام أو إعداداته)‪.‬‬
‫تخفيف عبء الإثبات عبر إنشاء قرينة قانونية قابلة للدحض تفترض العلاقة بين الضرر‬

                                                                              ‫والخطأ‪.‬‬
    ‫سد الفجوة بين لائحة الذكاء الاصطناعي (‪ )AI Act‬وتوجيه مسؤولية المنتجات المعدّل‪.‬‬
‫وقد شمل التوجيه تحديد المسؤولية المدنية غير التعاقدية القائمة على الخطأ‪ ،‬وقد شمل نطاق تطبيقه‬
‫المط ّورين ومستخدمي أنظمة الذكاء الاصطناعي (وليس فقط الشركات المصنّعة)‪ ،‬كما منح المحاكم‬
‫الوطنية صلاحية إجبار مزودي أنظمة الذكاء الاصطناعي عالية الخطورة بتقديم المعلومات الفنية‬

     ‫مجلة ثقافة قانونية ‪ -‬عدد خاص بمؤتمر القانون والذكاء الاصطناعي | ‪79Page‬‬
   74   75   76   77   78   79   80   81   82   83   84