Page 80 - مجلة ثقافة قانونية عدد المؤتمر
P. 80

‫الضرورية‪ ،‬كما أتاح الفرصة لتمكين الضحايا من إثبات العلاقة بين تصرف النظام والضرر‪ .‬وفي‬
‫هذا المشروع‪ ،‬فإنه من الممكن للمحكمة أن تفترض وجود علاقة سببية بين الفعل والضرر‪ ،‬وعلى‬

                                                    ‫المدعى عليه دحض هذه القرينة في حالات‪:‬‬
‫عدم التزام المزود أو المستخدم بمتطلبات معينة في اللائحة الأوروبية للذكاء الاصطناعي‬

                                                      ‫(مثل الشفافية أو الرقابة البشرية)‪.‬‬
                                                   ‫ونتج ضرر مباشر عن سلوك النظام‪.‬‬
                                 ‫خلال مراحل التشاور والمفاوضات‪ ،‬واجه التوجيه عدة تحديات‪:‬‬
 ‫قلق الصناعة‪ :‬تخ ّوف من أثر التوجيه على الابتكار‪ ،‬خاصة بسبب خطر الدعاوى القضائية‪.‬‬
‫اختلاف النظم القانونية الوطنية‪ :‬تباين قواعد المسؤولية في الدول الأعضاء أعاق التوصل‬

                                                                      ‫إلى توافق مو ّحد‪.‬‬
‫تداخل مع القوانين القائمة للدول الأعضاء‪ :‬مثل توجيه مسؤولية المنتجات المعدّل واللائحة‬

                        ‫العامة للذكاء الاصطناعي‪ ،‬ما طرح تساؤلات عن جدوى التوجيه‪.‬‬
‫ولهذا فقد أعلنت المفوضية الأوروبية في فبراير ‪ 2025‬رسميًا سحب توجيه المسؤولية المدنية‬

                                 ‫للذكاء الاصطناعي من برنامجها التشريعي لعام ‪2025‬؛ بسبب‪:‬‬
                                  ‫غياب توافق سياسي وقانوني كا ٍف بين الدول الأعضاء‪.‬‬
                          ‫عدم استعداد البرلمان والمجلس لتبني التوجيه بصيغته المقترحة‪.‬‬

                                                                        ‫الولايات المتحدة الأمريكية‬
‫ترتكز سياسة الولايات المتحدة الأمريكية على دعم منصات الذكاء الاصطناعي مع اتخاذ إجراءات‬
‫لتنظيم عملها؛ حيث يعمل صانعو السياسات على الموازنة بين تعزيز الريادة العالمية للولايات‬
‫المتحدة في هذه التكنولوجيا الناشئة وبين معالجة المخاطر المرتبطة بها‪ .‬تتسارع كل القوى السياسية‬
‫حاليا لتثقيف أنفسهم حول تلك التكنولوجيا‪ ،‬وذلك خلال مرحلة إعداد الصياغات التشريعية‪ ،‬وذلك من‬
‫أجل إعداد القواعد والسياسات الملائمة لتحقيق التوازن بين الريادة الأمريكية في تطوير أنظمة الذكاء‬

                                                       ‫الاصطناعي وبين أولويات الأمن القومي‪.‬‬
                                                            ‫التشريعات الموضوعية المستهدفة‬

‫خلال عام ‪ ٢٠٢٣‬نال الذكاء الاصطناعي اهتما ًما ودع ًما كبيرا من الحزبين الجمهوري والديمقراطي؛‬
‫حيث عقدت لجان مجلس النواب ومجلس الشيوخ ما يقرب من ثلاثين جلسة استماع حول الذكاء‬
‫الاصطناعي خلال هذا العام وحده وتم تقديم أكثر من ‪ ٣٠‬مشروع قانون يركز على الذكاء‬
‫الاصطناعي في دورة الانعقاد السابقة للكونجرس (الدورة ‪ )118‬والمنتهية في يناير ‪ ،2025‬وقد‬

                                         ‫تناولت تلك المشروعات عدة اتجاهات على النحو التالي‪:‬‬
           ‫مشروعات قوانين لتعزيز البحث العلمي والتطوير في مجال الذكاء الاصطناعي‪.‬‬
‫مشروعات قوانين لحماية الأمن القومي‪ ،‬وتشمل الاستعداد للأزمات الصحية والهجمات‬
‫السيبرانية التي يسهلها الذكاء الاصطناعي والتقنيات الناشئة الأخرى مثل قانون تقييم مخاطر‬
‫الذكاء الاصطناعي والأمن البيولوجي وقانون منع الإطلاق النووي عن طريق أنظمة الذكاء‬
‫الاصطناعي الذاتية التحكم أو المستقلة وقانون الذكاء الاصطناعي للأمن القومي لتحديث‬
‫قوانين المشتريات بالجهات المعنية من أجل توريد منتجات وخدمات أنظمة أمنية ودفاعية‬
‫مدعمة بالذكاء الاصطناعي‪ ،‬كما اتخذ الكونجرس إجراءات لتقييد نقل التكنولوجيات الناشئة‬

                                                     ‫المهمة إلى بعض الكيانات الأجنبية‪.‬‬

     ‫مجلة ثقافة قانونية ‪ -‬عدد خاص بمؤتمر القانون والذكاء الاصطناعي | ‪80Page‬‬
   75   76   77   78   79   80   81   82   83   84   85