Page 56 - مجلة ثقافة قانونية عدد المؤتمر
P. 56

‫‪-‬بكل ما يحمله من انحيازات ثقافية وفكرية‪ -‬لتكون بديلاً موضوعيا وعادلاً في إصدار الأحكام أو المساعدة في صنع القرار القضائي؟‬
 ‫وهل يمكن أن يكون الذكاء الاصطناعي أداة محايدة فعلاً‪ ،‬أم إنه قد يُك ّرس ‪-‬عن غير قصد‪ -‬أشكالاً جديدة من التمييز وانعدام المساواة؟‬
‫ينطلق هذا البحث من هذه الإشكاليات الكبرى؛ ليتناول بالدراسة والتحليل أبعاد استخدام الذكاء الاصطناعي في المجال‬
‫القضائي‪ ،‬والتحديات التي يطرحها على مبدأ الحياد‪ ،‬مع استعراض التجارب المقارنة‪ ،‬وتسليط الضوء على الجوانب القانونية‬
‫والأخلاقية والتقنية المحيطة بهذه الظاهرة المتسارعة‪ ،‬كما يسعى إلى تقديم رؤية متوازنة تضمن الاستفادة من القدرات التكنولوجية‬

                                                          ‫للذكاء الاصطناعي دون الإخلال بحقوق المتقاضين ولا بمبادئ العدالة‪.‬‬
                                                                                               ‫أو ًلا‪ :‬إشكالية البحث‬

‫تتمحور الإشكالية الأساسية لهذا البحث حول مدى توافق استخدام تقنيات الذكاء الاصطناعي في المجال القضائي مع مبدأ‬
                           ‫الحياد القضائي‪ ،‬باعتباره أحد أهم ضمانات العدالة‪ .‬ويمكن صياغة الإشكالية في السؤال المركزي الآتي‪:‬‬

‫هل يُمكن للذكاء الاصطناعي أن يسهم في تحقيق العدالة القضائية دون المساس بمبدأ الحياد‪ ،‬أم إن إدماجه في المنظومة‬
                  ‫القضائية قد يؤدي إلى تكريس أنماط جديدة من التحيز وعدم المساواة؛ بسبب القيود التقنية والأخلاقية المرتبطة به؟‬
                                                            ‫ومن هذه الإشكالية الرئيسية تتفرع الأسئلة الفرعية التالية‪:‬‬
                                                           ‫‪ ‬ما هي أبرز تطبيقات الذكاء الاصطناعي في المجال القضائي؟‬
                        ‫‪ ‬كيف يُمكن أن تتسلل التحيزات الخوارزمية إلى عملية إصدار الأحكام أو تحليل المعطيات القضائية؟‬
                        ‫‪ ‬ما الضوابط القانونية والأخلاقية الكفيلة بضمان حياد الذكاء الاصطناعي عند استخدامه في القضاء؟‬
                                           ‫‪ ‬ما مدى مسؤولية المش ّرع في تنظيم العلاقة بين التكنولوجيا والمبادئ القضائية؟‬

                      ‫التشريعات والسياسات الدولية لتنظيم الذكاء الاصطناعي‬
                                   ‫ــــــــــــــــــــــــــ‬

‫عماد الدين محمود إبراهيم أحمد منير‬

‫أدى التطور السريع في تقنيات الذكاء الاصطناعي إلى تحولات كبيرة في مختلف المجالات‪ ،‬من الصحة والتعليم إلى الأمن‬
‫والاقتصاد‪ .‬ومع تزايد استخدام الذكاء الاصطناعي‪ ،‬ظهرت الحاجة الماسة إلى تنظيمه قانونيًا وأخلاق ًيا؛ لتفادي المخاطر وضمان‬

                                                                                                 ‫استخدامه بشكل آمن وعادل‪.‬‬
                                                          ‫وسيتم عرض ورقة العمل هذه في فرعين على النحو التالى‪:‬‬

                                                                                                      ‫الفرع الأول‪:‬‬
                                                           ‫أهمية تنظيم الذكاء الاصطناعي والمبادرات الدولية لتنظيمه‬

                                                                              ‫أو ًلا‪ :‬أهمية تنظيم الذكاء الاصطناعي‪:‬‬
                                              ‫حماية الحقوق الأساسية‪ :‬مثل الخصوصية‪ ،‬وعدم التمييز‪ ،‬وحرية التعبير‪.‬‬
                         ‫تقليل المخاطر‪ :‬مثل الاستخدام الخاطئ‪ ،‬والتحيز في الخوارزميات‪ ،‬والبطالة الناتجة عن الأتمتة‪.‬‬

                                                       ‫تشجيع الابتكار‪ :‬من خلال توفير بيئة قانونية واضحة ومستقرة‪.‬‬
                                                                       ‫تعزيز الثقة العامة وضمان الشفافية والمساءلة‪.‬‬

                                                                    ‫ثان ًيا‪ :‬المبادرات الدولية لتنظيم الذكاء الاصطناعي‬
                                                                                              ‫‪ .1‬الاتحاد الأوروبي‪:‬‬

                                       ‫(قانون الذكاء الاصطناعي( – )‪ (AI Act‬قيد الإقرار النهائي في ‪.2025-2024‬‬
                                                          ‫أول إطار قانوني شامل في العالم لتنظيم الذكاء الاصطناعي‪.‬‬

                                  ‫يصنف الأنظمة وفقًا لمستوى المخاطر (غير مقبول‪ ،‬عالي المخاطر‪ ،‬محدود‪ ،‬ضئيل)‪.‬‬
                           ‫فرض قيود صارمة على التطبيقات عالية المخاطر‪ ،‬مثل أنظمة التوظيف والمراقبة البيومترية‪.‬‬

                                                                   ‫‪ .2‬منظمة التعاون الاقتصادي والتنمية ‪(OECD):‬‬
                                                     ‫أصدرت عام ‪ 2019‬مبادئ أخلاقية لاستخدام الذكاء الاصطناعي‪،‬‬

                                                                                                       ‫تر ّكز على‪:‬‬

     ‫مجلة ثقافة قانونية ‪ -‬عدد خاص بمؤتمر القانون والذكاء الاصطناعي | ‪56Page‬‬
   51   52   53   54   55   56   57   58   59   60   61