Page 25 - موجز_البحوث_والدراسات_والأوراق_العلمية_بعد_تعديل_المستشار27_
P. 25

‫التشريعات والسياسات الدولية لتنظيم الذكاء الاصطناعي‬
                         ‫ــــــــــــــــــــــــــ‬

‫عماد الدين محمود إبراهيم أحمد منير‬

‫أدى التطور السريع في تقنيات الذكاء الاصطناعي إلى تحولات كبيرة في مختلف المجالات‪ ،‬من الصحة‬
‫والتعليم إلى الأمن والاقتصاد‪ .‬ومع تزايد استخدام الذكاء الاصطناعي‪ ،‬ظهرت الحاجة الماسة إلى تنظيمه قانونيًا‬

                                               ‫وأخلاقيًا؛ لتفادي المخاطر وضمان استخدامه بشكل آمن وعادل‪.‬‬
                                          ‫وسيتم عرض ورقة العمل هذه في فرعين على النحو التالى‪:‬‬

                                                                                        ‫الفرع الأول‪:‬‬
                                         ‫أهمية تنظيم الذكاء الاصطناعي والمبادرات الدولية لتنظيمه‬

                                                              ‫أولًا‪ :‬أهمية تنظيم الذكاء الاصطناعي‪:‬‬
                           ‫حماية الحقوق الأساسية‪ :‬مثل الخصوصية‪ ،‬وعدم التمييز‪ ،‬وحرية التعبير‪.‬‬
    ‫تقليل المخاطر‪ :‬مثل الاستخدام الخاطئ‪ ،‬والتحيز في الخوارزميات‪ ،‬والبطالة الناتجة عن الأتمتة‪.‬‬

                                      ‫تشجيع الابتكار‪ :‬من خلال توفير بيئة قانونية واضحة ومستقرة‪.‬‬
                                                      ‫تعزيز الثقة العامة وضمان الشفافية والمساءلة‪.‬‬

                                                  ‫ثانيًا‪ :‬المبادرات الدولية لتنظيم الذكاء الاصطناعي‬
                                                                                ‫‪ .1‬الاتحاد الأوروبي‪:‬‬

                        ‫(قانون الذكاء الاصطناعي( – )‪ (AI Act‬قيد الإقرار النهائي في ‪.2025-2024‬‬
                                         ‫أول إطار قانوني شامل في العالم لتنظيم الذكاء الاصطناعي‪.‬‬

               ‫يصنف الأنظمة وفقًا لمستوى المخاطر (غير مقبول‪ ،‬عالي المخاطر‪ ،‬محدود‪ ،‬ضئيل)‪.‬‬
        ‫ف ْرض قيود صارمة على التطبيقات عالية المخاطر‪ ،‬مثل أنظمة التوظيف والمراقبة البيومترية‪.‬‬

                                                  ‫‪ .2‬منظمة التعاون الاقتصادي والتنمية ‪(OECD):‬‬
                                      ‫أصدرت عام ‪ 2019‬مبادئ أخلاقية لاستخدام الذكاء الاصطناعي‪،‬‬

                                                                                         ‫تركز على‪:‬‬
                                                                                 ‫التنمية المستدامة‪.‬‬

                                                                                     ‫حقوق الإنسان‪.‬‬
                                                                                          ‫الشفافية‪.‬‬
                                                                                          ‫المساءلة‪.‬‬

                                                                                     ‫الأمان التقني‪.‬‬
                                                                       ‫‪ .3‬الأمم المتحدة‪ -‬اليونسكو‪:‬‬
                                       ‫أصدرت في عام ‪ 2021‬توصية أخلاقية بشأن الذكاء الاصطناعي‪،‬‬

                                                                                          ‫دعت إلى‪:‬‬
                                                                                  ‫‪ -‬حماية البيانات‪.‬‬
                                                                                   ‫‪ -‬ضمان العدالة‪.‬‬
                                                                             ‫‪ -‬تعزيز التنوع الثقافي‪.‬‬

‫‪24 | P a g e‬‬
   20   21   22   23   24   25   26   27   28   29   30