Page 37 - مجلة ثقافة قانونية عدد المؤتمر
P. 37

‫المستقبل‪ .‬ونرى أن يتم تفعيل ذلك عن طريق عقد المؤتمرات والندوات العلمية وورش العمل‪ ،‬ومن خلال‬
‫البرامج الإعلامية التثقيفية‪ ،‬وربما في المسلسلات التليفزيونية؛ فهذه الأمور بلا شك وسائل فعالة لتنمية‬

                                                         ‫وعي الأفراد وتبصيرهم بأهمية هذه التقنيات‪.‬‬
‫‪ )117‬يجب أن يشترط التنظيم القانوني تقييم المخاطر التي تنطوي عليها نظم الذكاء الاصطناعي‬
‫والآثار المترتبة في مجال حقوق الإنسان قبل الاستخدام وفي أثنائه وبعده‪ .‬ومن الضروري للغاية ضمان‬
‫الشفافية والرقابة المستقلة والوصول إلى سبل الانتصاف الفعالة‪ ،‬لا سيما عندما تستخدم الدولة نفسها‬
‫تكنولوجيات الذكاء الاصطناعي‪ .‬ويجب حظر أو تعليق تكنولوجيات الذكاء الاصطناعي التي لا يمكن‬

 ‫تشغيلها بما يتماشى والقانون الدولي لحقوق الإنسان إلى حين اعتماد الضمانات المناسبة في هذا الصدد‪.‬‬
‫‪ )118‬المطالبة بميثاق عالمي لحقوق الإنسان الرقمية في ظل ثورة تقنيات الذكاء الاصطناعي‪ ،‬فى‬
‫ضوء التحديات التي يفرضها الواقع‪ ،‬وطرح كل المخاطر التي تهدد المنظومة الدولية لحقوق الإنسان‪،‬‬
‫ومقاربتها للذكاء الاصطناعي والتقنيات الرقمية الحديثة‪ ،‬خاصة على صعيد الحقوق والحريات الأساسية‬
‫التي ستواجه الكثير من التحديات لضمان تمتع الجميع بها دون تمييز‪ ،‬لا سيما في ظل ما تشهده قضايا‬
‫التقنيات الرقمية للمعلومات والذكاء الاصطناعي من عدم اهتمام‪ ،‬ربما نابع من حداثة تلك القضايا على‬

                         ‫المستوى الدولي‪ ،‬أو لعدم إدراك الأبعاد الحقيقية لما تمثله من مخاطر وتحديات‪.‬‬
‫‪ )119‬التوصية لدى الحكومة بوضع سياسات تتعلق بأتمتة العمليات‪ ،‬مع مراعاة آثارها على حقوق‬
‫الإنسان‪ ،‬بالإضافة إلى ذلك‪ ،‬يجب إنشاء آليات للطعن في أي استخدام معين أو تحديد محدد لنظام الذكاء‬
‫الاصطناعي‪ ،‬وحتى الأنظمة التي يتم شراؤها وتنفيذها بشفافية ومع مدخلات أصحاب المصلحة قد تظل‬

                                                      ‫معرضة لخطر انتهاكات جسيمة لحقوق الإنسان‪.‬‬
‫‪ )120‬التوصية لدى وزارة الثقافة ووزارة الاتصالات بنشر الوعي بالتعريف بالذكاء الاصطناعي‬
‫وأخلاقياته وبتدريب مناسب لمشغلي أنظمة الذكاء الاصطناعي‪ ،‬فيجب على موظفي الحكومة الذين‬
‫يستخدمون ويديرون أنظمة الذكاء الاصطناعي فهم آلية عملها‪ ،‬وحدود استخدامها‪ ،‬واحتمالية حدوث‬
‫أضرار؛ فالتدريب المناسب يضمن بقاء الموظفين على اطلاعٍ فعّال‪ ،‬ويزيد من احتمالية اكتشاف النتائج‬

                                                                                            ‫الضارة‪.‬‬
‫‪ )121‬يوصي الباحث مجلس حقوق الإنسان المصري بمخاطبته لمجالس حقوق الإنسان في الدول‬
‫المعنية لتجنب التدمير والانسياق وراء سباقات التسليح بالأسلحة ذاتية التحكم المميتة‪ ،‬كما يوصي‬
‫الحكومة المصرية بأن تقوم بتطوير الإجراءات القانونية المناسبة وتحسين البنية التحتية لتكنولوجيا‬
‫المعلومات‪ ،‬وأن تفرض الرقابة الشديدة على هذا النوع من الأسلحة‪ ،‬مع تعزيز التعاون الفعال بين الدول‬

                     ‫من أجل التأكد من تطبيق معايير السلامة المفروضة على أنظمة الذكاء الاصطناعي‪.‬‬
‫‪ )122‬يوصي الباحث المجلس الوطني للذكاء الاصطناعي بمنع تطبيقات الذكاء الاصطناعي التي‬
‫تتعارض وأخلاقيات مجتمعنا‪ ،‬هذا بالإضافة إلى عقاب التطبيقات‪ ،‬والتي لا يستطيع غلقها عقابا أخلاقيا‪،‬‬

                              ‫وذلك بالاتفاق على عدم استخدام هذه التطبيقات‪ ،‬والعزوف الجماعي عنها‪.‬‬
‫‪ )123‬يوصي الباحث متخذي القرار بمراعاة احترام الخصوصية وحمايتها وصونها وتعزيزها طوال‬
‫دورة حياة نظم الذكاء الاصطناعي‪ .‬وجمع البيانات المتعلقة بنظم الذكاء الاصطناعي واستخدامها وتبادلها‬
‫وتشاطرها وحفظها وحذفها بطريقة تتوافق والقانون الدولي‪ ،‬وتعتبر أن التمتع بالخصوصية حقا ضروريا‬

                                           ‫لصون كرامة الإنسان والذود عن استقلاليته وحماية أعماله‪.‬‬
‫‪ )124‬يوصي الباحث المجلس الوطني للذكاء الاصطناعي في مصر بالعمل على بناء القدرات وتهيئة‬
‫المصريين لعصر الذكاء الاصطناعي على جميع المستويات‪ ،‬بد ًءا من نشر الوعي العام وحتى توجيه‬

                                   ‫التعليم الرسمي وتقديم برامج تدريب على المستويين الفني والمهني‪.‬‬

     ‫مجلة ثقافة قانونية ‪ -‬عدد خاص بمؤتمر القانون والذكاء الاصطناعي | ‪37Page‬‬
   32   33   34   35   36   37   38   39   40   41   42