Page 432 - RAQAMLI TRANSFORMATSIYA DAVRIDA PEDAGOGIK TA’LIMNI RIVOJLANTIRISH ISTIQBOLLARI
P. 432

c)  Qaror qabul qilish jarayonida shaffoflikni taʼminlash;
                   d)  Foydalanuvchilar huquqlarini himoya qilish.
                   Bundan  tashqari,  Yevropa  Komissiyasi  tomonidan  “Etik  tamoyillar  asosida
            ishonchli AI” (Ethics Guidelines for Trustworthy AI) hujjati qabul qilingan.
                   AQShda  AI  texnologiyalarini  toʻliq  federal  qonun  bilan  emas,  balki  soha
            boʻyicha tavsiya va standartlar orqali tartibga solish amaliyoti mavjud. 2023-yilda NIST
            (National Institute of Standards and Technology) AI Risk Management Frameworkni
            taqdim etdi. Ushbu hujjat:
                   AI xavflarini boshqarish;
                   Algoritmlardagi noxolislikni kamaytirish;
                   AI  qarorlarini  izohlash  va  nazorat  mexanizmlarini  takomillashtirishga
            qaratilgan.
                   Kanadada hukumat davlat xizmatlarida AI texnologiyalarini joriy etishdan oldin
            Algorithmic Impact Assessment (algoritmik taʼsir bahosi) usulini qoʻllaydi. Bu usul:
                   AI loyihasining jamiyatga taʼsirini baholash;
                   Shaffoflik va javobgarlikni oshirishni maqsad qiladi.
                   Yaponiya “Jamiyat 5.0” konsepsiyasi doirasida inson markazida sunʼiy intellektni
            rivojlantirish siyosatini yuritmoqda. Bu yondashuvda:
                   Texnologiya inson hayotini qulaylashtirishga xizmat qilishi;
                   Avtomatlashtirish jarayonida inson qadriyatlari birinchi oʻrinda boʻlishi koʻzda
            tutiladi.
                   2021-yilda  UNESCO  tomonidan  “AI  etikasi  boʻyicha  xalqaro  tavsiyalar”  qabul
            qilindi. Ushbu hujjat:
                   AI texnologiyalaridan foydalanganda inson huquqlarini taʼminlash;
                   Adolat, shaffoflik va javobgarlik tamoyillarini mustahkamlash;
                   Xalqaro hamkorlikni kengaytirishga qaratilgan.
                   Dunyo tajribasi shuni koʻrsatadiki:
                   AI  rivoji  bilan  birga  inson  huquqlari  va  etik  masalalar  birinchi  oʻringa
            chiqmoqda.
                   Har  bir  davlat  oʻz  sharoitidan  kelib  chiqib  tartibga  solish  yondashuvini
            tanlamoqda.
                   Global standartlar va tamoyillar asta-sekin shakllanib bormoqda, bu esa barcha
            mamlakatlar uchun yagona etik maydon yaratishga yordam beradi.
                   Oʻzbekiston tajribasi. Oʻzbekiston soʻnggi yillarda raqamli texnologiyalar, shu
            jumladan  sunʼiy  intellekt  (AI)  sohasini  rivojlantirishga  katta  eʼtibor  qaratmoqda.
            Davlat siyosatining ustuvor yoʻnalishlaridan biri – raqamli iqtisodiyotni shakllantirish
            va barcha sohalarga raqamli texnologiyalarni keng joriy etishdir. Shu bilan birga, AI
            bilan bogʻliq huquqiy, axloqiy va xavfsizlik masalalari ham asta-sekin kun tartibiga
            chiqmoqda.
                   2020-yilda qabul qilingan “Raqamli Oʻzbekiston – 2030” davlat dasturi:
                   Raqamli texnologiyalarni barcha sohalarga keng joriy etish;
                   Axborot  xavfsizligi  va  shaxsiy  maʼlumotlarni  himoya  qilish  mexanizmlarini
            mustahkamlash;
                   Sunʼiy  intellektni  rivojlantirishga  doir  ilmiy  markazlar  tashkil  etishni  maqsad
            qilgan.
                   Bu  dastur AI  sohasidagi tadqiqotlar  va innovatsion  loyihalar  uchun  umumiy
            strategik asos yaratmoqda.                                                                          430
                   Soʻnggi yillarda qator normativ-huquqiy hujjatlar qabul qilindi:


                                                                                                           II SHO‘BA:

                                         Sun'iy intellekt va insoniy munosabatlar transformatsiyasi: shaxsdagi muvaffaqiyatlar va rivojlanish istiqbollari

                                                                                         https://www.asr-conference.com/
   427   428   429   430   431   432   433   434   435   436   437