Page 457 - RAQAMLI TRANSFORMATSIYA DAVRIDA PEDAGOGIK TA’LIMNI RIVOJLANTIRISH ISTIQBOLLARI
P. 457

METODOLOGIYA
                   Katta hajmli maʼlumot manbalarining soni jadal oʻsib bormoqda, yaʼni ularni
            qayta ishlash texnologiyalari tobora ommalashib bormoqda.
                   Katta hajmli maʼlumotlarni qayta ishlash prinsiplari. Big Data taʼrifiga asoslanib,
            bunday maʼlumotlarni qayta ishlashning asosiy prinsiplarini shakllantirish mumkin.
            Bular:
                   Gorizontal  oʻlchovlar.  Katta  maʼlumotlarni  qayta  ishlash  uchun  imkon  qadar
            katta maʼlumotlarni qayta ishlashni qamrab oluvchi har qanday tizim kengaytirilishi
            mumkin. Bunda maʼlumotlar hajmi ikki barobar ortadi, klasterdagi komponentalar
            soni ham ikki marta oshadi va jarayon davom etadi.
                   Teskari barqarorlik. Gorizontal oʻlchovlar prinsipida klasterdagi komponentalar
            soni  koʻp  boʻladi.  Misol  uchun,  Yahooning  Hadoop  klasterida  42  000  dan  ortiq
            mashinalar  mavjud  (turli  tashkilotlarning  klaster  oʻlchamiga  qarash  uchun
            foydalanish  mumkin).  Bu  shuni  anglatadiki,  ushbu  mashinalarning  baʼzilari
            muvaffaqiyatsizlikka  uchraydi.  Katta  maʼlumot  bilan  ishlash  usullari  bu  kabi
            xatolarning  mavjudligini  hisobga  olishi  va  hech  qanday  jiddiy  oqibatlarsiz  ishlashi
            kerak.
                   Maʼlumotlarning  joylashuvi.  Katta  taqsimlangan  tizimlarda  maʼlumotlar  koʻp
            sonli  mashinalarga  tarqatiladi.  Maʼlumotlar  bir  xil  serverda  joylashgan  boʻlsa  va
            boshqasida qayta ishlansa ­ maʼlumotlar uzatish qiymati uni qayta ishlash narxidan
            oshib  ketishi  mumkin.  Shuning  uchun,  BigData  yechimlari  uchun  eng  muhim
            prinsip  tamoyillaridan  biri  axborotni  joylashish  tamoyili  boʻlib,  iloji  boʻlsa,  ularni
            saqlaydigan bir mashinaning oʻzida maʼlumotlarni qayta ishlash mumkin [3].

                   TAHLILLAR
                   Katta maʼlumot bilan ishlashning barcha zamonaviy usuli bu uchta printsipga
            amal qiladi. Bu prinsiplar bilan ishlaydigan modellarni koʻrib chiqamiz.
                   MapReduce. MapReduce ­ Google tomonidan kompyuter klasterlarida katta
            hajmdagi  maʼlumotlarni  qayta  ishlash  uchun  taklif  qilingan  taqsimlangan
            maʼlumotlarni  qayta  ishlash  modeli.  MapReduce  quyidagi  1-rasmda  aniq
            tasvirlangan:




















                    1-rasm. MapReduce modelida maʼlumotlar uch bosqichda amalga oshiriladi

                   Map  bosqichi.  Ushbu  bosqichda  maʼlumotlar  foydalanuvchi  tomonidan
            belgilaydigan  map()  funksiyasidan  foydalaniladi.  Ushbu  bosqichning  vazifasi                   455
            maʼlumotlarni  qayta  ishlash  va  filtrlashdir.  Bunda  har  bir  kirish  yozuviga  maxsus


                                                                                                           II SHO‘BA:

                                         Sun'iy intellekt va insoniy munosabatlar transformatsiyasi: shaxsdagi muvaffaqiyatlar va rivojlanish istiqbollari

                                                                                         https://www.asr-conference.com/
   452   453   454   455   456   457   458   459   460   461   462