Page 159 - networks
P. 159

‫شبكات الحاسب الالى‬

‫وتقوم العناصر الحسابية في الطبقة المخفية بإج ارء عملية الجمع الموزون وترسل إشارة مخرجات (أنماط‬
‫تنبيه) إلى بقة المخرجات التي تقوم هي الأخرى بعملية الجمع الموزون وتحديد أنماط المخرجات الشبكة‬
‫كلها‪ .‬كما انه بزيادة عدد وحدات المعالجة داخل الطبقة الخفية أو إضافة أكثر من بقة مخفية في الشبكة‪،‬‬
‫يسمح للشبكة بالتعامل مع كثير من الدوال المعقدة والتقريب الدقيق للدوال المستمرة وهذا ما نصت عليه‬

                                                                             ‫نظرية (‪.)Cybenko‬‬
‫أما بالنسبة لعملية التعليم فإنها تستمر بنفس الطريقة في الشبكة وحيدة الطبقة‪ ،‬حيس تحد الأو ازن باستخدام‬
‫التعلم بالتغذية الخلفية ‪ ، Back propagation Learning‬وقبل هذا التحديس يوجد خطوتين متتاليتين‬
‫أولهما أمامية ‪ Forward‬والأخرى ت ارجعية ‪ ،Backward‬ففي الخطوة الأمامية يتم حساع مخرجات الشبكة‬
‫من البيانات المدخلة‪ ،‬ومقارنة هذه المخرجات مع المخرجات المستهدفة عن ر حساع الخطأ‪ .‬أما في‬
‫الخطوة الت ارجعية فتقوم الشبكة بتعديل الأو ازن النسبية بهدف تصغير الخطأ‪ ،‬وتسمى العملية التي تضم‬

  ‫المرحلتين السابقتين بالدورة ‪ ،)Epoch‬ويتم تك ارر هذه الدورة إلى أن نصل لأقل مجموع مربعات للخطأ‪.‬‬

                                                      ‫‪.3‬شبكة متعددة الطبقات ذات التغذية المرتدة‪:‬‬
‫وهى النوع الثاني من الشبكات العصبية متعددة الطبقات‪ ،‬و هذا النوع يحتوي على حلقة تغذية خلفية واحدة‬
‫على الأقل (مسار مغلق من التغذية الخلفية ‪ )feedback loop‬كما في الشكل التالى ‪ ،‬حيس أنه وعلى‬

                                                      ‫‪149‬‬
   154   155   156   157   158   159   160   161   162   163   164