انت هنا الان : شبكة جامعة بابل > موقع الكلية > نظام التعليم الالكتروني > مشاهدة المحاضرة

Artificial Neural Network- Part 3

Share |
الكلية كلية تكنولوجيا المعلومات     القسم قسم البرامجيات     المرحلة 3
أستاذ المادة أسعد صباح هادي الجبوري       13/05/2017 18:53:22
- In 1969 a method for learning in multi-layer network,
Backpropagation, was invented by Bryson and Ho.


- The Backpropagation algorithm is a sensible approach
for dividing the contribution of each weight.

- Works basically the same as perceptron
There are two differences for the updating rule :


1) The activation of the hidden unit is used instead of activation of the input value.

2) The rule contains a term for the gradient of the activation
function.

1. Initialize network with random weights
2. For all training cases (called examples):
a. Present training inputs to network and calculate output
b. For all layers (starting with output layer, back to input layer):
i. Compare network output with correct output
(error function)
ii. Adapt weights in current layer

Method for learning weights in feed-forward (FF) nets

Can’t use Perceptron Learning Rule
no teacher values are possible for hidden units

Use gradient descent to minimize the error
propagate deltas to adjust for errors
backward from outputs
to hidden layers
to inputs


المادة المعروضة اعلاه هي مدخل الى المحاضرة المرفوعة بواسطة استاذ(ة) المادة . وقد تبدو لك غير متكاملة . حيث يضع استاذ المادة في بعض الاحيان فقط الجزء الاول من المحاضرة من اجل الاطلاع على ما ستقوم بتحميله لاحقا . في نظام التعليم الالكتروني نوفر هذه الخدمة لكي نبقيك على اطلاع حول محتوى الملف الذي ستقوم بتحميله .
الرجوع الى لوحة التحكم