College4vraag3

In onderstaand figuur staat een drie-lagig feedforward netwerk:

output.jpg

Met backpropagation kan de fout die het netwerk maakt worden verlaagd. De gewichten in het netwerk worden dan als volgt aangepast:

formule 1: 1.jpg of

formule 2: 2.jpg

Welk van deze leerregels kom je ook tegen bij een twee-lagig netwerk? Hoe heet die regel?

Antwoord:

Regel 2.
De "Perceptron Learning Rule"

Wat is het kenmerkende verschil tussen de leerregel (1) en leerregel (2)?
Waardoor wordt dit verschil veroorzaakt?

Antwoord:

Bij de error van leerregel 2 (die te zien is bij de outputlayer) zit de error die tussen de inputlayer en de hiddenlayer wordt gemaakt inbegrepen. De eerste leerregel krijgt de error in leerregel 2 (het gedeelte $\Sigma_i(d_i − a_i)w_{ik})$ 'back-propagated', zodat die daar rekening mee kan houden.

Volgende Vraag

Unless otherwise stated, the content of this page is licensed under Creative Commons Attribution-ShareAlike 3.0 License