In onderstaand figuur staat een drie-lagig feedforward netwerk:

Met backpropagation kan de fout die het netwerk maakt worden verlaagd. De gewichten in het netwerk worden dan als volgt aangepast:
formule 1: of
formule 2:
Welk van deze leerregels kom je ook tegen bij een twee-lagig netwerk? Hoe heet die regel?
Antwoord:
Regel 2.
De "Perceptron Learning Rule"
Wat is het kenmerkende verschil tussen de leerregel (1) en leerregel (2)?
Waardoor wordt dit verschil veroorzaakt?
Antwoord:
Bij de error van leerregel 2 (die te zien is bij de outputlayer) zit de error die tussen de inputlayer en de hiddenlayer wordt gemaakt inbegrepen. De eerste leerregel krijgt de error in leerregel 2 (het gedeelte $\Sigma_i(d_i − a_i)w_{ik})$ 'back-propagated', zodat die daar rekening mee kan houden.