College4vraag2

Waarom is gradient descent nodig om de fout die een feedforward netwerk maakt te verkleinen?

Antwoord:

Omdat de fouten E die het feedforward netwerk maakt naar beneden moet en niet omhoog (gradient), dus staat er een - voor de formule.

The gradient of a function shows the direction of its maximum increase, so the opposite of the gradient shows the direction of its maximum decrease, or descent. That is why this learning method is referred to as gradient descent.

Edit: Ehm is dat echt de uitleg? Is de vraag niet waarom het in stapjes gaat 'een gradient is'; omdat we niet het ware antwoord kunnen geven maar bij ieder antwoord moeten checken of dit het gewenste resultaat is. (Denk aan het spelletje mastermind, je probeert steeds de code te benaderen en pas je input daar op aan.)

Volgende Vraag

Unless otherwise stated, the content of this page is licensed under Creative Commons Attribution-ShareAlike 3.0 License