Recent Forum Posts
From categories:
page 1 of 212next »
Willem86Willem86 16 Dec 2009 14:08
in discussion Hidden / Per page discussions » Vraag 1

Dat staat er in feite ook, maar dan iets gedetaileerder. Die verschillende plekken op de retina veroorzaken dus allemaal een ander inputpatroon (of vector) en al die verschillende inputpatronen van hetzelfde object moeten uiteindelijk leiden tot dezelfde conclusie: het is dat object. We kunnen echter niet alle individuele inputpatronen leren, dat zijn er oneindig veel. We moeten dus een manier verzinnen waarop een "nieuw" (ie nog nooit eerder gezien) patroon toch geclassificeerd kan worden. Dit gebeurt door het scheiden van die patronen (in de inputruimte/vectorruimte) door ze uit elkaar te trekken. Dan kan je vervolgens dus zeggen dit patroon, hoewel nog nooit eerder zo precies gezien, hoort bij dit object en niet bij een ander object.

by Willem86Willem86, 16 Dec 2009 14:08
SwifferSwiffer 16 Dec 2009 12:37
in discussion Hidden / Per page discussions » Vraag 1

Was het antwoord niet veel simpeler, nl :

In een feedforward netwerk weten verschillende delen van het netwerk niet wat andere delen "geleerd" hebben (op een laag niveau). Hierdoor moet een object op heel veel verschillende plekken op de retina aangeboden worden voordat het "hele" netwerk dit object kan herkennen

by SwifferSwiffer, 16 Dec 2009 12:37
Ferdi83Ferdi83 16 Dec 2009 11:03
in discussion Hidden / Per page discussions » College4vraag4

Wow thx, je legt zo drie dingen heel bondig uit.

by Ferdi83Ferdi83, 16 Dec 2009 11:03

Als het goed is geven die sheets die in dat antwoord genoemd is een set neuronen weer die (/ | \) herkennen, en je moest ervan uitgaan dat dit de enige neuronen in het netwerk waren. Locatie invariantie wordt hierdoor een probleem omdat een A en een gescramblede A dezelfde activiteit zouden geven. dit wordt beperkt omdat er zoveel redundatie is in het systeem.
Ik vind 't altijd moeilijk om dit soort dingen uit te leggen :S

Over 2de mogelijke antwoord by SwifferSwiffer, 15 Dec 2009 20:25
anacastanieranacastanier 15 Dec 2009 18:59
in discussion Hidden / Per page discussions » College3vraag7

idd je weet dan bijvoorbeeld wel wat iets is, maar niet waar het is

by anacastanieranacastanier, 15 Dec 2009 18:59

niet v4?

niet v4? by anacastanieranacastanier, 15 Dec 2009 18:56
Ferdi83Ferdi83 15 Dec 2009 18:23
in discussion Hidden / Per page discussions » Vraag 4

"Alle objecten hebben hun eigen gewichtwaarden"

Zijn dit gewichtwaarden of activiteitswaarden. Ik neig naar het laatste. Neuronen hebben gewichten, niet objecten, right?

by Ferdi83Ferdi83, 15 Dec 2009 18:23
Ferdi83Ferdi83 15 Dec 2009 18:13
in discussion Hidden / Per page discussions » College2vraag2

Moeten we hier antwoorden dat tijd een factor is en snelle oogbewegingen, zodat hetzelfde beeld kort achter elkaar op verschillende neuronen valt en zo de activiteit gelinkt kan worden?

by Ferdi83Ferdi83, 15 Dec 2009 18:13
Ferdi83Ferdi83 15 Dec 2009 17:50
in discussion Hidden / Per page discussions » Vraag 1

Het probleem is dus kort gezegd; dat heel veel verschillende activiteiten tot hetzelfde resultaat moeten leiden?

by Ferdi83Ferdi83, 15 Dec 2009 17:50
RaheleRahele 15 Dec 2009 16:19
in discussion Hidden / Per page discussions » Vraag 10

Een feed-forward netwerk zonder verborgen neuronen heet een perceptron.

by RaheleRahele, 15 Dec 2009 16:19

Ehm willen we niet dat ze altijd hetzelfde doen bij dezelfde input?!?

Ik zit nu naar slide 24 te kijken en probeer dat te verenigen met 25/27

Bestaat er een squashing en een continuous squasing?

Ik weet dat glutamate receiving neurons met thresholds werken en dat andere met verschillende input verschillende activiteiten doorgeven.

Het tweede antwoord geeft antwoord op de vraag waarom je een squashing function nodig hebt en het eerste geeft aan wat een squasing function doet.

Als we geen squashing function zouden toepassen, doen we niks anders dan linear dingen met elkaar vermenigvuldingen:

Zonder Squashing Function (ongelimiteerd, dus niet activatie tussen -1 en 1)

O -w1-> O -w2-> O -w3-> O -w4-> O

w1 = 0.5
w2 = 0.75
w3 = 1.4
w4 = 7.1

Input van 2 geeft:

2 * 0.5 * 0.75 * 1.4 * 7.1 = 7.455

doet precies hetzelfde als twee-laag netwerk (dus perceptron) met aangepast gewicht:

w* = 0.5 * 0.75 * 1.4 * 7.1 = 3.7275

O -w*-> O

2 * 3.7275 = 7.455

Als we echter een squashing function gebruiken op elke laag, dan gaat deze "lineare transformatie" niet meer op en doet het dus een multi-layer netwerk dus echt iets anders dan een twee-laag netwerk. Een squashing function limiteerd dus de output-ruimte tussen bijvoorbeeld -1 en 1 (of 0 en -1, maar dat geeft het probleem met x=0 —> y=0.5) en zorgt er daarom voor dat de werking van de lagen achter elkaar niet hetzelfde is als een simpele vermenigvulding van de gewichten op de initiële activatie. Waarom niet de simpele squashing function van de perception (met twee lagen en een simpele (lineare) threshold functie)? Omdat we dan met het probleem komen te zitten dat we slechts met 0 en 1 werken (binair) en alle informatie al door het eerste gewicht wordt bepaald (de tweede laag is dan 0 of 1 en doet daarna altijd hetzelfde).

Squashing zoals je 't vertelde staat wel ongeveer uitgelegd op wikipedia, je wilt een waarde op een bepaald interval krijgen, dus pas je 't aan, maar daar heb je gewichten voor. Squashing heeft hier een 'hoger' doel en ik denk dat dit doel van belang is bij de vraag. Hier is het doel informatie combineren, of liever reduceren. Dit betekent dat je verlies hebt maar dat dingen wel simpeler worden.

Ferdi83Ferdi83 10 Dec 2009 11:32
in discussion Hidden / Per page discussions » Vraag 7

Dit betekent dat het niet uitmaakt in welk gedeelte van je visuele veld een object staat het toch zal worden herkent als een en hetzelfde object.

by Ferdi83Ferdi83, 10 Dec 2009 11:32
Ferdi83Ferdi83 10 Dec 2009 11:30
in discussion Hidden / Per page discussions » Vraag 12

Slides 19/22 wk1

by Ferdi83Ferdi83, 10 Dec 2009 11:30
Ferdi83Ferdi83 10 Dec 2009 11:16
in discussion Hidden / Per page discussions » Vraag 12

"Exclusive Or" kan een perceptron niet aan, er is een extra laag nodig om dit classificatie probleem uit te voeren.

by Ferdi83Ferdi83, 10 Dec 2009 11:16

The perceptron is a type of artificial neural network invented in 1957 at the Cornell Aeronautical Laboratory by Frank Rosenblatt. It can be seen as the simplest kind of feedforward neural network: a linear classifier.

Dit houdt in dat het de input die de eerste laag binnen krijgt een gewicht meekrijgen (vermenigvuldigt worden met een getal) en dit doorgeven aan de tweede laag. De activiteit van de tweede laag wordt dus bepaald als de som van de activiteit en de gewichten van de onderste laag.

Het is heel simpel voor te stellen voor eindcijfers van een vak. Stel je hebt een tentamen en een essay en je tentamen telt voor 75% & en je essay voor 25% Je eindcijfer is dan een combinative van beide cijfers. De percentages zijn gewichten (dit is het lineaire). De threshold kan zijn dat beide cijfers een voldoende moet zijn etc. En de laatste neuron kan ingesteld zijn op pas te gaan vuren wanneer het eindcijfer een 8 is.

The receptive field of a sensory neuron is a region of space in which the presence of a stimulus will alter the firing of that neuron.
The concept of receptive fields can be extended to further up the neural system; if many sensory receptors all form synapses with a single cell further up, they collectively form the receptive field of that cell. For example, the receptive field of a ganglion cell in the retina of the eye is composed of input from all of the photoreceptors which synapse with it, and a group of ganglion cells in turn forms the receptive field for a cell in the brain. This process is called convergence.

Van wikipedia geplukt by Ferdi83Ferdi83, 10 Dec 2009 10:50
FF & Recurrent
Ferdi83Ferdi83 10 Dec 2009 10:42
in discussion Hidden / Per page discussions » Vraag 1

Er zijn netwerken die strikt feedforward zijn, dus waar informatie slechts in één richting loopt en er zijn netwerken waarin alles met elkaar verbonden is en naar elkaar seint, waarbij dus informatie alle kanten op kan, de Fully Recurrent Network, zoals Attractor & Hopfield. Tot slot heb je nog gradaties tussen deze twee, partially recurrent networks. (Netwerken waarbij de informatie grotendeels een kant op gaat zoals het visuele deel van ons brein, waarbij toch om bijvoorbeeld locatie terug te vinden en zo verschillende delen van visueel verwerken weer te verenigen.)

FF & Recurrent by Ferdi83Ferdi83, 10 Dec 2009 10:42

Misschien heb ik 't concept van een squashing functie wel verkeerd begrepen tijdens het beantwoorden van deze vraag (ik was niet bij het eerste college aanwezig .. en heb gewoon wat aangenomen). Ik zal er nog is naar kijken :)

page 1 of 212next »
Unless otherwise stated, the content of this page is licensed under Creative Commons Attribution-ShareAlike 3.0 License