Inleiding Adaptieve Systemen Hoofdstuk 4: Neurale netwerken
|
|
|
- Elisabeth Driessen
- 10 jaren geleden
- Aantal bezoeken:
Transcriptie
1 Inleiding Adaptieve Systemen Hoofdstuk 4: Neurale netwerken Cursusjaar Gerard Vreeswijk β-faculteit, Departement Informatica en Informatiekunde, Leerstoelgroep Intelligente Systemen 12 Juni 2015 Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
2 Neurale netwerken Leerdoelen: Weten wanneer neurale netwerken toepasbaar zijn. De delta-leerregel kennen, kunnen uitleggen, en er mee kunnen rekenen. Gewichtenveranderingen in een lineair perceptron kunnen uitrekenen. Weten wat multi-layer feedforward neurale netwerken zijn. De backpropagation leerregel kunnen opschrijven en uitleggen. Weten wat recurrente neurale netwerken zijn, en er enkele kunnen noemen en tekenen. Weten wat een associatief netwerk (Hopfield netwerk) is, en kunnen aangeven in welke opzichten het verschilt van bv. feedforward. Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
3 Neurale netwerken Kunstmatige neurale netwerken (ANNs) zijn geïnspireerd op de werking van reële neurale netwerken (WNN), bijvoorbeeld het brein. Een zenuwcel of neuron is de fundamentele bouwsteen van het brein. Een reëel NN (brein) bestaat uit ong. 100 miljard neuronen. Een neuron bestaat uit een cellichaam: de soma. Uit het cellichaam vertakken dendrieten en een axon. Een axon verbindt zich met dendrieten van andere neuronen in synapsen, de verbindingspunten. Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
4 Piramidale cel in de Hippocampus (40x) Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
5 Een organisch neuraal netwerk (WNN) Chemische transmitter vloeistoffen worden vrijgegeven in de synapsen en stromen de dendrieten binnen. Dit heeft als effect dat de actie-potentiaal in de soma toeneemt (of juist afneemt). Dendriet Nucleus Soma Synapse Axon van andere neuron Axon Synapse Wanneer de actie-potentiaal een bepaalde drempelwaarde overschrijdt, wordt een elektrische puls doorgegeven naar de axon (de neuron vuurt ). Synapsen welke de actie potentiaal laten toenemen heten excitatief. Synapsen welke de actie potentiaal laten afnemen heten inhibitatief. Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
6 Een kunstmatig neuraal netwerk (ANN) Vormen een gelaagde structuur. Alle verbindingen gaan van één laag naar de volgende laag. We onderscheiden de volgende lagen: Output Layer Hidden Layer Input Layer De Input laag: hier worden de inputs van het netwerk naartoe gecopieerd. De Hidden laag: hier worden interne (niet-lineaire) berekeningen uitgevoerd. De Output laag: hier worden de waarden van de outputs van het netwerk berekend. Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
7 Feedforward neurale netwerken ANNs bestaan uit neuronen. Ze bestaan uit een input-laag, enkele inwendige lagen en een output-laag. De neuronen (knopen, units, rekeneenheden) zijn verbonden door activatielinks (McCulloch en Pitts, 1943). ANNs bezitten nuttige computationele eigenschappen. Ze kunnen bv. alle begrensde continue functies benaderen met één inwendige laag (G afh. f ), en alle functies met twee inwendige lagen (G onbekend). Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
8 Kunstmatige neurale netwerken Een kunstmatig neuraal netwerk bestaat uit een aantal neuronen (units) en verbindingen tussen de neuronen. Elke verbinding bezit een gewicht, uitgedrukt als reëel getal. Het leren vindt plaats door de gewichten bij te stellen. Elke neuron heeft een aantal ingaande verbindingen van andere neuronen, een aantal uitgaande verbindingen, en een activatie-niveau. Het idee is dat elk neuron een lokale berekening uitvoert, gebruikmakende van zijn inkomende verbindingen. Om een neuraal netwerk te bouwen moet men de architectuur, of topologie van het netwerk instellen. Gewichten worden meestal willekeurig geïnitialiseerd. Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
9 Vergelijking KNN en Biologische NN Biologie: Neuron switch tijd: seconde. Aantal neuronen: Connecties per neuron: Visuele herkenningstijd : 0.1 seconde. 100 inferentie stappen lijkt niet genoeg. Groot aantal parallelle berekeningen. Kunstmatig neuraal netwerk: Veel minder units. Sneller! Gewogen connecties tussen units gewichten. Nadruk op automatisch leren van gewichten. Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
10 Wanneer kunnen neurale netwerken gebruikt worden? Input is hoog-dimensionaal discreet of continu (typisch ruwe sensor input). Output is discreet of continu. Output is een vector van waarden. Mogelijk ruisige data. Een rechtvaardiging of begrip van de gevonden oplossing is onbelangrijk. Voorbeelden: Spraakherkenning. Beeldclassificatie (gezichtsherkenning). Financiële voorspelling. Patroon herkenning (postcodes). Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
11 Voorbeeld: Pommerleau s ALVINN (1993) Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
12 Neuron In een netwerk ziet een individueel neuron er als volgt uit: A j W j,i A i = g(i i ) Input verbindingen Σ I i g A i Output Verbindingen Input functie Activatie functie Output Leren gaat door inkomende gewichten bij te stellen aan de hand van de fout op leervoorbeelden. Voorbeeld. De output van een neuron is 0.9. De gewenste output is 1.0. Verhoog de gewichten die de output van het netwerk doen toenemen. Verlaag de gewichten die de output doen afnemen. Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
13 Het enkelvoudige lineaire perceptron Het meest eenvoudige neurale netwerk is een enkelvoudige lineaire perceptron. Deze bestaat uit enkel een inputlaag en één output. w1 w2 Y w3 X1 X2 X3 Output Unit w4 1 Bias Input Units Het lineaire perceptron wordt gezien als een functie van de inputs X 1,..., X N naar output Y : Y = i w i X i Er wordt een bias-unit gebruikt om alle lineaire functies te kunnen representeren. Deze kan als extra waarde (1) aan de inputvector meegegeven worden. Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
14 Representeren van functies Een lineair perceptron kan bijvoorbeeld de AND functie representeren: Het volgende perceptron doet dit: als de output > 0 dan Y = 1, anders Y = 0. Y 1 X X1 1 Lineair Netwerk X1 X2 1 Bias Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
15 Y = i Rechttoe-rechtaan uitrekenen van optimale gewichten We kunnen ook multivariate lineaire regressie gebruiken om de optimale gewichten voor een lineair perceptron te berekenen. We zetten de voorbeelden in matrices, als volgt. De voorbeelden X 1, X 2, als kolommen in een matrix X = [X 1, X 2, X 3,..., X N ], en de uitkomsten van de voorbeelden in een platte vector Y = [Y 1, Y 2, Y 3,..., Y N ]. Er geldt: w i X i, i.e., Y = W T X. W T X = Y W T XX T = YX T W T = YX T (XX T ) 1 Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
16 Voorbeeld multivariate lineaire regressie Situatie: een lineair perceptron met twee gewichten w 1 en w 2 en altijd x 2 = 1. Leer-voorbeelden: x 1 : 0 y : 1, x 1 : 1 y : 2, en x 1 : 2 y : 3. We willen YX T (XX T ) 1 uitrekenen. XX T = ( ) = ( ( ) (XX T ) 1 1/2 1/2 = 1/2 5/6 1/2 5/6 X T (XX T ) 1 = 0 1/3 1/2 1/6 YX T (XX T ) 1 = ( ) 1/2 5/6 0 1/3 = ( 1 1 ). 1/2 1/6 ) Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
17 Leren met de delta-leerregel De fout is de kleinste-kwadraten som tussen de gewenste uitkomst T en de verkregen uitkomst Y voor een voorbeeld: E = 1 2 (T Y )2. Dus w moet veranderen volgens E w i = E Y Y w i = (T Y )X i. De delta-leerregel w nieuw i = w oud i + α(t Y )X i Leren gaat nu als volgt: Initialiseer gewichten (bv. 0.1 < random < 0.1). Herhaal: (a) Voer een nieuw voorbeeld X 1,..., X N T in. (b) Bereken Y. (b) Pas de delta-leerregel toe. Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
18 Voorbeeld We maken een lineair perceptron met initiële gewichten 0.3 en 0.5 en 0.0 (voor de bias input 1.0). We kiezen een leersnelheid, bv.: α = 0.5 Gegeven leervoorbeeld (0.5, 0.5) 1.0. Nu kunnen we de gewichten aanpassen: Y = = 0.4. Dus T Y = 0.6. w 1 = = 0.45 w 2 = = 0.65 w 3 = = 0.30 : w nieuw i = w oud i + α(t Y )X i Bij een volgende presentatie van hetzelfde leervoorbeeld is de nieuwe uitkomst: Y = = Vraag: Stel hetzelfde leervoorbeeld wordt nogmaals gepresenteerd. Bereken de nieuwe gewichten. Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
19 Voorbeeld (nogmaals met nieuwe gewichten) We maken een lineair perceptron met initiële gewichten 0.45 en 0.65 en 0.30 (voor de bias input 1.0). We kiezen een leersnelheid, bv.: α = 0.5 Gegeven leervoorbeeld (0.5, 0.5) 1.0. Nu kunnen we de gewichten aanpassen: Y = = Dus T Y = w 1 = = 0.49 w 2 = = 0.69 w 3 = = 0.37 : w nieuw i = w oud i + α(t Y )X i Bij een volgende presentatie van hetzelfde leervoorbeeld is de nieuwe uitkomst: Y = = Vraag: Stel hetzelfde leervoorbeeld wordt nogmaals gepresenteerd. Bereken de nieuwe gewichten. Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
20 Foutenlandschap Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
21 Batch vs. stochastic gradient descent Online leren: per leervoorbeeld d is er een fout E d ( w) = 1 2 (T d Y d ) 2. Stel per leervoorbeeld w bij. Maak dus kleine stapjes: w i = α E d( w) w i = α E( w) Y d = α(t d Y d )X d,i. Y d w i Batch leren: probeer de fout E( w) = d D E d( w) in één keer voor alle voorbeelden in de leerverzameling te verminderen: ( ) w i = α E( w) = α E d ( w) w i w i d D = α ( ) E d ( w) = α d Y d )X d,i. w i d D d D(T Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
22 Foutenlandschap Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
23 Foutenlandschap Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
24 Beperkingen van lineaire netwerken Een lineair perceptron kan de X-OR functie niet representeren. De voorbeelden van de X-OR functie zijn niet lineair separeerbaar. Dit voorbeeld uit boek: Perceptrons van Minsky en Papert (1969). Het aanvankelijke enthousiasme voor neurale netwerken verdween. In 1986 werden neurale netwerken herontdekt na het uitvinden van het backpropagation algoritme. Met dit algoritme was het mogelijk niet-lineaire functies te benaderen. Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
25 Voorwaartse propagatie in een niet-lineair netwerk Neem de input vector x, Bereken de gewogen gesommeerde input net j = i w ji x ji. Bereken de activatie: 1 o j = σ(net j ) = 1 + e net j Hierbij is σ de squashing function. Dit is een functie die willekeurige reële waarden weer netjes terugbrengt naar het eenheidsinterval [0, 1]. Netjes betekent hier: injectief, monotoon-stijgend, en continu-differentieerbaar. Er geldt: σ (x) = σ(x)[1 σ(x)]. (Bord!) Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
26 De squashing (ook wel: sigmoid of logistic ) function Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
27 Incrementeel (offline) leren vs. batch (online) leren Update-formule voor backpropagation bij online leren Update na elk voorbeeld elk gewicht volgens wji nieuw Waarbij η de leer- en δ j de correctiefactor is. = w oud ji + ηδ j x ji, Batch. Bekijk de totale fout, dat wil zeggen de fout over alle voorbeelden E( w) = 1 (t k o k ) 2 2 d D k outputs Pas, na alle voorbeelden gezien te hebben, de gewichten w aan. Incrementeel. Bekijk, per voorbeeld, de fout E d ( w) = 1 2 k outputs Pas, per voorbeeld, de gewichten w aan. (t k o k ) 2 Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
28 Afleiding van correctiefactor δ j voor backpropagation Notatie j: knoop j o j : output van j x ji : input nr. i naar j (= o i ) σ: de functie x 1/(1 + e x ) w ji : gewicht nr. i naar j δ j : de correctiefactor van j net j : netto input voor j Downstream(j): de opvolgers van j net j = Σ i w ji x ji o j = σ(net j ) = e net j δ j = Def E d( w) net j Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
29 Hoe w ji aanpassen zo dat fout kleiner wordt? Met elk leervoorbeeld d willen we alle gewichten w ji meteen aanpassen, zodanig dat de fout voor d, geschreven als E d ( w) = 1 2 k outputs (t k o k ) 2, kleiner wordt. Dat kan met Ons doel is dus te bepalen. w nieuw ji = w oud ji ( + η E ) d( w). w ji E d ( w) w ji Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
30 Het bepalen van correctie voor de output-laag Omdat w ji alleen via net j invloed heeft op E d mogen we schrijven E d ( w) = E d( w) net j w ji net j w ji = E d( w) (x j1 w j1 + + x jn w jn ) = E d( w) x ji. net j w ji net j Blijft over te bepalen E d ( w)/ net j. Input net j heeft alleen via o j invloed op E d (immers, j heeft geen opvolgers). We mogen schrijven E d ( w) = E d( w) o j net j o j net j Blijft over te bepalen E d ( w)/ o j. = E d( w) σ(net j ) = E d( w) o j (1 o j ) o j net j o j Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
31 Alles samen nemen geeft w ji Blijft over te bepalen E d ( w)/ o j. E d ( w) = 1 o j o j 2 Samenvattend, voor outputknopen: k outputs (t k o k ) 2 = o j 1 2 (t j o j ) = (t j o j ). E d ( w) = E d( w) net j w ji net j w ji = E d( w) o j x ji o j net j = (t j o j ) o j (1 o j ) x ji. } {{ } correctiefactor δ j Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
32 Het bepalen van correctie voor inwendige knopen Herinner, de correctiefactor staat voor: δ k = Def E d( w) net k. We gaan nu δ j bepalen voor inwendige knopen. Netto input net j heeft alleen via Downstream(j) invloed op E d. We mogen schrijven: δ j = E d( w) net j = = = k Downstream(j) k Downstream(j) = o j (1 o j ) k Downstream(j) δ k net k net j = E d( w) net k net k net j k Downstream(j) δ k net k o j o j net j δ k w kj o j (1 o j ) (immers, o j = x kj ) k Downstream(j) δ k w kj. Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
33 Procedure voor stochastic (= online) backpropagation 1 Creëer een a-cyclisch feed-forward netwerk. De knopen zonder voorgangers noemen we de input-laag, de knopen zonder opvolgers noemen we de output-laag. De rest is verdeeld in tussenlagen. 2 Initialiseer alle netwerk-gewichten w met een klein getal, bv. rand( 0.5, 0.5) 3 Voor elk van de trainingsvoorbeelden d D, doe: 1 Propageer de input voorwaarts. We krijgen een aantal output-waarden o 1,..., o k. 2 Propageer fouten terugwaarts. Bekijk in hoeverre o 1,..., o k afwijken van de doelwaarden t 1,..., t k. Bereken voor elke output knoop k de correctieterm δ k = o k (1 o k )(t k o k ). Bereken voor input- of tussen-knoop j de correctieterm δ j = o j (1 o j ) k Downstream(j) δ kw kj. 3 Update elk gewicht volgens w nieuw ji = w oud ji + ηδ j x ji. Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
34 De voortgang van het leerproces: groei van gewichten Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
35 De voortgang van het leerproces: daling van fouten Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
36 Wat hidden units kunnen representeren Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
37 Leren als zoeken Gradient descent op het foutlandschap werkt als volgt: Problemen: Lokale minima. Als het netwerk in een lokaal minimum komt, kan het niet meer verbeterd worden met gradient descent. Plateaus. Als het foutlandschap ergens heel vlak is, gaat het leren erg langzaam (de gradient is zeer klein). NP-moeilijk. Het leren van een netwerk is inherent moeilijk. Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
38 Meer over backpropagation Gradient descent over gehele netwerk gewichten vector. Makkelijk generaliseerbaar naar willekeurige gerichte grafen. Zal lokaal minimum vinden en niet noodzakelijk globaal minimum. Kan met meerdere restarts toch goed werken. Gebruikt soms een momentum term: w ji = ηδ j x ji + αvorige( w ji ) Minimaliseert fout over alle trainingsvoorbeelden. Maar zal het nieuwe voorbeelden goed classificeren? Pas op met te veel leervoorbeelden overfitting. Pas op met teveel hidden units overfitting. Leren kan duizenden iteraties duren traag! Gebruik van geleerd netwerk gaat snel. Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
39 Recurrente neurale netwerken (RNNs) Geschikt voor problemen waarin voorspelling in de factor tijd een rol speelt. Recurrente netwerken kunnen vorige inputs mee laten tellen in hun voorspelling van de huidige toestand van het systeem. Toepassingen: alle vormen van patroonherkenning in de tijd zoals, spraakherkenning, herkennen van grammatica s, en handschriftherkenning. Voorbeelden van recurrente netwerk-architecturen: Hopfield netwerken (of: auto-associatieve, of: Boltzmann machines, 1982). Time delay neurale netwerken (TDNN, 1989). Jordan netwerken (1989). Elman netwerken (1990). Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
40 Elman netwerk (1990) Elman netwerken koppelen activatie van hidden units terug naar inputs. Dat is handig bij voorspellingen waar tijd belangrijke rol speelt. Leeralgoritme: recurrent backpropagation door de tijd heen: Y(t+1) 1 1 Y(t) Y(t-1) INPUT UNITS CONTEXT UNITS Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
41 Jordan netwerken (1989) Jordan netwerken koppelen activatie van output units terug naar inputs: handig bij voorspellingen waarin tijd en/of de volgorde van beslissingen een rol speelt. 1 INPUT UNITS CONTEXT UNITS Jordan en Elman netwerken werken ongeveer even goed. Ze hebben grote problemen als de gradient door de tijd heen een erg zwak signaal wordt gewichten worden erg langzaam bijgesteld. Leren gaat vaak veel trager dan feedforward netwerken. Alternatieve leermethode: evolutionary computation. Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
42 Time Delay Neurale Networken (TDNN, 1989) TDNN gebruiken inputs van voorgaande tijdstappen voor huidige voorspelling OUTPUT(T) INPUTS(T-m)...INPUTS(T-1) INPUTS(T) Hebben problemen met Markov order: Hoeveel voorgaande inputs moeten meegegeven worden? Kan inputs die langer geleden gezien zijn nooit mee laten tellen in beslissing. Veroorzaakt soms erg groot netwerk Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
43 Hopfield netwerk (1982) Auto-associative Networks (Hopfield netwerk, Boltzmann machine): soort geheugen voor opslaan patronen: goed voor pattern completion. Een Hopfield netwerk bezit typisch ongerichte verbindingen. A1 A6 A5 W A4 A2 A3 Leerregels versterken verbindingen tussen inputs die gelijk aan staan. Als deelpatroon aangeboden wordt, zullen inputs die vaak gelijk met andere inputs voorkomen ook aan komen te staan. De nieuw geactiveerde inputs kunnen weer andere inputs activeren. Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
44 Nadelen van neurale netwerken Het kan veel (experimenteer-) tijd kosten om een geschikte topologie en leerparameters te vinden. (Opl.: zg. cascade correlation.) Sommige knopen doen op den duur niet mee. (Opl.: optimal brain damage.) Convergentie, het bepalen van een stop-criterium. (Opl.: kruis-validatie.) Dreiging van locale minima. (Opl.: herstarten.) Geen voor de hand liggende manier om te kunnen omgaan met ontbrekende waarden. Soms vergeet het netwerk geleerde kennis als het getraind wordt op nieuwe kennis (leer-interferentie). Het is niet zo makkelijk om a-priori kennis in een netwerk te zetten. Leerproces soms erg inefficiënt. (Opl.: snellere computers?.) NEE, want: Het leren van een optimaal neuraal netwerk is, bezien als optimalisatieprobleem, een NP-moeilijk probleem. Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
45 Voordelen van neurale netwerken Bezit, in vergelijking met andere leertechnieken, zoals beslisbomen, versie-ruimten en Bayesiaans leren, een vrij algemene en expressieve hypothese-representatie. Met andere woorden: kunstmatige neurale netwerken zijn geschikt voor veel leer-problemen. ANNs kunnen, mits met voldoende tussenlagen, alle functies benaderen. ANNs zijn robuust met betrekking tot het wegvallen van neuronen (zg. graceful degradation ). ANNs kunnen goed met hoog-dimensionale input-ruimtes omgaan. ANNs kunnen goed met ruis omgaan. ANNs kunnen goed met redundantie omgaan. Gerard Vreeswijk (ICS Dept.) Hfdstk 4: Neurale netwerken 12 Juni / 45
Kunstmatige Intelligentie (AI) Hoofdstuk 18.7 van Russell/Norvig = [RN] Neurale Netwerken (NN s) voorjaar 2016 College 9, 19 april 2016
AI Kunstmatige Intelligentie (AI) Hoofdstuk 18.7 van Russell/Norvig = [RN] Neurale Netwerken (NN s) voorjaar 2016 College 9, 19 april 2016 www.liacs.leidenuniv.nl/ kosterswa/ai/ 1 Hersenen De menselijke
Inhoud. Neuronen. Synapsen. McCulloch-Pitts neuron. Sigmoids. De bouwstenen van het zenuwstelsel: neuronen en synapsen
Tom Heskes IRIS, NIII Inhoud De bouwstenen van het zenuwstelsel: neuronen en synapsen Complex gedrag uit eenvoudige elementen McCulloch-Pitts neuronen Hopfield netwerken Computational neuroscience Lerende
Inleiding Adaptieve Systemen Hoofdstuk 5: Ongesuperviseerd Leren
Inleiding Adaptieve Systemen Hoofdstuk 5: Ongesuperviseerd Leren Cursusjaar 2014-2015 Gerard Vreeswijk β-faculteit, Departement Informatica en Informatiekunde, Leerstoelgroep Intelligente Systemen 17 juni
Inleiding Adaptieve Systemen Hoofdstuk 5: Ongesuperviseerd Leren
Inleiding Adaptieve Systemen Hoofdstuk 5: Ongesuperviseerd Leren Cursusjaar 2017-2018 Gerard Vreeswijk β-faculteit, Departement Informatica en Informatiekunde, Leerstoelgroep Intelligente Systemen 21 maart
Neurale Netwerken en Deep Learning. Tijmen Blankevoort
Neurale Netwerken en Deep Learning Tijmen Blankevoort De toekomst - Internet of Things De toekomst - sluiertipje Je gezondheid wordt continue gemonitored Je dieet wordt voor je afgestemd -> Stroomversnelling
Machinaal leren, neurale netwerken, en deep learning
Machinaal leren, neurale netwerken, en deep learning Prof. dr. Tom Heskes KNAW-symposium Go en machinale intelligentie 11 oktober, 2016 Inhoud Inleiding - Supervised, reinforcement, unsupervised leren
d(w j, x i ) d(w l, x i ) Voorbeeld
Transparanten bij het vak Inleiding Adaptieve Systemen: Unsupervised Leren/ Self organizing networks. M. Wiering Unsupervised Learning en Self Organizing Networks Leerdoelen: Weten wat unsupervised learning
Aantekeningen Ch. 4 Artificial neural networks
Aantekeningen Ch. 4 Artificial neural networks Gerard Vreeswijk Samenvatting Dit zijn aantekeningen gemaakt die ik in 1998 heb gemaakt i.h.k. van een college Machine Learning aan de Universiteit van Groningen.
AI Kaleidoscoop. College 12: Subsymbolische methoden. Twee scholen. Leeswijzer: Performance cliff (2) Performance cliff
AI Kaleidoscoop College 2: Subsymbolische methoden Neurale Netwerken Genetische Algorithmen Leeswijzer:.-.3 + 2. AI2 Twee scholen Physical Symbol systems = formele operaties op symbool-structuren, geïnspireerd
Opdracht 2 Het Multilayer Perceptron
Opdracht 2 Het Multilayer Perceptron Doel: - Inzicht verkrijgen in een neuraal netwerk (het multilayer perceptron). - Begrijpen van het backpropagation algoritme. - Een toepassing van een neuraal netwerk
Kunstmatig Leven & Kunstmatige Neurale Netwerken!
Kunstmatig Leven & Kunstmatige Neurale Netwerken Tim Trussner Inhoudsopgave Inhoudsopgave 1 Voorwoord 4 Introductie 5 Onderzoeksvragen 6 Brein 8 Neuronen 8 Actiepotentialen 9 Hebbian learning 10 Kunstmatige
Tentamen Kunstmatige Intelligentie (INFOB2KI)
Tentamen Kunstmatige Intelligentie (INFOB2KI) 30 januari 2014 10:30-12:30 Vooraf Mobiele telefoons dienen uitgeschakeld te zijn. Het tentamen bestaat uit 7 opgaven; in totaal kunnen er 100 punten behaald
X1 X2 T c i = (d y)x i. c i,nieuw = c i,oud + (d y) x i. w nieuw. = w oud
Tent. IAS ma 22-6-2009, tijd: 13.15-16.15 uur, zaal: EDUC-α, deeltent. 2 van 2 Versie C 1 Welkom. Dit tentamen duurt 3 uur en telt 20 vragen: 4 open vragen en 16 meerkeuzevragen. Wel: rekenmachine. Niet:
Transparanten bij het vak Inleiding Adaptieve Systemen: Introductie Machine Leren. M. Wiering
Transparanten bij het vak Inleiding Adaptieve Systemen: Introductie Machine Leren. M. Wiering Lerende Machines Verbeter in taak T, Voorbeeld: je ziet de karakteristieken (Features) van een aantal dieren
Hopfield-Netwerken, Neurale Datastructuren en het Nine Flies Probleem
Hopfield-Netwerken, Neurale Datastructuren en het Nine Flies Probleem Giso Dal (0752975) 13 april 2010 Samenvatting In [Kea93] worden twee neuraal netwerk programmeerprojecten beschreven, bedoeld om studenten
Oude tentamens Kunstmatige intelligentie Universiteit Leiden Informatica 2005
Oude tentamens Kunstmatige intelligentie Universiteit Leiden Informatica 2005 Opgave 1. A* (20/100 punten; tentamen 1 juni 2001) a. (5 punten) Leg het A*-algoritme uit. b. (2 punten) Wanneer heet een heuristiek
AI introductie voor testers
AI introductie voor testers De basis van deep learning TestNet werkgroep Testen met AI Martin van Helden Sander Mol Introductie Artificial Intelligence (AI) is anders dan traditioneel programmeren. Traditioneel
Tentamen Data Mining
Tentamen Data Mining Algemene Opmerkingen Dit is geen open boek tentamen, noch mogen er aantekeningen gebruikt worden. Laat bij het uitvoeren van berekeningen zien hoe je aan een antwoord gekomen bent.
3. Structuren in de taal
3. Structuren in de taal In dit hoofdstuk behandelen we de belangrijkst econtrolestructuren die in de algoritmiek gebruikt worden. Dit zijn o.a. de opeenvolging, selectie en lussen (herhaling). Vóór we
INLEIDING. Definitie Stochastisch Proces:
Definitie Stochastisch Proces: INLEIDING Verzameling van stochastische variabelen die het gedrag in de tijd beschrijven van een systeem dat onderhevig is aan toeval. Tijdparameter: discreet: {X n, n 0};
We zullen in deze les kijken hoe we netwerken kunnen analyseren, om bijvoorbeeld de volgende vragen te kunnen beantwoorden:
Wiskunde voor kunstmatige intelligentie, 24 Les 5 Proces analyse Veel processen laten zich door netwerken beschrijven, waarin een aantal knopen acties aangeeft en opdrachten langs verbindingen tussen de
Denken kun je Leren!
Denken kun je Leren! Bekijk de twee vragen hieronder. Op welke manier verschillen deze twee vragen van elkaar? (Bedenk het antwoord voor jezelf draai je naar degene waar je het dichtste bij zit bespreek
Eerst even een testje
Frans Bleumer Frans Bleumer Eerst even een testje Een krant is beter dan een weekblad. Het strand is beter dan de straat. In het begin kun je beter rennen dan wandelen. Je zult het vaker moeten proberen.
BSc Kunstmatige Intelligentie. : Bachelor Kunstmatige Intelligentie Studiejaar, Semester, Periode : semester 1, periode 2
Studiewijzer BACHELOR KUNSTMATIGE INTELLIGENTIE Vak : Opleiding : Bachelor Kunstmatige Intelligentie Studiejaar, Semester, Periode : 2015-2016 semester 1, periode 2 Coördinator(en) : dr. Maarten van Someren
Technische Universiteit Delft. ANTWOORDEN van Tentamen Gewone differentiaalvergelijkingen, TW2030 Vrijdag 30 januari 2015,
Technische Universiteit Delft Faculteit EWI ANTWOORDEN van Tentamen Gewone differentiaalvergelijkingen, TW23 Vrijdag 3 januari 25, 4.-7. Dit tentamen bestaat uit 6 opgaven. Alle antwoorden dienen beargumenteerd
Examenvragen Hogere Wiskunde I
1 Examenvragen Hogere Wiskunde I Vraag 1. Zij a R willekeurig. Gegeven is dat voor alle r, s Q geldt dat a r+s = a r a s. Bewijs dat voor alle x, y R geldt dat a x+y = a x a y. Vraag 2. Gegeven 2 functies
Onafhankelijke verzamelingen en Gewogen Oplossingen, door Donald E. Knuth, The Art of Computer Programming, Volume 4, Combinatorial Algorithms
Onafhankelijke verzamelingen en Gewogen Oplossingen, door Donald E. Knuth, The Art of Computer Programming, Volume 4, Combinatorial Algorithms Giso Dal (0752975) Pagina s 5 7 1 Deelverzameling Representatie
Bekijk nog een keer het stelsel van twee vergelijkingen met twee onbekenden x en y: { De tweede vergelijking van de eerste aftrekken geeft:
Determinanten Invoeren van het begrip determinant Bekijk nog een keer het stelsel van twee vergelijkingen met twee onbekenden x en y: { a x + b y = c a 2 a 2 x + b 2 y = c 2 a Dit levert op: { a a 2 x
Meerkeuze antwoorden. Naam:... Collegekaart-nummer:...
Tentamen IAS, deeltentamen 2 van 2. Datum: wo 3-4-2019 13.30-15.30 uur. Zaal: EDUC-GAMMA. 1 Naam:............................................................... Collegekaart-nummer:.....................
Parking Surveillance. foreground/background segmentation - objectherkenning. Examen Beeldverwerking Pieter Vancoillie
Parking Surveillance foreground/background segmentation - objectherkenning Examen Beeldverwerking Pieter Vancoillie Doel van het (deel)project Uit beelden van een camera voetgangers, fietsers en auto s
8. Complexiteit van algoritmen:
8. Complexiteit van algoritmen: Voorbeeld: Een gevaarlijk spel 1 Spelboom voor het wespenspel 2 8.1 Complexiteit 4 8.2 NP-problemen 6 8.3 De oplossing 7 8.4 Een vuistregel 8 In dit hoofdstuk wordt het
Cursus Statistiek Hoofdstuk 4. Statistiek voor Informatica Hoofdstuk 4: Verwachtingen. Definitie (Verwachting van discrete stochast) Voorbeeld (1)
Cursus Statistiek Hoofdstuk 4 Statistiek voor Informatica Hoofdstuk 4: Verwachtingen Cursusjaar 29 Peter de Waal Departement Informatica Inhoud Verwachtingen Variantie Momenten en Momentengenererende functie
Deel 2 van Wiskunde 2
Deel 2 van Wiskunde 2 Organisatorische informatie Wat Dag Tijd Zaal Docent College Tue 5+6 Aud 6+15 Jacques Resing Thu 1+2 Aud 1+4 Jacques Resing Werkcollege Tue 7+8 Aud 6+15 Jacques Resing Instructie
Modeluitwerking Tentamen Computationele Intelligentie Universiteit Leiden Informatica Vrijdag 11 Januari 2013
Modeluitwerking Tentamen Computationele Intelligentie Universiteit Leiden Informatica Vrijdag Januari 20 Opgave. Python Gegeven is de volgende (slechte) Python code:. def t(x): 2. def p(y):. return x*y
Derde serie opdrachten systeemtheorie
Derde serie opdrachten systeemtheorie Opdracht 1. We bekijken een helicopter die ongeveer stilhangt in de lucht. Bij benadering kan zo n helicopter beschreven worden door het volgende stelsel vergelijkingen
Rekenen met verhoudingen
Rekenen met verhoudingen Groep 6, 7 Achtergrond Leerlingen moeten niet alleen met de verhoudingstabel kunnen werken wanneer die al klaar staat in het rekenboek, ze moeten ook zelf een verhoudingstabel
Taxanomie van Bloom en de kunst van het vragen stellen. Anouk Mulder verschil in talent
Onthouden Kunnen ophalen van specifieke informatie, variërend van feiten tot complete theorieën Opslaan en ophalen van informatie (herkennen) Kennis van data, gebeurtenissen, plaatsen Kennis van belangrijkste
Inleiding Adaptieve Systemen Hoofdstuk X: Reinforcement leren
Inleiding Adaptieve Systemen Hoofdstuk X: Reinforcement leren Cursusjaar 2012-2013 Gerard Vreeswijk β-faculteit, Departement Informatica en Informatiekunde, Leerstoelgroep Intelligente Systemen 21 juni
Oriëntatie Kunstmatige Intelligentie. Inleidend College Niels Taatgen
Oriëntatie Kunstmatige Intelligentie Inleidend College Niels Taatgen Inhoud vandaag! Wat is kunstmatige intelligentie?! Vakgebieden die bijdragen aan de AI! Kunnen computers denken?! Hoe denken mensen
en-splitsingen: een aantal alternatieven worden parallel toegepast, of-splitsingen: van een aantal alternatieven wordt er één toegepast,
Kansrekening voor Informatiekunde, 25 Les 8 Proces analyse Veel processen laten zich door netwerken beschrijven, waarin knopen acties aangeven en opdrachten langs verbindingen tussen de knopen verwerkt
Reducing catastrophic interference
Reducing catastrophic interference in FeedForward BackPropagation networks Stan Klabbers & Anne Doggenaar 0100714 0164453 Bachelor project Kunstmatige Intelligentie Universtiteit van Amsterdam Begeleider:
Hoe AI kan ingezet worden voor de analyse van asbesthoudende daken
Hoe AI kan ingezet worden voor de analyse van asbesthoudende daken Earth Observation Data Sciences www.vlaanderen.be/informatievlaanderen www.vito.be Workshop: Asbestinventarisatie en analyse Weerslag
start -> id (k (f c s) (g s c)) -> k (f c s) (g s c) -> f c s -> s c
Een Minimaal Formalisme om te Programmeren We hebben gezien dat Turing machines beschouwd kunnen worden als universele computers. D.w.z. dat iedere berekening met natuurlijke getallen die met een computer
P (X n+1 = j X n = i, X n 1,..., X 0 ) = P (X n+1 = j X n = i). P (X n+1 = j X n = i) MARKOV KETENS. Definitie van Markov keten:
Definitie van Markov keten: MARKOV KETENS Een stochastisch proces {X n, n 0} met toestandsruimte S heet een discrete-tijd Markov keten (DTMC) als voor alle i en j in S geldt P (X n+1 = j X n = i, X n 1,...,
Gaap, ja, nog een keer. In één variabele hebben we deze formule nu al een paar keer gezien:
Van de opgaven met een letter en dus zonder nummer staat het antwoord achterin. De vragen met een nummer behoren tot het huiswerk. Spieken achterin helpt je niets in het beter snappen... 1 Stelling van
Tentamen Kunstmatige Intelligentie
Naam: Studentnr: Tentamen Kunstmatige Intelligentie Department of Information and Computing Sciences Opleiding Informatica Universiteit Utrecht Donderdag 2 februari 2012 08.30 10:30, EDUCA-ALFA Vooraf
Workshop voorbereiden Authentieke instructiemodel
Workshop voorbereiden Authentieke instructiemodel Workshop voorbereiden Uitleg Start De workshop start met een echte, herkenbare en uitdagende situatie. (v.b. het is een probleem, een prestatie, het heeft
Netwerkstroming. Algoritmiek
Netwerkstroming Vandaag Netwerkstroming: definitie en toepassing Het rest-netwerk Verbeterende paden Ford-Fulkerson algoritme Minimum Snede Maximum Stroming Stelling Variant: Edmonds-Karp Toepassing: koppelingen
De Taxonomie van Bloom Toelichting
De Taxonomie van Bloom Toelichting Een van de meest gebruikte manier om verschillende kennisniveaus in te delen, is op basis van de taxonomie van Bloom. Deze is tussen 1948 en 1956 ontwikkeld door de onderwijspsycholoog
Cover Page. The handle http://hdl.handle.net/1887/20358 holds various files of this Leiden University dissertation.
Cover Page The handle http://hdl.handle.net/1887/20358 holds various files of this Leiden University dissertation. Author: Witsenburg, Tijn Title: Hybrid similarities : a method to insert relational information
3.2 Vectoren and matrices
we c = 6 c 2 = 62966 c 3 = 32447966 c 4 = 72966 c 5 = 2632833 c 6 = 4947966 Sectie 32 VECTOREN AND MATRICES Maar het is a priori helemaal niet zeker dat het stelsel vergelijkingen dat opgelost moet worden,
Universiteit Utrecht Faculteit Wiskunde en Informatica. Examen Optimalisering op maandag 18 april 2005, uur.
Universiteit Utrecht Faculteit Wiskunde en Informatica Examen Optimalisering op maandag 18 april 2005, 9.00-12.00 uur. De opgaven dienen duidelijk uitgewerkt te zijn en netjes ingeleverd te worden. Schrijf
Lineaire vergelijkingen II: Pivotering
1/25 Lineaire vergelijkingen II: Pivotering VU Numeriek Programmeren 2.5 Charles Bos Vrije Universiteit Amsterdam [email protected], 1A40 15 april 2013 2/25 Overzicht Pivotering: Methodes Norm en conditionering
Opgaven bij het vormen van ruimte: van Poincaré tot Perelman
Opgaven bij het vormen van ruimte: van Poincaré tot Perelman Roland van der Veen Inleiding Deze reeks opgaven is bedoeld voor de werkcolleges van de vakantiecursus Wiskunde in Wording, Augustus 2013. 1
Van krabbels naar getallen
Van krabbels naar getallen Classificatie van handgeschreven cijfers middels een kunstmatig neuraal netwerk Wouter van Dijk Joris Veldhuizen Begeleider: Peter Albersen Inhoudsopgave Voorwoord... 2 Inleiding...
9. Strategieën en oplossingsmethoden
9. Strategieën en oplossingsmethoden In dit hoofdstuk wordt nog even terug gekeken naar alle voorgaande hoofdstukken. We herhalen globaal de structuren en geven enkele richtlijnen voor het ontwerpen van
Laag Vaardigheden Leerdoelen Formulering van vragen /opdrachten
Blooms taxonomie Laag Vaardigheden Leerdoelen Formulering van vragen /opdrachten Evalueren Evalueren = de vaardigheid om de waarde van iets (literatuur, onderzoeksrapport, presentatie etc) te kunnen beoordelen
Oefenopgaven wi3097: Numerieke methoden voor differentiaalvergelijkingen
Oefenopgaven wi3097: Numerieke methoden voor differentiaalvergelijkingen 1 Introductie Taylor polynoom, floating point getal, afrondfout Orde symbool Landau 1. Laat f(x) = x 3. Bepaal het tweede orde Taylor
Rijke Lessen. zetten je aan het denken. Handleiding(etje) Minka Dumont 26 november 2009 SLO - Landelijke Plusklasnetwerkdag
Rijke Lessen zetten je aan het denken Minka Dumont 2009 www.lesmateriaalvoorhoogbegaafden.com Handleiding(etje) Minka Dumont 26 november 2009 SLO - Landelijke Plusklasnetwerkdag Onthouden Kunnen ophalen
TW2020 Optimalisering
TW2020 Optimalisering Hoorcollege 7 Leo van Iersel Technische Universiteit Delft 26 oktober 2016 Leo van Iersel (TUD) TW2020 Optimalisering 26 oktober 2016 1 / 28 Deze week: analyseren van algoritmes Hoe
Leerstofoverzicht Lezen in beeld
Vaardigheden die bij één passen, worden in Lezen in beeld steeds bij elkaar, in één blok aangeboden. Voor Lezen in beeld a geldt het linker. Voor Lezen in beeld b t/m e geldt het rechter. In jaargroep
De dimensie van een deelruimte
De dimensie van een deelruimte Een deelruimte van R n is een deelverzameling die op zichzelf ook een vectorruimte is. Ter herinnering : Definitie. Een deelverzameling H van R n heet een deelruimte van
1. De Nernst potentiaal vertegenwoordigt een evenwichtssituatie in de zenuwcel. Welk statement beschrijft deze situatie het beste? 1: De elektrische en de diffusiekrachten houden elkaar precies in evenwicht.
1 Complexiteit. of benadering en snel
1 Complexiteit Het college van vandaag gaat over complexiteit van algoritmes. In het boek hoort hier hoofdstuk 8.1-8.5 bij. Bij complexiteitstheorie is de belangrijkste kernvraag: Hoe goed is een algoritme?
Vergelijkingen met breuken
Vergelijkingen met breuken WISNET-HBO update juli 2013 De bedoeling van deze les is het doorwerken van begin tot einde met behulp van pen en papier. 1 Oplossen van gebroken vergelijkingen Kijk ook nog
Nederlandse samenvatting GABAerge neurotransmissie in de prefrontale cortex
Nederlandse samenvatting GABAerge neurotransmissie in de prefrontale cortex De prefrontale cortex (PFC) is een hersengebied betrokken bij cognitieve functies als planning, attentie en het maken van beslissingen.
Verantwoorde AI, verantwoorde zorg. Frauke Wouda 20 juni 2019
Verantwoorde AI, verantwoorde zorg Frauke Wouda 20 juni 2019 Agenda AI wereldwijd Historie Wat is AI? Praktijkvoorbeelden Wat gaat AI in de zorg veranderen? Nieuwe vraagstukken Wel Niet Setting the scene
Stroomschema s maken in Word
1 Stroomschema s maken in Word Een programma direct maken in Scratch gaat vaak wel goed als het een klein programma is. Als het programma groter en moeilijker is, is het lastig om goed te zien welk commando
BBL-4, topklinisch traject RdGG Pagina 1 van 7 Persoonlijke ontwikkeling Studievaardigheden
BBL-4, topklinisch traject RdGG Pagina 1 van 7 Inleiding en leerdoelen Leren en studeren is een belangrijk onderdeel in je opleiding tot verpleegkundige. Om beter te leren studeren is het belangrijk niet
Ter Leering ende Vermaeck
Ter Leering ende Vermaeck 15 december 2011 1 Caleidoscoop 1. Geef een relatie op Z die niet reflexief of symmetrisch is, maar wel transitief. 2. Geef een relatie op Z die niet symmetrisch is, maar wel
