Inleiding Adaptieve Systemen Hoofdstuk 5: Ongesuperviseerd Leren

Maat: px
Weergave met pagina beginnen:

Download "Inleiding Adaptieve Systemen Hoofdstuk 5: Ongesuperviseerd Leren"

Transcriptie

1 Inleiding Adaptieve Systemen Hoofdstuk 5: Ongesuperviseerd Leren Cursusjaar Gerard Vreeswijk β-faculteit, Departement Informatica en Informatiekunde, Leerstoelgroep Intelligente Systemen 17 juni 2015 Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

2 Ongesuperviseerd leren en zelf-organiserende netwerken Leerdoelen: Weten wat ongesuperviseerd leren is. Tenminste twee categorieën ( technieken) van ongesuperviseerd leren kunnen noemen. De volgende clustering technieken kunnen uitleggen en er mee kunnen rekenen: K-means clustering. Competitief leren, zowel ruimtelijk als in de vorm van een neuraal netwerk. Vector-kwantisatie. Kohonen netwerken. Het verschil tussen batch vs. online leren (i.h.b. batch vs. online clustering) kunnen aangeven. Enkele toepassingen kunnen noemen. Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

3 Ongesuperviseerd leren Met ongesuperviseerd leren ontvangen we data-punten (voorbeelden, instanties) zonder classificatie. Er is geen waardering of fout in voorbeelden. De geleerde informatie moet dus volledig uit de invoerpatronen gehaald worden. Twee categorieën van ongesuperviseerd leren: Clustering: Clustering: groepeer de data in clusters. Vector kwantisatie: verdeel een continue inputruimte in stukjes. Inbedding: map data als zijnde ruimte met dimensie N, in een ruimte met dimensie N + 1. Inductief leren: Leren van als-dan regels waarbij de conclusie van de als-dan regel onbepaald is. Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

4 Clustering Data clustering is een belangrijke vorm van ongesuperviseerd leren. Data clustering is een familie van machine-learning technieken die er op gericht is overeenkomsten in data te vinden. Mogelijke toepassingen: het vinden van groepen van Hoe? Mensen (sociologie, antropologie). Producten (marketing). Muziekgenres (marketing, vrije tijd). Start met individuen als groep. Verenig twee groepen als ze voldoende overeenkomst hebben. Doe dit recursief. Hiërarchisch clusteren. Start met een vast aantal individuen als representanten. Vorm groepen rond representanten. Itereer. Partitioneel clusteren. Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

5 Deel I: K-means clustering Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

6 K-means clustering Data: vectoren in R n. Clusterpunten ook in R n. Het algoritme begint met K prototype vectoren w 1,..., w K welke clusters (C 1,..., C K ) representeren. Herhaal tot clusters niet meer veranderen: Bereken welke voorbeelden x 1,..., x n in elk van de clusters vallen. Een instantie x i valt in een cluster C j als w j de cluster-vector is met de kleinste afstand tot het voorbeeld: d(w j, x i ) d(w l, x i ) Voor alle l j Met d(x, y) = i (x i y i ) 2 de afstand tussen x en y. Beweeg cluster-vectoren naar het centrum van de input voorbeelden in het cluster. Dus doe voor alle w j : w j := zwaartepunt van( C j ). Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

7 Voorbeeld K-means clustering We hebben vier voorbeelden: (1,2) (1,4) (2,3) (3,5) We initialiseren 2 prototype vectoren w 1 = (1, 1) en w 2 = (3, 3) We zien dat de voorbeelden in de volgende clusters vallen: (1,2) Cluster(w 1 ) (1,4) Cluster(w 2 ) (2,3) Cluster(w 2 ) (3,5) Cluster(w 2 ) Nu berekenen we de nieuwe cluster-centra en krijgen: w 1 = (1, 2) en w 2 = (2, 4). Hierna vallen alle voorbeelden weer in dezelfde clusters dus zijn we klaar. Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

8 Batch en online leren K-means clustering is een vorm van batch leren. Alle data moet aan het begin beschikbaar zijn wordt simultaan verwerkt. Competitief clusteren en vector-kwantisatie zijn vormen van online leren. Online vormen van partitioneel clusteren: Competitief met Euclidische afstand. Competitief met genormaliseerde gewichten en inproduct als afstand. Vector-kwantisatie met gesuperviseerd kwantitatief leren. Vector-kwantisatie met gesuperviseerd kwalitatief leren. Kohonenen netwerken (SOMs). Kohonenen netwerken (SOMs) met gesuperviseerd kwantitatief leren. Kohonenen netwerken (SOMs) met gesuperviseerd kwalitatief leren. Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

9 Deel II: Competitief leren Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

10 Competitief leren Competitief leren is de online pendant van batch K-means clustering. Gebruik en training lopen door elkaar. Gebruik: classificatie van datapunt is dichtstbijzijnde clusterpunt. output o input i Training: het dichtstbijzijnde clusterpunt wordt iets naar het trainingsvoorbeeld geschoven. wio Dit proces kan worden gemodelleerd als een 2-laags netwerk. Aantal input-knopen: de dimensie van de input ruimte. Aantal output-knopen: het aantal cluster-centra. Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

11 Leerproces competitief netwerk (1) Elke output unit o berekent zijn activatie y o door het inwendig produkt y o = w o x = i w io x i (2) Vervolgens wordt de output neuron k met maximale activatie gekozen: o k : y o y k Dit heet de winnaar. Activaties worden gediscretiseerd zodat y k = 1 en y o k = 0. (3) Tenslotte worden de gewichten van het winnende neuron k veranderd door de volgende leerregel: w k (t + 1) = w k(t) + γ(x(t) w k (t)) w k (t) + γ(x(t) w k (t)) Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

12 Werking van competitief leren Vectoren worden genormaliseerd (teruggebracht naar lengte 1). Hierdoor kunnen afstanden tussen cluster- en inputvectoren makkelijk worden berekend met het inwendig product. Immers, w x = w x cos(θ) = 1 1 cos(θ). Voor elk voorbeeld wordt de dichtsbijzijnde clustervector naar dat voorbeeld toegedraaid. Dus gaan gewichten vectoren wijzen naar gebieden waar veel inputs verschijnen. w 1 w 2 w w1 w1 x w 2 x w 2 Winnaar = 1 Winnaar = 1 3 Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

13 Selecteren van de winnaar met de Euclidische afstand Als inputs en gewichten vectoren niet genormaliseerd zijn, kunnen we de Euclidische afstand nemen om de winnaar te bepalen: Winnaar k : w k x w o x o. De gewichten update-regel schuift de gewichtenvector (cluster-centrum) van het winnende neuron naar het inputpatroon x p : w k (t + 1) = w k (t) + γ(x p w k (t)) Beweging van cluster-centrum hangt ook af van de volgorde waarin de data binnenkomt. Er kan worden aangetoond dat, als de vectoren genormaliseerd zijn, het gebruik van de Euclidische afstand dezelfde winnaar teruggeeft als het gebruik van het inwendig produkt. Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

14 Competitief Leren (niet genormaliseerd) Er zijn K clusterpunten (neuronen) w i, 1 i K. Eerst berekenen we voor elk clusterpunt de Euclidische afstand naar een voorbeeld met: d(w i, x p ) = (wj i x p j )2 De winnende neuron k heeft de minimale d(w k, x p ) Vervolgens verschuiven we de winnende neuron k naar voorbeeld x p : j w k i = w k i + γ(x p i w k i ) Voorbeeld: We hebben K = 2 neuronen met geïnitialiseerde waarden: w 1 = (1, 1) en w 2 = (3, 2). Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

15 Competitief Leren (niet genormaliseerd) Twee neuronen w 1 = (1, 1) en w 2 = (3, 2). Vier leervoorbeelden komen één voor één binnen: x 1 = (1, 2), x 2 = (2, 5), x 3 = (3, 4), x 4 = (2, 3). We zetten de leersnelheid γ = 0.5. Dan: x 1 = (1, 2) d(w 1, x 1 ) = 1, d(w 2, x 1 ) = 2. Winnaar w 1 = (1, 1). Toepassen van de update vergelijking geeft: w 1 = (1, 1) + 0.5((1, 2) (1, 1)) = (1, 1.5). x 2 = (2, 5) d(w 1, x 2 ) = 13.25, d(w 2, x 2 ) = 10. Winnaar w 2 = (3, 2). Toepassen van de update vergelijking geeft: w 2 = (3, 2) + 0.5((2, 5) (3, 2)) = (2.5, 3.5). x 3 = (3, 4) d(w 1, x 3 ) = 10.25, d(w 2, x 3 ) = 0.5. Winnaar w 2 = (2.5, 3.5). Toepassen van de update vergelijking geeft: w 2 = (2.5, 3.5) + 0.5((3, 4) (2.5, 3.5)) = (2.75, 3.75). Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

16 Initialisatie Een probleem van de recursieve clustering methodes is de initialisatie: Het kan gebeuren dat een neuron nooit winnaar wordt en dus niet leert. Er zijn (tenminste) twee oplossingen: Initialiseer een neuron op een inputpatroon Gebruik zg. leaky learning : Elk neuron leert op elk voorbeeld. De winnaar wk leert met met leersnelheid γ. w k (t + 1) = w k (t) + γ(x w k (t)) De verliezers w l, l k leren ook, maar dan met een kleinere leersnelheid γ << γ: w l (t + 1) = w l (t) + γ (x w l (t)) Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

17 Correctheid van competitive clustering Competitive clustering vaart bij de gedachte dat overeenkomsten tussen inputs in dezelfde cluster veel groter zijn dan inputs in andere clusters. De mate van overeenkomst wordt uitgedrukt in termen van Euclidische afstand. Een gebruikelijke maat om de kwaliteit van een clustering te berekenen is gegeven door de volgend kwadratische-fout kostenfunctie: E = 1 w k x p 2 2 Hier is k weer de winnende neuron voor inputpatroon x p. p Er kan aangetoond worden dat competitief leren het minimum van de kostenfunctie zoekt door de negatieve afgeleide te volgen. Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

18 Minimalisering van de fout-functie Stelling. De foutfunctie voor patroon x p : E p = 1 (w ik x p i ) 2 2 waar k een winnend neuron is, wordt geminimaliseerd door de gewichten-update regel. Bewijs. De partiële afgeleide van E p is gelijk aan i E p = w io w io x p i als o = k, = 0 anders. Om de fout t.o.v. x p te verlagen moeten we w k dus verschuiven in de richting van de negatieve afgeleide, en dat is (w k x p ). Dit is precies wat de update-formule doet: w k (t + 1) = w k (t) + γ(x p w k (t)). Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

19 Deel III: Vector-kwantisatie Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

20 Vector-kwantisatie Een andere belangrijke toepassing van competitief leren is vector-kwantisatie. Vector-kwantisatie verdeelt de input-ruimte in een aantal verschillende deel-ruimtes. Het verschil met clustering is dat we nu niet zo zeer geïnteresseerd zijn in clusters van gelijke data, als wel in het partitioneren (opdelen) van de hele input-ruimte, bijvoorbeeld ten behoeve van functie-approximatie op deelgebieden van de input. De kwantisatie die geleerd wordt door competitief leren respecteert de verdeling van inputs: meer inputs in een regio leidt tot een grotere clusterdichtheid. Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

21 Combinatie met gesuperviseerd leren Vector-kwantisatie kan gebruikt worden als pre-processing stadium voor een gesuperviseerd lerend systeem. Een voorbeeld is het volgende netwerk dat vector-kwantisatie in de eerste laag combineert met gesuperviseerd leren in de 2e laag: Vector Quantisatie i wih h Feed Forward who o Y We kunnen eerst de vector-kwantisatie uitvoeren en dan de gesuperviseerde leerstap maken, of we kunnen beide lagen tegelijk aanpassen. Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

22 Leeralgoritme gesuperviseerde vector-kwantisatie Presenteer het netwerk met input x en doelwaarde d = f (x). Voer de ongesuperviseerde kwantisatie stap uit. Bereken de afstand van x naar elke gewichten vector en bepaal de winnaar k. Stel de gewichtenvector bij met de ongesuperviseerde leerregel. Voer de gesuperviseerde leerstap uit: w ko (t + 1) = w ko (t) + γ(d w ko (t)) (Dit is de delta-regel voor de ouptut-laag met y o = w ko waar k de winnende neuron is.) Elk gewicht van hidden unit h naar output unit o convergeert naar het gemiddelde van de doelwaarde voor alle keren dat de neuron wint. Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

23 Gesuperviseerde vector-kwantisatie Het winnende neuron verschuift volgens dezelfde update regel als bij vector-kwantisatie, maar bovendien wordt er een output y k voor de winnende neuron w k na het leervoorbeeld bijgesteld met: y k = y k + α(d p y k ) Stel nu weer 2 clusterpunten : Clusterpunt 1: w 1 = (1, 1) met y 1 = 0. Clusterpunt 2: w 2 = (3, 2) met y 2 = 0. We krijgen de volgende leervoorbeelden één voor één binnen: (x 1 D 1 ) = (1, 2 3) (x 2 D 2 ) = (2, 5 7) (x 3 D 3 ) = (3, 4 7) (x 4 D 4 ) = (2, 3 5) Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

24 Gesuperviseerde vector-kwantisatie (voorbeeld) Stel we zetten de leersnelheid γ = 0.5 en α = 0.5. Eerste voorbeeld: x 1 = (1, 2) d(w 1, x 1 ) = 1, d(w 2, x 1 ) = 2. Dus winnaar is w 1 = (1, 1). Toepassen van de update vergelijking geeft w 1 = (1, 1) + 0.5((1, 2) (1, 1)) = (1, 1.5). Dit is precies als hiervoor. Het enige verschil is dat we nu ook de output van de winnende neuron moeten bijstellen: y 1 = (3 0) = 1.5 We laten nu enkel zien hoe de output waarden van de neuronen veranderen, de gewichtenvectoren w i veranderen net als hiervoor. x 2 = (2, 5). Winnaar is neuron 2. y 2 = (7 0) = 3.5. x 3 = (3, 4). Winnaar is neuron 2. y 2 = (7 3.5) = Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

25 Vector-kwantisatie met gesuperviseerd leren op kwalitatieve voorbeelden Idee: leer beslis-grenzen aan de hand van kwalitatieve voorbeelden (bv. labels A, B,... ), zodat elk voorbeeld in een regio valt met het juiste klasse-label. Algoritme: Associeer met elke output-neuron (cluster-centrum) o een klasse label y o Presenteer een leervoorbeeld (x p, d p ) Gebruik een afstandsmaat tussen gewichtenvectoren en inputvector x p om de winnende neuron k 1 en de op één na beste neuron k 2 te vinden. x p w k1 < x p w k2 < x p w i i k 1, k 2. De labels y k1 en y k2 worden vergeleken met d p, waaruit een gewichtenverandering wordt bepaald. Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

26 Update-voorbeeld met kwalitatieve gesuperviseerde VQ Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

27 Update-voorbeeld met kwalitatieve gesuperviseerde VQ Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

28 Update-voorbeeld met kwalitatieve gesuperviseerde VQ Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

29 Update-voorbeeld met kwalitatieve gesuperviseerde VQ Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

30 Update-voorbeeld met kwalitatieve gesuperviseerde VQ Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

31 Update-voorbeeld met kwalitatieve gesuperviseerde VQ Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

32 Update-voorbeeld met kwalitatieve gesuperviseerde VQ Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

33 Update-voorbeeld met kwalitatieve gesuperviseerde VQ Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

34 Update-voorbeeld met kwalitatieve gesuperviseerde VQ Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

35 Update-voorbeeld met kwalitatieve gesuperviseerde VQ Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

36 Update-voorbeeld met kwalitatieve gesuperviseerde VQ Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

37 Update-voorbeeld met kwalitatieve gesuperviseerde VQ Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

38 Update-voorbeeld met kwalitatieve gesuperviseerde VQ Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

39 Update regels Als y k1 = d p : Voer de gewichten update regel voor k 1 uit: w k1 (t +1) = w k1 (t)+γ(x p w k1 (t)) A B C D A Anders, als y k1 d p en y k2 = d p : Voer de gewichten update regel voor k 2 uit: w k2 (t + 1) = w k2 (t) + γ(x p w k2 (t)) en beweeg de winnende neuron van het voorbeeld af: w k1 (t + 1) = w k1 (t) γ(x p w k1 (t)) Anders: doe niets. (Anders bewegen cluster-centra te veel door noise.) Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

40 LVQ: voorbeeld Stel, we beginnen met de clusterpunten: w 1 = (1, 1) en label y 1 = A. w 2 = (3, 2) en label y 2 = B. Stel, we krijgen de volgende leervoorbeelden één voor één binnen: (x 1 D 1 ) = (1, 2 A) (x 2 D 2 ) = (2, 5 B) (x 3 D 3 ) = (3, 4 A) (x 4 D 4 ) = (2, 3 B) We hebben nu K = 2 clusterpunten (neuronen) met een gelabelde output. We berekenen de dichtstbijzijnde neuron w k1 en de op één na dichtstbijzijnde neuron w k2. (1, 2 A), winnaar is Cluster 1. Eén na beste is Cluster 2. Het label van Cluster 1 is ook A. Dus: Cluster 1 verschuift naar het voorbeeld: w 1 = (1, 1) + 0.5((1, 2) (1, 1)) = (1, 1.5). (2, 5 B), winnaar is Cluster 2. Eén na beste is Cluster 1. Het label van Cluster 2 is ook B, dus Cluster 2 verschuift naar het voorbeeld: w 2 = (3, 2) + 0.5((2, 5) (3, 2)) = (2.5, 3.5). Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

41 LVQ: voorbeeld (Vervolg) Op dit moment is Cluster 1 gelijk aan w 1 = (1, 5.5) en Cluster 2 gelijk aan w 2 = (2.5, 3.5). Het derde voorbeeld komt binnen: (x 3 D 3 ) = (3, 4 A), winnaar is Cluster 2. Eén na beste is Cluster 1. Het label van Cluster 2 is niet gelijk aan het label van voorbeeld 3, A. Het label van Cluster 1 is wel gelijk aan A. Dus verschuiven we Cluster 1 naar het voorbeeld en Cluster 2 weg van het voorbeeld: w 1 = (1, 1.5) + 0.5((3, 4) (1, 1.5)) = (2, 2.75) w 2 = (2.5, 3.5) 0.5((3, 4) (2.5, 3.5)) = (2.25, 3.25) Je zou zelf eens een keer de updates behorende bij Voorbeeld 4 kunnen uitrekenen. Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

42 Deel IV: Kohonen netwerken Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

43 Kohonen netwerken Een Kohonen netwerk wordt gebruikt bij dimensionaliteitsreductie van data. Voorbeeld Een dataverzameling. We vermoeden dat deze geprojecteerd kan worden naar een lagere dimensie. Lagere dimensie = 1 Kohonen netwerk is een lijnstuk ( kralensnoer ) dat zichzelf langs de data legt. Lagere dimensie = 2 Kohonen netwerk is een begrensd vlak ( visnet ) dat zich plooit naar de data. Lagere dimensie = 3 Kohonen netwerk is een eindig stuk R 3 ( kubusstructuur ). Werking (informeel): bij elk nieuw datapunt verschuift de dichtstbijzijnde netwerkknoop een stukje naar dat datapunt, en trekt daarbij zijn buren mee. Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

44 Voorbeeld leerproces Door deze collectieve leermethode worden inputs die dichtbij elkaar vallen gemapped op output neuronen die dicht bij elkaar zitten. Hierdoor blijft de topologie inherent in de invoersignalen bewaard in het geleerde Kohonen netwerk: Iteratie 0 Iteratie 600 Iteratie 1900 Als de dimensie van S kleiner is dan die van N, dan worden de neuronen van het netwerk gevouwen in de input ruimte: Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

45 Kohonen netwerk: voorbeeld We hebben een Kohonen netwerk met 3 neuronen verbonden in een lijn. We maken gebruik van de burenrelaties door g(k, k) = 1 te nemen en g(h, k) = 0.5 te zetten als h en k directe buren zijn, anders is g(h, k) = 0. Nu berekenen we weer eerst de winnende neuron k, en vervolgens updaten we alle neuronen als volgt: w i = w i + γg(i, k)(x p w i ) Nu initialiseren we w 1 = (1, 1), w 2 = (3, 2), w 3 = (2, 4). Weer zetten we γ = 0.5. We krijgen weer de voorbeelden: x 1 = (1, 2) x 2 = (2, 5) x 3 = (3, 4) x 4 = (2, 3) Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

46 Kohonen netwerk: voorbeeld (Vervolg) Op x 1 = (1, 2) wint neuron 1. Dit resulteert in de update: w 1 = (1, 1) ((1, 2) (1, 1)) = (1, 1.5). We moeten ook de buren updaten. g(2, 1) = 0.5 en g(3, 1) = 0. Dus updaten we neuron 2: w 2 = (3, 2) ((1, 2) (3, 2)) = (2.5, 2). Op x 2 = (2, 5) wint neuron 3. Dit resulteert in de update: w 3 = (2, 4) ((2, 5) (2, 4)) = (2, 4.5). We moeten ook de buren updaten. g(2, 3) = 0.5 en g(1, 3) = 0. Dus updaten we neuron 2: w 2 = (2.5, 2) ((2, 5) (2.5, 2)) = (2.375, 2.75). Op x 3 = (3, 4) wint neuron 3. Dit resulteert in de update: w 3 = (2, 4.5) ((3, 4) (2, 4.5)) = (2.5, 4.25). We moeten ook de buren updaten. g(2, 3) = 0.5 en g(1, 3) = 0. Dus updaten we neuron 2: w 2 = (2.375, 2.75) ((3, 4) (2.375, 2.75)) = (2.53, 3.06). Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

47 Kohonen netwerk: gesuperviseerd leren Een Kohonen netwerk kan ook gebruikt worden voor gesuperviseerd leren. Hiervoor kunnen we elke output neuron h een tabel-entry (w ho ) verschaffen Leren: Elk neuron leert, maar de buren leren iets minder hard: w ho = w ho + γ(d w ho ) g(h, k) g(i, k) i S Output: Voor het bepalen van de output y nemen we het gewogen gemiddelde van de output van de neuron zelf en zijn buren. De buren bepalen navenant minder: y = h S g(h, k)w ho g(h, k) h S Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

48 Samenvatting Ongesuperviseerde leermethoden kunnen gebruikt worden voor clustering, vector kwantisatie, dimensionaliteitsreductie en feature extraction. In competitief leren strijden de neuronen om geactiveerd te worden. Ongesuperviseerd leren kan uitgebreid worden met een extra uitvoerlaag om ook gesuperviseerd te kunnen leren. De leeralgoritmen respecteren het lokaliteitsprincipe: inputs die dicht bij elkaar liggen worden samen gegroepeerd. Voor gesuperviseerd leren zijn de getoonde leeralgoritmen geschikt als de functie grillig (niet glad) is. Clusterpunten groeperen naar gebieden met veel data. Het kiezen van het aantal clusters is een probleem. Andere clustertchnieken, zoals hierarchical clustering bezitten deze problemen niet. (Maar hebben weer andere problemen.) Gerard Vreeswijk (ICS Dept.) Hoofdstuk 5: Ongesuperviseerd Leren 17 juni / 48

Inleiding Adaptieve Systemen Hoofdstuk 5: Ongesuperviseerd Leren

Inleiding Adaptieve Systemen Hoofdstuk 5: Ongesuperviseerd Leren Inleiding Adaptieve Systemen Hoofdstuk 5: Ongesuperviseerd Leren Cursusjaar 2017-2018 Gerard Vreeswijk β-faculteit, Departement Informatica en Informatiekunde, Leerstoelgroep Intelligente Systemen 21 maart

Nadere informatie

d(w j, x i ) d(w l, x i ) Voorbeeld

d(w j, x i ) d(w l, x i ) Voorbeeld Transparanten bij het vak Inleiding Adaptieve Systemen: Unsupervised Leren/ Self organizing networks. M. Wiering Unsupervised Learning en Self Organizing Networks Leerdoelen: Weten wat unsupervised learning

Nadere informatie

succes. Door steeds opnieuw toernooien te blijven spelen evolueert de populatie. We kunnen dit doen onder ideale omstandigheden,

succes. Door steeds opnieuw toernooien te blijven spelen evolueert de populatie. We kunnen dit doen onder ideale omstandigheden, Inleiding Adaptieve Systemen deel 2, 25 juni 2014, 13.30-16.30, v. 1 Er is op vrijdag 27 juni nog een practicumsessie! De aanvullende toets is op 4 juli, 13-15 uur. Competitie en cooperatie 1. Bekijk de

Nadere informatie

Open vragen. Naam:...

Open vragen. Naam:... Tentamen IAS. Vrijdag 29 juni 2012 om 13.30-16.30 uur, zaal: RUPPERT-40. 1 Naam:............................................................................................................. Collegekaart-nummer:...........................

Nadere informatie

Inleiding Adaptieve Systemen Hoofdstuk 4: Neurale netwerken

Inleiding Adaptieve Systemen Hoofdstuk 4: Neurale netwerken Inleiding Adaptieve Systemen Hoofdstuk 4: Neurale netwerken Cursusjaar 2012-2013 Gerard Vreeswijk β-faculteit, Departement Informatica en Informatiekunde, Leerstoelgroep Intelligente Systemen 12 Juni 2015

Nadere informatie

X1 X2 T c i = (d y)x i. c i,nieuw = c i,oud + (d y) x i. w nieuw. = w oud

X1 X2 T c i = (d y)x i. c i,nieuw = c i,oud + (d y) x i. w nieuw. = w oud Tent. IAS ma 22-6-2009, tijd: 13.15-16.15 uur, zaal: EDUC-α, deeltent. 2 van 2 Versie C 1 Welkom. Dit tentamen duurt 3 uur en telt 20 vragen: 4 open vragen en 16 meerkeuzevragen. Wel: rekenmachine. Niet:

Nadere informatie

1 als x y = 0, = (t j o j )o j (1 o j )x ji.

1 als x y = 0, = (t j o j )o j (1 o j )x ji. Tentamen IAS. Vrijdag 1 Juli 2011 om 13.30-16.30 uur, zaal: EDUC-α 1 Dit tentamen duurt 3 uur. Er zijn 20 vragen, waarvan 4 open vragen en 16 meerkeuze. Het is verboden literatuur, aantekeningen, een programmeerbare

Nadere informatie

1 als x y = 0, A B C D E F. = (t j o j )o j (1 o j )x ji.

1 als x y = 0, A B C D E F. = (t j o j )o j (1 o j )x ji. Tentamen IAS. Vrijdag 1 Juli 2011 om 13.30-16.30 uur, zaal: EDUC-α 1 Dit tentamen duurt 3 uur. Er zijn 20 vragen, waarvan 4 open vragen en 16 meerkeuze. Het is verboden literatuur, aantekeningen, een programmeerbare

Nadere informatie

Open vragen. Naam:...

Open vragen. Naam:... Tentamen IAS. Vrijdag 28 juni 2013 om 13.30-16.30 uur, zaal: EDUC-β. Versie D 1 Naam:............................................................................................................. Collegekaart-nummer:...........................

Nadere informatie

Het XOR-Netwerk heeft lokale Minima

Het XOR-Netwerk heeft lokale Minima Het 2-3- XOR-Netwerk heet lokale Minima Ida G. Sprinkhuizen-Kuyper Egbert J.W. Boers Vakgroep Inormatica RijksUniversiteit Leiden Postbus 952 2300 RA Leiden {kuyper,boers}@wi.leidenuniv.nl Samenvatting

Nadere informatie

heten excitatory. heten inhibitory.

heten excitatory. heten inhibitory. Transparanten bij het vak Inleiding Adaptieve Systemen: Neurale Netwerken. M. Wiering Nucleus Synapse Axon van andere neuron Neurale netwerken Dendriet Axon Synapse Leerdoelen: Soma Weten wanneer neurale

Nadere informatie

Inhoud. Neuronen. Synapsen. McCulloch-Pitts neuron. Sigmoids. De bouwstenen van het zenuwstelsel: neuronen en synapsen

Inhoud. Neuronen. Synapsen. McCulloch-Pitts neuron. Sigmoids. De bouwstenen van het zenuwstelsel: neuronen en synapsen Tom Heskes IRIS, NIII Inhoud De bouwstenen van het zenuwstelsel: neuronen en synapsen Complex gedrag uit eenvoudige elementen McCulloch-Pitts neuronen Hopfield netwerken Computational neuroscience Lerende

Nadere informatie

Kunstmatige Intelligentie (AI) Hoofdstuk 18.7 van Russell/Norvig = [RN] Neurale Netwerken (NN s) voorjaar 2016 College 9, 19 april 2016

Kunstmatige Intelligentie (AI) Hoofdstuk 18.7 van Russell/Norvig = [RN] Neurale Netwerken (NN s) voorjaar 2016 College 9, 19 april 2016 AI Kunstmatige Intelligentie (AI) Hoofdstuk 18.7 van Russell/Norvig = [RN] Neurale Netwerken (NN s) voorjaar 2016 College 9, 19 april 2016 www.liacs.leidenuniv.nl/ kosterswa/ai/ 1 Hersenen De menselijke

Nadere informatie

Tentamen in2205 Kennissystemen

Tentamen in2205 Kennissystemen TECHNISCHE UNIVERSITEIT DELFT Faculteit Elektrotechniek, Wiskunde en Informatica Tentamen in2205 Kennissystemen 03 Juli 2009, 14:0017:00 Dit tentamen heeft 5 meerkeuzevragen in totaal goed voor 10 punten

Nadere informatie

Neurale Netwerken en Deep Learning. Tijmen Blankevoort

Neurale Netwerken en Deep Learning. Tijmen Blankevoort Neurale Netwerken en Deep Learning Tijmen Blankevoort De toekomst - Internet of Things De toekomst - sluiertipje Je gezondheid wordt continue gemonitored Je dieet wordt voor je afgestemd -> Stroomversnelling

Nadere informatie

Inleiding Adaptieve Systemen Hoofdstuk X: Reinforcement leren

Inleiding Adaptieve Systemen Hoofdstuk X: Reinforcement leren Inleiding Adaptieve Systemen Hoofdstuk X: Reinforcement leren Cursusjaar 2012-2013 Gerard Vreeswijk β-faculteit, Departement Informatica en Informatiekunde, Leerstoelgroep Intelligente Systemen 21 juni

Nadere informatie

Data mining Van boodschappenmandjes tot bio-informatica

Data mining Van boodschappenmandjes tot bio-informatica Data mining Van boodschappenmandjes tot bio-informatica Walter Kosters Informatica, Universiteit Leiden donderdag 6 april 2006 http://www.liacs.nl/home/kosters/ 1 Wat is Data mining? Data mining probeert

Nadere informatie

Tentamen in2205 Kennissystemen

Tentamen in2205 Kennissystemen TECHNISCHE UNIVERSITEIT DELFT Faculteit Elektrotechniek, Wiskunde en Informatica Tentamen in2205 Kennissystemen 21 Januari 2010, 14:0017:00 Dit tentamen heeft 5 meerkeuzevragen in totaal goed voor 10 punten

Nadere informatie

Opgave 2 ( = 12 ptn.)

Opgave 2 ( = 12 ptn.) Deel II Opgave 1 (4 + 2 + 6 = 12 ptn.) a) Beschouw bovenstaande game tree waarin cirkels je eigen zet representeren en vierkanten die van je tegenstander. Welke waarde van de evaluatiefunctie komt uiteindelijk

Nadere informatie

Transparanten bij het vak Inleiding Adaptieve Systemen: Introductie Machine Leren. M. Wiering

Transparanten bij het vak Inleiding Adaptieve Systemen: Introductie Machine Leren. M. Wiering Transparanten bij het vak Inleiding Adaptieve Systemen: Introductie Machine Leren. M. Wiering Lerende Machines Verbeter in taak T, Voorbeeld: je ziet de karakteristieken (Features) van een aantal dieren

Nadere informatie

Data Mining: Clustering

Data Mining: Clustering Data Mining: Clustering docent: dr. Toon Calders Gebaseerd op slides van Tan, Steinbach, and Kumar. Introduction to Data Mining Wat is clustering? Het onderverdelen van de objecten in een database in homogene

Nadere informatie

Discrete Wiskunde 2WC15, Lente Jan Draisma

Discrete Wiskunde 2WC15, Lente Jan Draisma Discrete Wiskunde 2WC15, Lente 2010 Jan Draisma HOOFDSTUK 2 Gröbnerbases 1. Vragen We hebben gezien dat de studie van stelsels polynoomvergelijkingen in meerdere variabelen op natuurlijke manier leidt

Nadere informatie

Tiende college algoritmiek. 14 april Gretige algoritmen

Tiende college algoritmiek. 14 april Gretige algoritmen College 10 Tiende college algoritmiek 1 april 011 Gretige algoritmen 1 Greedy algorithms Greed = hebzucht Voor oplossen van optimalisatieproblemen Oplossing wordt stap voor stap opgebouwd In elke stap

Nadere informatie

Tentamen Kunstmatige Intelligentie (INFOB2KI)

Tentamen Kunstmatige Intelligentie (INFOB2KI) Tentamen Kunstmatige Intelligentie (INFOB2KI) 30 januari 2014 10:30-12:30 Vooraf Mobiele telefoons dienen uitgeschakeld te zijn. Het tentamen bestaat uit 7 opgaven; in totaal kunnen er 100 punten behaald

Nadere informatie

Heuristieken en benaderingsalgoritmen. Algoritmiek

Heuristieken en benaderingsalgoritmen. Algoritmiek Heuristieken en benaderingsalgoritmen Wat te doen met `moeilijke optimaliseringsproblemen? Voor veel problemen, o.a. optimaliseringsproblemen is geen algoritme bekend dat het probleem voor alle inputs

Nadere informatie

Open vragen. Veel succes!

Open vragen. Veel succes! Tent. IAS wo 30-Jul-2010, tijd: 13:30-16:30 uur, zaal: EDUC-β 1 Dit tentamen duurt 3 uur. Er zijn 20 vragen, waarvan 4 open vragen en 16 meerkeuze. Het is verboden literatuur, aantekeningen, een programmeerbare

Nadere informatie

Tiende college algoritmiek. 26 april Gretige algoritmen

Tiende college algoritmiek. 26 april Gretige algoritmen Algoritmiek 01/10 College 10 Tiende college algoritmiek april 01 Gretige algoritmen 1 Algoritmiek 01/10 Muntenprobleem Gegeven onbeperkt veel munten van d 1,d,...d m eurocent, en een te betalen bedrag

Nadere informatie

TW2040: Complexe Functietheorie

TW2040: Complexe Functietheorie TW2040: Complexe Functietheorie week 4.9, maandag K. P. Hart Faculteit EWI TU Delft Delft, 13 juni, 2016 K. P. Hart TW2040: Complexe Functietheorie 1 / 41 Outline III.6 The Residue Theorem 1 III.6 The

Nadere informatie

Kortste Paden. Algoritmiek

Kortste Paden. Algoritmiek Kortste Paden Toepassingen Kevin Bacon getal Six degrees of separation Heeft een netwerk de small-world eigenschap? TomTom / Google Maps 2 Kortste paden Gerichte graaf G=(N,A), en een lengte L(v,w) voor

Nadere informatie

Minimum Opspannende Bomen. Algoritmiek

Minimum Opspannende Bomen. Algoritmiek Minimum Opspannende Bomen Inhoud Het minimum opspannende bomen probleem Een principe om een minimum opspannende boom te laten groeien Twee greedy algoritmen + tijd en datastructuren: Het algoritme van

Nadere informatie

Lineaire Algebra voor ST

Lineaire Algebra voor ST Lineaire Algebra voor ST docent: Judith Keijsper TUE, HG 9. email: J.C.M.Keijsper@tue.nl studiewijzer: http://www.win.tue.nl/wsk/onderwijs/ds6 Technische Universiteit Eindhoven college 9 J.Keijsper (TUE)

Nadere informatie

Open vragen. Naam:...

Open vragen. Naam:... Tentamen IAS. Vrijdag 28 juni 2013 om 13.30-16.30 uur, zaal: EDUC-β. 1 Naam:............................................................................................................. Collegekaart-nummer:...........................

Nadere informatie

TECHNISCHE UNIVERSITEIT EINDHOVEN Faculteit Wiskunde en Informatica. Beknopte uitwerking Examen Neurale Netwerken (2L490) d.d. 11-8-2004.

TECHNISCHE UNIVERSITEIT EINDHOVEN Faculteit Wiskunde en Informatica. Beknopte uitwerking Examen Neurale Netwerken (2L490) d.d. 11-8-2004. TECHNISCHE UNIVERSITEIT EINDHOVEN Faculteit Wiskunde en Informatica Beknopte uitwerking Eamen Neurale Netwerken (2L490) d.d. 11-8-2004. 1. Beschouw de volgende configuratie in het platte vlak. l 1 l 2

Nadere informatie

Onafhankelijke verzamelingen en Gewogen Oplossingen, door Donald E. Knuth, The Art of Computer Programming, Volume 4, Combinatorial Algorithms

Onafhankelijke verzamelingen en Gewogen Oplossingen, door Donald E. Knuth, The Art of Computer Programming, Volume 4, Combinatorial Algorithms Onafhankelijke verzamelingen en Gewogen Oplossingen, door Donald E. Knuth, The Art of Computer Programming, Volume 4, Combinatorial Algorithms Giso Dal (0752975) Pagina s 5 7 1 Deelverzameling Representatie

Nadere informatie

Inl. Adaptieve Systemen

Inl. Adaptieve Systemen Inl. Adaptieve Systemen Gerard Vreeswijk Leerstoelgroep Intelligente Systemen, Departement Informatica en Informatiekunde, Faculteit Bètawetenschappen, Universiteit Utrecht. Gerard Vreeswijk. Laatst gewijzigd

Nadere informatie

Combinatoriek groep 1 & 2: Recursie

Combinatoriek groep 1 & 2: Recursie Combinatoriek groep 1 & : Recursie Trainingsweek juni 008 Inleiding Bij een recursieve definitie van een rij wordt elke volgende term berekend uit de vorige. Een voorbeeld van zo n recursieve definitie

Nadere informatie

. Maak zelf een ruwe schets van f met A = 2, ω = 6π en ϕ = π 6. De som van twee trigonometrische polynomen is weer een trigonometrisch polynoom

. Maak zelf een ruwe schets van f met A = 2, ω = 6π en ϕ = π 6. De som van twee trigonometrische polynomen is weer een trigonometrisch polynoom 8. Fouriertheorie Periodieke functies. Veel verschijnselen en processen hebben een periodiek karakter. Na een zekere tijd, de periode, komt hetzelfde patroon terug. Denk maar aan draaiende of heen en weer

Nadere informatie

Bijzondere kettingbreuken

Bijzondere kettingbreuken Hoofdstuk 15 Bijzondere kettingbreuken 15.1 Kwadratische getallen In het vorige hoofdstuk hebben we gezien dat 2 = 1, 2, 2, 2, 2, 2, 2,.... Men kan zich afvragen waarom we vanaf zeker moment alleen maar

Nadere informatie

Samenstelling van de moedermelk van een aantal zoogdieren. Soort Vetten (%) Proteïnen (%)

Samenstelling van de moedermelk van een aantal zoogdieren. Soort Vetten (%) Proteïnen (%) Samenstelling van de moedermelk van een aantal zoogdieren Soort Vetten (%) Proteïnen (%) Paard 1.0 2.6 Ezel 1.4 1.7 Muildier 1.8 2.0 Kameel 3.4 3.5 Lama 3.2 3.9 Zebra 4.8 3.0 Schaap 6.4 5.6 Buffel 7.9

Nadere informatie

Friendly Functions and Shared BDD s

Friendly Functions and Shared BDD s Friendly Functions and Shared BDD s Bob Wansink 19 Juni 2010 Deze notitie behandelt pagina s 81 tot 84 van The Art of Computer Programming, Volume 4, Fascicle 1 van Donald E. Knuth. Inhoudelijk gaat het

Nadere informatie

Cover Page. The handle http://hdl.handle.net/1887/20358 holds various files of this Leiden University dissertation.

Cover Page. The handle http://hdl.handle.net/1887/20358 holds various files of this Leiden University dissertation. Cover Page The handle http://hdl.handle.net/1887/20358 holds various files of this Leiden University dissertation. Author: Witsenburg, Tijn Title: Hybrid similarities : a method to insert relational information

Nadere informatie

De pariteitstestmatrix van de (6,4) Hamming-code over GF(5) is de volgende: [ H =

De pariteitstestmatrix van de (6,4) Hamming-code over GF(5) is de volgende: [ H = Oplossing examen TAI 11 juni 2008 Veel plezier :) Vraag 1 De pariteitstestmatrix van de (6,4) Hamming-code over GF(5) is de volgende: H = [ 1 0 1 2 3 ] 4 0 1 1 1 1 1 (a) Bepaal de bijhorende generatormatrix

Nadere informatie

Functie beschrijving: Het automatisch aanmaken van een raai-volgende contour

Functie beschrijving: Het automatisch aanmaken van een raai-volgende contour Modelit Rotterdamse Rijweg 126 3042 AS Rotterdam Telefoon +31 10 4623621 info@modelit.nl www.modelit.nl Functie beschrijving: Het automatisch aanmaken van een raai-volgende contour Datum 8 Mei 2004 Modelit

Nadere informatie

3. Structuren in de taal

3. Structuren in de taal 3. Structuren in de taal In dit hoofdstuk behandelen we de belangrijkst econtrolestructuren die in de algoritmiek gebruikt worden. Dit zijn o.a. de opeenvolging, selectie en lussen (herhaling). Vóór we

Nadere informatie

V Kegelsneden en Kwadratische Vormen in R. IV.0 Inleiding

V Kegelsneden en Kwadratische Vormen in R. IV.0 Inleiding V Kegelsneden en Kwadratische Vormen in R IV.0 Inleiding V. Homogene kwadratische vormen Een vorm als H (, ) = 5 4 + 8 heet een homogene kwadratische vorm naar de twee variabelen en. Een vorm als K (,

Nadere informatie

Universiteit Utrecht Departement Informatica

Universiteit Utrecht Departement Informatica Universiteit Utrecht Departement Informatica Uitwerking Tussentoets Optimalisering 20 december 206 Opgave. Beschouw het volgende lineair programmeringsprobleem: (P) Minimaliseer z = x 2x 2 + x 3 2x 4 o.v.

Nadere informatie

AI en Software Testing op de lange termijn

AI en Software Testing op de lange termijn AI en Software Testing op de lange termijn Is het een appel? Traditioneel programmeren AI Kleur = rood, groen, geel Vorm = rond Textuur = glad Artificial Intelligence Machine Learning Methods Technologies

Nadere informatie

Eindexamen wiskunde B 1-2 vwo 2002-II

Eindexamen wiskunde B 1-2 vwo 2002-II Eindexamen wiskunde B 1-2 vwo 2002-II ppervlakte Gegeven is de functie f ( x) = x 1. De lijn k raakt aan de grafiek van f in het punt (10, 3). Zie figuur 1. figuur 1 y k 1 1 f x 5p 1 Stel met behulp van

Nadere informatie

9. Strategieën en oplossingsmethoden

9. Strategieën en oplossingsmethoden 9. Strategieën en oplossingsmethoden In dit hoofdstuk wordt nog even terug gekeken naar alle voorgaande hoofdstukken. We herhalen globaal de structuren en geven enkele richtlijnen voor het ontwerpen van

Nadere informatie

Uitwerkingen opgaven Kunstmatige intelligentie

Uitwerkingen opgaven Kunstmatige intelligentie Uitwerkingen opgaven Kunstmatige intelligentie Opgave 8 (1.6.2001) e. Uiteindelijk wordt onderstaande boom opgebouwd. Knopen die al eerder op een pad voorkwamen worden niet aangegeven, er zijn dus geen

Nadere informatie

Bepaalde Integraal (Training) Wat reken je uit als je een functie integreert

Bepaalde Integraal (Training) Wat reken je uit als je een functie integreert Bepaalde Integraal (Training) WISNET-HBO update april 2009 Wat reken je uit als je een functie integreert De betekenis van de integraal is een optelling van uiterst kleine onderdelen. In dit voorbeeld

Nadere informatie

Meerkeuze antwoorden. Naam:... Collegekaart-nummer:...

Meerkeuze antwoorden. Naam:... Collegekaart-nummer:... Tentamen IAS, deeltentamen 2 van 2. Datum: 23-06-2017, tijd 11.00-13.00 uur. Zaal: Educ-α 1 Naam:............................................................... Collegekaart-nummer:.....................

Nadere informatie

Experimenten. Bepaling van de snelheidsconstanten. In dit intermezzo wordt de kriskrassimulatie verder kwantitatief onderzocht.

Experimenten. Bepaling van de snelheidsconstanten. In dit intermezzo wordt de kriskrassimulatie verder kwantitatief onderzocht. Experimenten Bepaling van de snelheidsconstanten In dit intermezzo wordt de kriskrassimulatie verder kwantitatief onderzocht. De samenstelling van de evenwichtstoestand fluctueert nogal hebben we gezien

Nadere informatie

Grafen. Indien de uitgraad van ieder punt 1 is, dan bevat de graaf een cykel. Indien de ingraad van ieder punt 1 is, dan bevat de graaf een cykel.

Grafen. Indien de uitgraad van ieder punt 1 is, dan bevat de graaf een cykel. Indien de ingraad van ieder punt 1 is, dan bevat de graaf een cykel. Grafen Grafen Een graaf bestaat uit een verzameling punten (ook wel knopen, of in het engels vertices genoemd) en een verzameling kanten (edges) of pijlen (arcs), waarbij de kanten en pijlen tussen twee

Nadere informatie

Hopfield-Netwerken, Neurale Datastructuren en het Nine Flies Probleem

Hopfield-Netwerken, Neurale Datastructuren en het Nine Flies Probleem Hopfield-Netwerken, Neurale Datastructuren en het Nine Flies Probleem Giso Dal (0752975) 13 april 2010 Samenvatting In [Kea93] worden twee neuraal netwerk programmeerprojecten beschreven, bedoeld om studenten

Nadere informatie

Small Basic Console Uitwerking opdrachten

Small Basic Console Uitwerking opdrachten Opdracht 1 3 getallen => inlezen Gemiddelde uitrekenen Resultaat afdrukken TextWindow.WriteLine("Dit programma berekend het gemiddelde van drie door U in te voeren getallen.") TextWindow.Write("Voer getal

Nadere informatie

Tentamen Data Mining

Tentamen Data Mining Tentamen Data Mining Algemene Opmerkingen Dit is geen open boek tentamen, noch mogen er aantekeningen gebruikt worden. Laat bij het uitvoeren van berekeningen zien hoe je aan een antwoord gekomen bent.

Nadere informatie

Paradox van zelfreproductie. IN2505-II Berekenbaarheidstheorie. Zelfreproductie? Programma s en zelfreproductie. College 11.

Paradox van zelfreproductie. IN2505-II Berekenbaarheidstheorie. Zelfreproductie? Programma s en zelfreproductie. College 11. Paradox van zelfreproductie College 11 Algoritmiekgroep Faculteit EWI TU Delft 27 mei 2009 1 Levende wezens zijn machines. 2 Levende wezens kunnen zich reproduceren. 3 Machines kunnen zich niet reproduceren.

Nadere informatie

Opdracht 2 Het Multilayer Perceptron

Opdracht 2 Het Multilayer Perceptron Opdracht 2 Het Multilayer Perceptron Doel: - Inzicht verkrijgen in een neuraal netwerk (het multilayer perceptron). - Begrijpen van het backpropagation algoritme. - Een toepassing van een neuraal netwerk

Nadere informatie

Vectoranalyse voor TG

Vectoranalyse voor TG college 4 en raakvlakken collegejaar : 16-17 college : 4 build : 19 september 2016 slides : 30 Vandaag Snowdon Mountain Railway (Wales) 1 De richtingsafgeleide 2 aan een grafiek 3 Differentieerbaarheid

Nadere informatie

Toegepaste Statistiek, Dag 7 1

Toegepaste Statistiek, Dag 7 1 Toegepaste Statistiek, Dag 7 1 Statistiek: Afkomstig uit het Duits: De studie van politieke feiten en cijfers. Afgeleid uit het latijn: status, staat, toestand Belangrijkste associatie: beschrijvende statistiek

Nadere informatie

Hiermee rekenen we de testwaarde van t uit: n. 10 ( x ) ,16

Hiermee rekenen we de testwaarde van t uit: n. 10 ( x ) ,16 modulus strepen: uitkomst > 0 Hiermee rekenen we de testwaarde van t uit: n 10 ttest ( x ) 105 101 3,16 n-1 4 t test > t kritisch want 3,16 >,6, dus 105 valt buiten het BI. De cola bevat niet significant

Nadere informatie

auteursrechtelijk beschermd materiaal OPLOSSINGEN OEFENINGEN HOOFDSTUK 7

auteursrechtelijk beschermd materiaal OPLOSSINGEN OEFENINGEN HOOFDSTUK 7 OPLOSSINGEN OEFENINGEN HOOFDSTUK 7 Open vragen OEFENING 1 Consumptietheorie Nutsfunctie Budgetrechte Indifferentiecurve Marginale substitutievoet Marginaal nut Inkomenseffect Productietheorie Productiefunctie

Nadere informatie

Herkansing Inleiding Intelligente Data Analyse Datum: Tijd: , BBL 508 Dit is geen open boek tentamen.

Herkansing Inleiding Intelligente Data Analyse Datum: Tijd: , BBL 508 Dit is geen open boek tentamen. Herkansing Inleiding Intelligente Data Analyse Datum: 3-3-2003 Tijd: 14.00-17.00, BBL 508 Dit is geen open boek tentamen. Algemene aanwijzingen 1. U mag ten hoogste één A4 met aantekeningen raadplegen.

Nadere informatie

We zullen in deze les kijken hoe we netwerken kunnen analyseren, om bijvoorbeeld de volgende vragen te kunnen beantwoorden:

We zullen in deze les kijken hoe we netwerken kunnen analyseren, om bijvoorbeeld de volgende vragen te kunnen beantwoorden: Wiskunde voor kunstmatige intelligentie, 24 Les 5 Proces analyse Veel processen laten zich door netwerken beschrijven, waarin een aantal knopen acties aangeeft en opdrachten langs verbindingen tussen de

Nadere informatie

Cursus Statistiek Hoofdstuk 4. Statistiek voor Informatica Hoofdstuk 4: Verwachtingen. Definitie (Verwachting van discrete stochast) Voorbeeld (1)

Cursus Statistiek Hoofdstuk 4. Statistiek voor Informatica Hoofdstuk 4: Verwachtingen. Definitie (Verwachting van discrete stochast) Voorbeeld (1) Cursus Statistiek Hoofdstuk 4 Statistiek voor Informatica Hoofdstuk 4: Verwachtingen Cursusjaar 29 Peter de Waal Departement Informatica Inhoud Verwachtingen Variantie Momenten en Momentengenererende functie

Nadere informatie

Convergentie van een rij

Convergentie van een rij Hoofdstuk Convergentie van een rij. Basis. Bepaal de som van de volgende oneindige meetkundige rijen a) + 0. + 0.0 + 0.00 + 0.000 +... b) 6 + 8 + + 2 +, +... c) 8 + 2 + 2 + 8 +... 2. Schrijf de volgende

Nadere informatie

Meerkeuze antwoorden. Naam:... Collegekaart-nummer:...

Meerkeuze antwoorden. Naam:... Collegekaart-nummer:... Tentamen IAS, deeltentamen 2 van 2. Datum: 04-04-2018, tijd 13:30-15:30 uur. Zaal: Educ-γ Versie A. 1 Naam:............................................................... Collegekaart-nummer:.....................

Nadere informatie

Examen Datastructuren en Algoritmen II

Examen Datastructuren en Algoritmen II Tweede bachelor Informatica Academiejaar 2010 2011, tweede zittijd Examen Datastructuren en Algoritmen II Naam :.............................................................................. Lees de hele

Nadere informatie

Tentamen Data Mining. Algemene Opmerkingen. Opgave L. Korte vragen (L6 punten) Tijd: 14:00-17:00. Datum: 4januai20l6

Tentamen Data Mining. Algemene Opmerkingen. Opgave L. Korte vragen (L6 punten) Tijd: 14:00-17:00. Datum: 4januai20l6 Tentamen Data Mining Datum: 4januai2l6 Tijd: 4: - 7: Algemene Opmerkingen e Dit is geen open boek tentamen, noch mogen er aantekeningen gebruikt worden. o Laat bij het uitvoeren van berekeningen zien hoeje

Nadere informatie

Machinaal leren, neurale netwerken, en deep learning

Machinaal leren, neurale netwerken, en deep learning Machinaal leren, neurale netwerken, en deep learning Prof. dr. Tom Heskes KNAW-symposium Go en machinale intelligentie 11 oktober, 2016 Inhoud Inleiding - Supervised, reinforcement, unsupervised leren

Nadere informatie

Tentamen Kunstmatige Intelligentie

Tentamen Kunstmatige Intelligentie Naam: Studentnr: Tentamen Kunstmatige Intelligentie Department of Information and Computing Sciences Opleiding Informatica Universiteit Utrecht Donderdag 2 februari 2012 08.30 10:30, EDUCA-ALFA Vooraf

Nadere informatie

Examen Datastructuren en Algoritmen II

Examen Datastructuren en Algoritmen II Tweede bachelor Informatica Academiejaar 2016 2017, eerste zittijd Examen Datastructuren en Algoritmen II Naam :.............................................................................. Lees de hele

Nadere informatie

TW2040: Complexe Functietheorie

TW2040: Complexe Functietheorie TW2040: Complexe Functietheorie week 4.10, donderdag K. P. Hart Faculteit EWI TU Delft Delft, 23 juni, 2016 K. P. Hart TW2040: Complexe Functietheorie 1 / 46 Outline 1 2 3 K. P. Hart TW2040: Complexe Functietheorie

Nadere informatie

a) Bepaal punten a l en b m zó dat de lijn door a en b parallel is met n.

a) Bepaal punten a l en b m zó dat de lijn door a en b parallel is met n. . Oefen opgaven Opgave... Gegeven zijn de lijnen l : 2 + λ m : 2 2 + λ 3 n : 3 6 4 + λ 3 6 4 a) Bepaal punten a l en b m zó dat de lijn door a en b parallel is met n. b) Bepaal de afstand tussen die lijn

Nadere informatie

Tiende college algoritmiek. 2 mei Gretige algoritmen, Dijkstra

Tiende college algoritmiek. 2 mei Gretige algoritmen, Dijkstra College 10 Tiende college algoritmiek mei 013 Gretige algoritmen, Dijkstra 1 Muntenprobleem Gegeven onbeperkt veel munten van d 1,d,...d m eurocent, en een te betalen bedrag van n (n 0) eurocent. Alle

Nadere informatie

Optimalisering en Complexiteit, College 10. Begrensde variabelen. Han Hoogeveen, Utrecht University

Optimalisering en Complexiteit, College 10. Begrensde variabelen. Han Hoogeveen, Utrecht University Optimalisering en Complexiteit, College 10 Begrensde variabelen Han Hoogeveen, Utrecht University Begrensde variabelen (1) In veel toepassingen hebben variabelen zowel een ondergrens als een bovengrens:

Nadere informatie

Overzicht Fourier-theorie

Overzicht Fourier-theorie B Overzicht Fourier-theorie In dit hoofdstuk geven we een overzicht van de belangrijkste resultaten van de Fourier-theorie. Dit kan als steun dienen ter voorbereiding op het tentamen. Fourier-reeksen van

Nadere informatie

Uitwerking tentamen Algoritmiek 10 juni :00 13:00

Uitwerking tentamen Algoritmiek 10 juni :00 13:00 Uitwerking tentamen Algoritmiek 10 juni 2014 10:00 13:00 1. Dominono s a. Toestanden: n x n bord met in elk hokje een O, een X of een -. Hierbij is het aantal X gelijk aan het aantal O of hooguit één hoger.

Nadere informatie

P (X n+1 = j X n = i, X n 1,..., X 0 ) = P (X n+1 = j X n = i). P (X n+1 = j X n = i) MARKOV KETENS. Definitie van Markov keten:

P (X n+1 = j X n = i, X n 1,..., X 0 ) = P (X n+1 = j X n = i). P (X n+1 = j X n = i) MARKOV KETENS. Definitie van Markov keten: Definitie van Markov keten: MARKOV KETENS Een stochastisch proces {X n, n 0} met toestandsruimte S heet een discrete-tijd Markov keten (DTMC) als voor alle i en j in S geldt P (X n+ = j X n = i, X n,...,

Nadere informatie

Algoritmes in ons dagelijks leven. Leve de Wiskunde! 7 April 2017 Jacobien Carstens

Algoritmes in ons dagelijks leven. Leve de Wiskunde! 7 April 2017 Jacobien Carstens Algoritmes in ons dagelijks leven Leve de Wiskunde! 7 April 2017 Jacobien Carstens Wat is een algoritme? Een algoritme is een eindige reeks instructies die vanuit een gegeven begintoestand naar een beoogd

Nadere informatie

De statespace van Small World Networks

De statespace van Small World Networks De statespace van Small World Networks Emiel Suilen, Daan van den Berg, Frank van Harmelen epsuilen@few.vu.nl, daanvandenberg1976@gmail.com, Frank.van.Harmelen@cs.vu.nl VRIJE UNIVERSITEIT AMSTERDAM 2 juli

Nadere informatie

TW2020 Optimalisering

TW2020 Optimalisering TW2020 Optimalisering Hoorcollege 8 Leo van Iersel Technische Universiteit Delft 28 oktober 2015 Leo van Iersel (TUD) TW2020 Optimalisering 28 oktober 2015 1 / 25 Definitie Een boom is een samenhangende

Nadere informatie

Oude tentamens Kunstmatige intelligentie Universiteit Leiden Informatica 2005

Oude tentamens Kunstmatige intelligentie Universiteit Leiden Informatica 2005 Oude tentamens Kunstmatige intelligentie Universiteit Leiden Informatica 2005 Opgave 1. A* (20/100 punten; tentamen 1 juni 2001) a. (5 punten) Leg het A*-algoritme uit. b. (2 punten) Wanneer heet een heuristiek

Nadere informatie

Een computerprogramma is opgebouwd uit een aantal instructies die op elkaar volgen en die normaal na elkaar uitgevoerd worden.

Een computerprogramma is opgebouwd uit een aantal instructies die op elkaar volgen en die normaal na elkaar uitgevoerd worden. 2 Programmeren 2.1 Computerprogramma s Een computerprogramma is opgebouwd uit een aantal instructies die op elkaar volgen en die normaal na elkaar uitgevoerd worden. (=sequentie) Niet alle instructies

Nadere informatie

Uitgebreide uitwerking Tentamen Complexiteit, mei 2007

Uitgebreide uitwerking Tentamen Complexiteit, mei 2007 Uitgebreide uitwerking Tentamen Complexiteit, mei 007 Opgave. a. Een beslissingsboom beschrijft de werking van het betreffende algoritme (gebaseerd op arrayvergelijkingen) op elke mogelijke invoer. In

Nadere informatie

eerste en laatste cijfers Jaap Top

eerste en laatste cijfers Jaap Top eerste en laatste cijfers Jaap Top JBI-RuG & DIAMANT j.top@rug.nl 3-10 april 2013 (Collegecarrousel, Groningen) 1 laatste, eerste?! over getallen 2,..., 101,..., 2014,...... laatste cijfers hiervan: 2,...,

Nadere informatie

Toegepaste Wiskunde 2: Het Kalman-filter

Toegepaste Wiskunde 2: Het Kalman-filter Toegepaste Wiskunde 2: Het Kalman-filter 25 februari, 2008 Hans Maassen 1. Inleiding Het Kalman filter schat de toestand van een systeem op basis van een reeks, door ruis verstoorde waarnemingen. Een meer

Nadere informatie

Cover Page. The handle holds various files of this Leiden University dissertation.

Cover Page. The handle  holds various files of this Leiden University dissertation. Cover Page The handle http://hdl.handle.net/1887/29764 holds various files of this Leiden University dissertation. Author: Takes, Frank Willem Title: Algorithms for analyzing and mining real-world graphs

Nadere informatie

Inhoud college 5 Basiswiskunde Taylorpolynomen

Inhoud college 5 Basiswiskunde Taylorpolynomen Inhoud college 5 Basiswiskunde 4.10 Taylorpolynomen 2 Basiswiskunde_College_5.nb 4.10 Inleiding Gegeven is een functie f met punt a in domein D f. Gezocht een eenvoudige functie, die rond punt a op f lijkt

Nadere informatie

Doorzoeken van grafen. Algoritmiek

Doorzoeken van grafen. Algoritmiek Doorzoeken van grafen Algoritmiek Vandaag Methoden om door grafen te wandelen Depth First Search Breadth First Search Gerichte Acyclische Grafen en topologische sorteringen 2 Doolhof start eind 3 Depth

Nadere informatie

TW2040: Complexe Functietheorie

TW2040: Complexe Functietheorie TW2040: Complexe Functietheorie week 4.4, maandag K. P. Hart Faculteit EWI TU Delft Delft, 9 mei, 2016 K. P. Hart TW2040: Complexe Functietheorie 1 / 40 Outline 1 f : [a, b] C f : C C Primitieven 2 K.

Nadere informatie

Hand-outs voor docenten

Hand-outs voor docenten HET AANPAKKEN VAN ONGESTRUCTUREERDE PROBLEMEN Neem ik afstand en wacht ik af, of grijp ik in en vertel ik hen wat te doen?' Hand-outs voor docenten Inhoud 1 Gestructureerde problemen...2 1 Gestructureerde

Nadere informatie

Kortste Paden. Algoritmiek

Kortste Paden. Algoritmiek Kortste Paden Vandaag Kortste Paden probleem All pairs / Single Source / Single Target versies DP algoritme voor All Pairs probleem (Floyd s algoritme) Dijkstra s algoritme voor Single Source Negatieve

Nadere informatie

In de door ons gebruikte demo verloopt het herkennen van beelden in feite in 2 fasen:

In de door ons gebruikte demo verloopt het herkennen van beelden in feite in 2 fasen: Practicum: deel 1 Hond zoekt Bal In het practicum Hond zoekt Bal laten we je kennis maken met de werking van supercomputers. We gebruiken daarvoor een applicatie waarmee met een webcam objecten herkend

Nadere informatie

TW2020 Optimalisering

TW2020 Optimalisering TW2020 Optimalisering Hoorcollege 7 Leo van Iersel Technische Universiteit Delft 21 oktober 2015 Leo van Iersel (TUD) TW2020 Optimalisering 21 oktober 2015 1 / 20 Deze week: algoritmes en complexiteit

Nadere informatie

Examen Datastructuren en Algoritmen II

Examen Datastructuren en Algoritmen II Tweede bachelor Informatica Academiejaar 2009 2010, eerste zittijd Examen Datastructuren en Algoritmen II Naam :.............................................................................. Lees de hele

Nadere informatie

Automaten en Berekenbaarheid

Automaten en Berekenbaarheid Automaten en Berekenbaarheid Bart Demoen KU Leuven 2016-2017 Les 8: 118-125 orakels en reducties met orakels Turing-berekenbare functies de bezige bever Orakelmachines I 2/14 we kennen al: een TM die een

Nadere informatie

Vectorruimten met inproduct

Vectorruimten met inproduct Hoofdstuk 3 Vectorruimten met inproduct 3. Inleiding In R 2 en R 3 hebben we behalve de optelling en scalairvermenigvuldiging nog meer structuur ; bij een vector kun je spreken over zijn lengte en bij

Nadere informatie

TRILLINGEN EN GOLVEN HANDOUT FOURIER

TRILLINGEN EN GOLVEN HANDOUT FOURIER TRILLINGEN EN GOLVEN HANDOUT FOURIER Cursusjaar 2009 / 2010 2 Inhoudsopgave 1 FOURIERANALYSE 5 1.1 INLEIDING............................... 5 1.2 FOURIERREEKSEN.......................... 5 1.3 CONSEQUENTIES

Nadere informatie