Neurale Netwerken en Deep Learning. Tijmen Blankevoort



Vergelijkbare documenten
AI introductie voor testers

Kunstmatige Intelligentie (AI) Hoofdstuk 18.7 van Russell/Norvig = [RN] Neurale Netwerken (NN s) voorjaar 2016 College 9, 19 april 2016

Hoe AI kan ingezet worden voor de analyse van asbesthoudende daken

Machinaal leren, neurale netwerken, en deep learning

Artificial Intelligence. Tijmen Blankevoort

Continuous Learning in Computer Vision S.L. Pintea

succes. Door steeds opnieuw toernooien te blijven spelen evolueert de populatie. We kunnen dit doen onder ideale omstandigheden,

Smart Vision! Van Neuroscience naar Deep Learning (en terug) Sander Bohté CWI Life Sciences VIA AwesomeIT, April 10th 2015

AI en Software Testing op de lange termijn

Artificial Intelligence

Inleiding Adaptieve Systemen Hoofdstuk 4: Neurale netwerken

Inhoud. Neuronen. Synapsen. McCulloch-Pitts neuron. Sigmoids. De bouwstenen van het zenuwstelsel: neuronen en synapsen

INZET VAN MACHINE LEARNING

Tentamen Kunstmatige Intelligentie (INFOB2KI)

Een foto zegt meer dan duizend woorden

Info Support TechTalks

Opdracht 2 Het Multilayer Perceptron

Personiceren van stemmen met Deep Learning

Transparanten bij het vak Inleiding Adaptieve Systemen: Introductie Machine Leren. M. Wiering

d(w j, x i ) d(w l, x i ) Voorbeeld

Tentamen in2205 Kennissystemen

Opgave 2 ( = 12 ptn.)

Verantwoorde AI, verantwoorde zorg. Frauke Wouda 20 juni 2019

Kunstmatige Intelligentie

AI Kaleidoscoop. College 12: Subsymbolische methoden. Twee scholen. Leeswijzer: Performance cliff (2) Performance cliff

MACHINE LEARNING. Een egocentrische presentatie door een data scientist van Axians. Michel van Gelder Data Scientist bij Axians

Tentamen Kunstmatige Intelligentie

Inleiding Adaptieve Systemen Hoofdstuk 5: Ongesuperviseerd Leren

Oplossingen Datamining 2II15 Juni 2008

TEXT ANALYTICS 11/22/2015. Inleiding Text mining & Machine learning Ludieke voorbeelden. Twee klant cases. AGENDA

Data Science.

In Vlaanderen bestaat er nog geen leerlijn programmeren! Hierdoor baseren wij ons op de leerlijn die men in Nederland toepast voor basisscholen.

Master Wiskundige Ingenieurstechnieken

heten excitatory. heten inhibitory.

Predictieve modellen - overzicht

Minder Big data Meer AI.

Het XOR-Netwerk heeft lokale Minima

Living Labs : NFI & RvdK Samen onderweg naar meer grip op data. JenV I-tour presentatie 24 april 2018

Veilige en efficiënte inspectie van het spoor Inzending Hendrik Lorentz Data Science Prijs

Ontsluiten van gesproken documenten. Arjan van Hessen

Vier voorbeelden van Fourier

AI & Big Data bij Defensie

Tentamen in2205 Kennissystemen

Cover Page. The handle holds various files of this Leiden University dissertation.

Cover Page. The handle holds various files of this Leiden University dissertation

Link prediction op het RU domein

Slim Onderhoud Voorkomen lekkages en onnodige kosten. Seminar Datagestuurd Woningonderhoud

Hoe maak ik mijn datacenterinfrastructuur cloud ready? Door: Bart Nieuwenhuis

Machine Learning IBM Watson. Eindhoven, High Tech Campus, 13 juni 2017

IBM Watson Recruitment. Marieke Joustra IBM Watson Talent Technical Consultant

Botlek Studiegroep - Machine vision in de praktijk. ing. Simon Mingaars Consultant Pliant BV

Het gebruik van data binnen Tax PwC Eric Dankaart November 2016

Big Data Feit of Fictie?

Agenda. Voorstellen. Uw applicatie. Technische context. Project aanpak

LDA Topic Modeling. Informa5ekunde als hulpwetenschap. 9 maart 2015

Wat kan klantcontact met kunstmatige intelligentie?

Parking Surveillance. foreground/background segmentation - objectherkenning. Examen Beeldverwerking Pieter Vancoillie

AI en Data mining. Van AI tot Data mining. dr. Walter Kosters, Universiteit Leiden. Gouda woensdag 17 oktober

Incore Solutions Learning By Doing

Internet of Things in perspectief geplaatst. Herman Tuininga. Oktober 10, 2017

Afstanden in Sociale Netwerken. Frank Takes Open Dag Informatica 30 november 2012

Inleiding Adaptieve Systemen Hoofdstuk 5: Ongesuperviseerd Leren

Tentamen in2205 Kennissystemen

HERE TO CHANGE KNOWLEDGE MANAGEMENT

(Net)working in the Connected World INTEGRAAL WATERBELEID STROOMLIJNEN

Cursus Programmeren en Dataverwerking.

MyDHL+ Tarief berekenen

11011 Processor MMI Intro. Binaire representatie. Computer: Logische opbouw (Von Neumann) 3-input 1-hot detector.

Data Mining: Classificatie

Internet of things. Gert Dam. Founder & Sales Director IMBU B.V Eaton. All Rights Reserved.

ZELF DENKENDE WEBSHOP

Recursion. Introductie 37. Leerkern 37. Terugkoppeling 40. Uitwerking van de opgaven 40

Het computationeel denken van een informaticus Maarten van Steen Center for Telematics and Information Technology (CTIT)

Aanvliegroute en Risicominimalisatie bij Auto ID Project

Workshop FLL. Leer robots programmeren. Marieke Peelen Lennart de Graaf Daryo Verouden -

3HUIRUPDQFH0HDVXUHPHQW RI'\QDPLFDOO\&RPSLOHG -DYD([HFXWLRQV

Machine Learning en big data in het sociaal domein. Divosa congres 15 juni 2017

BENIEUWD WAT MORGEN BRENGT?

Wilco te Winkel, Liesbeth Mantel Erasmus University Rotterdam,NL

Open vragen. Naam:...

Hopfield-Netwerken, Neurale Datastructuren en het Nine Flies Probleem

WFS 3.0 De geo-api van de toekomst. Linda van den Brink, Geonovum 13 februari #DataToBuildOn

recursie Hoofdstuk 5 Studeeraanwijzingen De studielast van deze leereenheid bedraagt circa 6 uur. Terminologie

Whitepaper Intelligente PIM oplossingen

Modeling Cognitive Development on Balance Scale Phenomena[4] Replicatie van Shultz et al.

von-neumann-architectuur Opbouw van een CPU Processoren 1 december 2014

RISK ASSESSMENTS. A Must Do, or.

Van Big Data tot waardevolle informatie op maat van de (interne)gebruiker en de burger

Gebruikershandleiding POM demonstrator

Intelligente Spelen. Pieter Spronck. TouW Informatica Symposium, Open Universiteit, Universiteit van Tilburg

Het classificeren van hoortoestel modaliteiten m.b.v. een Big Data benadering: Latent Class Trees analyse

Inleiding Programmeren 2

Nationaal verkeerskundecongres 2018

High Performance Computing

375,00 excl. BTW. Ervaren Photoshop-gebruikers die zin hebben in tal van nieuwe tips & tricks.

Wegwijzer: Een geschikt medium kiezen

TestNet voorjaarsevent 15 mei Testen met AI. Op weg naar een zelflerende testrobot. TestNet werkgroep Testen met AI. Sander Mol Marco Verhoeven

math inside Model orde reductie

Reducing catastrophic interference

Aantekeningen Ch. 4 Artificial neural networks

Transcriptie:

Neurale Netwerken en Deep Learning Tijmen Blankevoort

De toekomst - Internet of Things

De toekomst - sluiertipje Je gezondheid wordt continue gemonitored Je dieet wordt voor je afgestemd -> Stroomversnelling onderzoek

Big Data Heel veel data Wat te doen met de data? Nu al: youtube/facebook

Probleemstelling - Machine learning Classificatie

Classificatie definitie Wereld, targets Voorbeelden random getrokken Targets Extrapolatie? Vind:

Classificatie - Wat voor vragen Wat is dit plaatje? Wat is dit geluid? Wat is de kans dat klant klikt? (Regressie)

Big data classificatie Veel data Mogelijkheden! Weinig informatie

Big data algoritme? Gebruik veel data schaalt Parallelizeerbaar Complexe verbanden

Classificatie - Vroeger Support Vector Machines Random Forests

Classificatie plaatjes - Vroeger De oude computer vision manier

Eigen features bouwen De oude computer vision manier: Bouw je eigen features. Schaalt niet Kost veel tijd Expert systemen 1970s?

Big data algoritme? Gebruik veel data schaalt Parallelizeerbaar Complexe verbanden Mogelijkheid big data: Zelf features vinden!

Begrijp een plaatje! Leer concepten, geen truukjes!

Deep Learning Machine learning Gebruik Neurale Netwerken! - Big Data - Leer extreem complexe problemen - Leert features automatisch Een nieuw machine learning tijdperk

Deep learning wint alle competities - IJCNN 2011 Verkeersborden - ISBI 2012 Cel segmentatie - ICDAR 2011 Chinese handschrift herkenning

Applications Veel state of the art systemen gebruiken tegenwoordig Deep Learning - IBMs Watson: Jeopardy 2011 - Google s zelf-rijdende auto - Google Glasses - Facebook gezichtsherkenning - Facebook modelleren gebruikers - Netflix recommender

Google Brain (2011) - 10 miljoen youtube plaatjes - 1 miljard parameters - 16.000 processoren - Unsupervised stap! - 20.000 categorieen - 15.8% correct

Biologische inspiratie Neuron

Neuron computer model

Activatie functie Sigmoid activation function

Neuron computer model

Simpele functies met een neuron

Complexere Functies - XOR

Elke functie is te representeren! Combinatie van logische functies - Elke logische functie Netwerk met 1 hidden layer en sigmoid activatie - Elke continue functie

Trainen van een neuraal netwerk - Gewichten random initialiseren - Geef de datapunten 1 voor 1 - Bereken verschil tussen output netwerk en gegeven output - Update de gewichten (gradient descent) - Doe dit meerdere keren voor de hele dataset - Eind resultaat: Gegeven nieuwe input, netwerk geeft output Trainen is een zoektocht naar de goede gewichten.

Neurale netwerken in de jaren 90 - Leren meerdere lagen - Back propagation - Netwerk kan theoretisch gezien elke functie leren Maar... Erg langzaam en inefficient - Machine learning vergeet neurale netwerken en aandacht op SVM s, random forests etc.

Big Data - Deep learning (2006) - Feature representatie! - Erg grote netwerken (complex) - Groot netwerk = veel data Probleem: Normale backpropagation werkt niet goed voor grote netwerken!

Deep learning (2006) - Precies dezelfde netwerken als voorheen, alleen veel groter! - Combinatie van drie factoren: - (Big data) - Betere algoritmes - Parallel computing (GPU)

Betere train methode Restricted Boltzmann machine Pre-training: Initialiseer het netwerk slim Daarna normaal trainen. We knippen het grote netwerk in paartjes.

Restricted Boltzmann Machine Twee verbonden lagen (bipartiet) Zelfde als twee lagen neuraal netwerk Generatief stochastisch neuraal netwerk dat een probabiliteits distributie leert over de inputs Deze gaan we unsupervised trainen

Restricted Boltzmann Machine Eindresultaat: Resultaten dienen hetzelfde te zijn

Restricted Boltzmann Machine Input Kans 000 0 001 0.25 010 0 011 0.25 100 0 101 0 110 0.25 111 0.25 hidden input 00 001 01 011 10 110 01 111

Restricted Boltzmann Machine Input Kans 000 0.05 001 0.2 010 0.05 011 0.2 100 0.05 101 0.05 110 0.2 111 0.2 hidden input 00 001 01 011 10 110 01 111

Contrastive Divergence Pak een input uit je data Start met binary train input op de visible vector Trek alles random Bereken de weight update Rinse and repeat Unsupervised!

Contrastive Divergence It relies on an approximation of the gradient (a good direction of change for the parameters) of the log-likelihood (the basic criterion that most probabilistic learning algorithms try to optimize) based on a short Markov chain (a way to sample from probabilistic models) started at the last example seen.

Layer 1 Richar Socher, Yoshua Bengio and Chris Manning. Deep Learning for NLP (without magic), ACL 2012

Toepassen op elke laag

Next Layers Layer 3 Layer 2 Layer 1 Richar Socher, Yoshua Bengio and Chris Manning. Deep Learning for NLP (without magic), ACL 2012

De beste feature extractor?!

De beste feature extractor?!

Na pre-trainen Na unsupervised pre-trainen: Back propagation toepassen en klaar!

Deep learning (2006) - Combinatie van drie factoren: - (Big data) - Betere algoritmes - Parallel computing (GPU)

Gebruik de GPU

Parallel (GPU) power - Elke set weights kunnen we opslaan als een matrix (w_ij) - Alle neurale netwerk berekeningen gebeuren parallel per laag (15-80 keer sneller op GPU dan op enkele CPU) - Batch updates - CPU parallelizing ook mogelijk

Deep Learning = de toekomst Complexe verbanden Zelf features vinden Gebruik veel data schaalt Parallelizeerbaar

Toekomst van Deep Learning - Explosie aan nieuw onderzoek - Hessian-Free networks (2010) - Long Short Term Memory (2011) - Large Convolutional nets, max-pooling (2011) - Nesterov s Gradient Descent (2013) - Dropout

Toekomst door Deep Learning Veel intelligentere systemen Verregaande automatisering