P (X n+1 = j X n = i, X n 1,..., X 0 ) = P (X n+1 = j X n = i). P (X n+1 = j X n = i) MARKOV KETENS. Definitie van Markov keten:

Vergelijkbare documenten
P (X n+1 = j X n = i, X n 1,..., X 0 ) = P (X n+1 = j X n = i). P (X n+1 = j X n = i) MARKOV KETENS. Definitie van Markov keten:

Zoek de unieke oplossing van het stelsel π = π P waarvoor bovendien geldt dat i S π i = 1.

P = LIMIETGEDRAG VAN MARKOV KETENS Limietverdeling van irreducibele, aperiodieke Markov keten:

INLEIDING. Definitie Stochastisch Proces:

Deel 2 van Wiskunde 2

MARKOV MODEL MET KOSTEN In Markov modellen zijn we vaak geïnteresseerd in kostenberekeningen.

MARKOV MODEL MET KOSTEN In Markov modellen zijn we vaak geïnteresseerd in kostenberekeningen.


Definitie van continue-tijd Markov keten:

Definitie van continue-tijd Markov keten:

MARKOV KETENS, OF: WAT IS DE KANS DAT MEVROUW DE VRIES NAT ZAL WORDEN?

Vragen die je wilt beantwoorden zijn:

Q is het deel van de overgangsmatrix dat correspondeert met overgangen

0 2λ µ 0

LIMIETGEDRAG VAN CONTINUE-TIJD MARKOV KETENS

P (X n+1 = j X n = i, X n 1,..., X 0 ) = P (X n+1 = j X n = i).

NETWERKEN VAN WACHTRIJEN

p j r j = LIMIETGEDRAG VAN CONTINUE-TIJD MARKOV KETENS Hoofdstelling over het limietgedrag van continue-tijd Markov ketens formuleren.

Stochastische Modellen in Operations Management (153088)

S n = tijdstip van de n-de gebeurtenis, T n = S n S n 1 = tijd tussen n-de en (n 1)-de gebeurtenis.

Tentamen Inleiding Kansrekening 9 juni 2016, 10:00 13:00 Docent: Prof. dr. F. den Hollander

GESLOTEN NETWERKEN VAN WACHTRIJEN

Tentamen Inleiding Kansrekening 25 juni 2009, uur Docent: F. den Hollander

S n = tijdstip van de n-de gebeurtenis, T n = S n S n 1 = tijd tussen n-de en (n 1)-de gebeurtenis.

De dimensie van een deelruimte

Hertentamen Inleiding Kansrekening 5 juli 2017, 14:00 17:00 Docent: Prof. dr. F. den Hollander

WACHTRIJMODELLEN. aankomstproces van klanten; wachtruimte (met eindige of oneindige capaciteit); bedieningsstation (met één of meerdere bediendes).

WACHTRIJMODELLEN. aankomstproces van klanten; wachtruimte (met eindige of oneindige capaciteit); bedieningsstation (met één of meerdere bediendes).

Uitwerking Hertentamen Inleiding Kansrekening 6 juli 2015, uur Docent: Prof. dr. F. den Hollander

Tentamen Inleiding Kansrekening wi juni 2010, uur

Modellen en Simulatie Lesliematrices Markovketens

VU University Amsterdam 2018, Maart 27

Het tentamen heeft 25 onderdelen. Met ieder onderdeel kan maximaal 2 punten verdiend worden.

Stochastische Modellen in Operations Management (153088)

Tentamen Inleiding Kansrekening 16 juni 2017, 14:00 17:00 Docent: Prof. dr. F. den Hollander

Vrije Universiteit Amsterdam Opleiding Wiskunde - Bachelorscriptie. Vernieuwingsrijen. Arno E. Weber. studentnummer:

Toepassingen op differentievergelijkingen

Tentamen Voortgezette biostatistiek / Biomedische wiskunde

Department of Mathematics Exam: Voortgezette biostatistiek / Biomedische wiskunde VU University Amsterdam 2017, Juni 7

FACULTEIT ECONOMIE EN BEDRIJFSKUNDE Afdeling Kwantitatieve Economie

Hertentamen Voortgezette biostatistiek / Biomedische wiskunde

Hertentamen Biostatistiek 3 / Biomedische wiskunde

Hoofdstuk 3 : Determinanten

VU University Amsterdam 2018, juli 11.

Stochastische Modellen in Operations Management (153088)

TW2040: Complexe Functietheorie

Wachttijdtheorie (vakcode )

b) Uit Bayes volgt, gebruik makend van onderdeel a) P (T V )P (V ) P (T ) = (0.09)(0.07)

We zullen de volgende modellen bekijken: Het M/M/ model 1/14

BESLISKUNDE A. Najaar 2016 Deel 1. L.C.M. KALLENBERG en F.M. SPIEKSMA

Bekijk nog een keer het stelsel van twee vergelijkingen met twee onbekenden x en y: { De tweede vergelijking van de eerste aftrekken geeft:

Tentamen Inleiding Kansrekening 12 augustus 2010, uur Docent: F. den Hollander

Monte Carlo Markov-ketens

Discrete Wiskunde 2WC15, Lente Jan Draisma

Stelsels Vergelijkingen

Getaltheorie groep 3: Primitieve wortels

Lineaire Algebra voor ST

Algoritmes in ons dagelijks leven. Leve de Wiskunde! 7 April 2017 Jacobien Carstens

Inleiding in de theorie van de STOCHASTISCHE PROCESSEN

Tentamen Biostatistiek 3 / Biomedische wiskunde

Bayesiaans leren. Les 2: Markov Chain Monte Carlo. Joris Bierkens. augustus Vakantiecursus 1/15

3.2 Vectoren and matrices

Inhoud college 5 Basiswiskunde Taylorpolynomen

Bayesiaans leren. Les 2: Markov Chain Monte Carlo. Joris Bierkens. augustus Vakantiecursus 1/15

13 Hidden Markov Modellen.

3 De duale vectorruimte

Hoofdstuk 1 : Vectoren (A5D)

BESLISKUNDE A. Najaar 2017 Deel 1. L.C.M. KALLENBERG en F.M. SPIEKSMA

10.0 Voorkennis. cos( ) = -cos( ) = -½ 3. [cos is x-coördinaat] sin( ) = -sin( ) = -½ 3. [sin is y-coördinaat] Willem-Jan van der Zanden

Complexe e-macht en complexe polynomen

Vectormeetkunde in R 3

a) Bepaal punten a l en b m zó dat de lijn door a en b parallel is met n.

Uitwerking Tentamen Inleiding Kansrekening 11 juni 2015, uur Docent: Prof. dr. F. den Hollander

Oefenopgaven Grondslagen van de Wiskunde A

Determinanten. , dan is det A =

Department of Mathematics Exam: Voortgezette biostatistiek / Biomedische wiskunde VU University Amsterdam 2017, Maart 28

De partitieformule van Euler

Hoofdstuk 1. Inleiding. Het binomiaalgetal ( n

Discrete Structuren. Piter Dykstra Opleidingsinstituut Informatica en Cognitie

Cover Page. The handle holds various files of this Leiden University dissertation

Tentamen Grondslagen van de Wiskunde A Met beknopte uitwerking

te vermenigvuldigen, waarbij N het aantal geslagen Nederlandse munten en B het aantal geslagen buitenlandse munten zijn. Het resultaat is de vector

Toepassingen op matrices - Opgave

Kettingbreuken. 20 april K + 1 E + 1 T + 1 T + 1 I + 1 N + 1 G + 1 B + 1 R + 1 E + 1 U + 1 K + E + 1 N A + 1 P + 1 R + 1 I + 1

Technische Universiteit Delft. ANTWOORDEN van Tentamen Gewone differentiaalvergelijkingen, TW2030 Vrijdag 30 januari 2015,

Toegepaste Wiskunde 2: Het Kalman-filter

Lineaire Algebra voor W 2Y650

Lineaire Algebra voor ST

Lineaire Algebra Een Samenvatting

Oude tentamenopgaven

S n = tijdstip van de n-de gebeurtenis, T n = S n S n 1 = tijd tussen n-de en (n 1)-de gebeurtenis.

Overzicht Fourier-theorie

Ter Leering ende Vermaeck

Getaltheorie I. c = c 1 = 1 c (1)

Combinatoriek groep 1 & 2: Recursie

Lineaire Algebra (wi2142tn) Les 5: Determinanten. Joost de Groot Les 5. Faculteit EWI, Toegepaste Wiskunde. Technische Universiteit Delft

Nu een leuk stukje wiskunde ter vermaak (hoop ik dan maar). Optellen van oneindig veel getallen

Chapter 4: Continuous-time Markov Chains (Part I)

Aanvullingen bij Hoofdstuk 6

Kies voor i een willekeurige index tussen 1 en r. Neem het inproduct van v i met de relatie. We krijgen

Transcriptie:

Definitie van Markov keten: MARKOV KETENS Een stochastisch proces {X n, n 0} met toestandsruimte S heet een discrete-tijd Markov keten (DTMC) als voor alle i en j in S geldt P (X n+ = j X n = i, X n,..., X 0 ) = P (X n+ = j X n = i). In woorden: Gegeven het heden X n en het verleden X 0,..., X n van het proces hangt de toekomst X n+ alleen af van het heden en niet van het verleden. De conditionele kansen P (X n+ = j X n = i) heten -staps overgangskansen. /25

In de meeste toepassingen geldt voor alle n: P (X n+ = j X n = i) = P (X = j X 0 = i) = p i,j, i.e., de -staps overgangskansen zijn tijdhomogeen (ze hangen niet van n af). In het vervolg kijken we alleen naar tijdhomogene Markov ketens! De N N matrix P = p, p,2... p,n p 2,. p 2,2.... p 2,N. p N, p N,2... p N,N heet de -staps overgangsmatrix en speelt een belangrijke rol bij de analyse van Markov ketens. 2/25

Visualisatie van Markov keten: We visualiseren Markov ketens met behulp van een transitiediagram. Transitiediagram: Een transitiediagram is een gerichte graaf met N knopen. De knopen in de graaf stellen de toestanden van de Markov keten weer. We tekenen een pijl van knoop i naar knoop j wanneer p i,j > 0. Bij de pijl zetten we de waarde p i.j. Voorbeeld: P = 0 0 0.5 0 0.5 0. 0.6 0.3 0.5 0.5 2 3 0.6 0. 0.3 3/25

TRANSIËNTE VERDELINGEN Transiënte verdeling: P (X n = j), j S, voor zekere n 0. Limiet verdeling: lim n P (X n = j), j S. Transiënte verdelingen kunnen berekend worden m.b.v. P (X n = j) = i S = i S P (X n = j, X 0 = i) P (X 0 = i) P (X n = j X 0 = i) De kansen P (X n = j X 0 = i) heten n-staps overgangskansen. Vraag: Hoe berekenen we de n-staps overgangskansen? 4/25

Notatie: Dan geldt voor alle i en j: p (2) i,j = P (X 2 = j X 0 = i) = k S p (n) i,j := P (X n = j X 0 = i) P (X 2 = j, X = k X 0 = i) = k S = k S = k S P (X = k X 0 = i) P (X 2 = j X = k, X 0 = i) P (X = k X 0 = i) P (X 2 = j X = k) p i,k p k,j. Conclusie: Voor de 2-staps overgangsmatrix P (2) geldt P (2) = P P = P 2 5/25

Evenzo kan je bewijzen dat voor de n-staps overgangsmatrix P (n) geldt P (n) = P n In woorden: De n-staps overgangsmatrix P (n) is gelijk aan n-de macht van de matrix P. Opmerking: Het gebruik van Matlab kan erg handig zijn bij het berekenen van hogere machten van de matrix P. 6/25

Noteer met a (n) de transiënte verdeling van de Markov keten op tijdstip n, d.w.z. a (n) = [a (n),..., a (n) N ] = [P (X n = ),..., P (X n = N)] dan volgt uit de al eerder getoonde formule P (X n = j) = i S P (X 0 = i) P (X n = j X 0 = i) dat a (n) = a (0) P n Conclusie: Als je voor een Markov keten de beginverdeling a (0) en de overgangsmatrix P kent, kan je voor elke n de transiënte verdeling a (n) uitrekenen. 7/25

LIMIETGEDRAG VAN MARKOV KETENS Tot nu toe hebben we gekeken naar het transiënte gedrag van Markov ketens a (n) = [a (n),..., a (n) N ] = [P (X n = ),..., P (X n = N)] voor zekere eindige waarde van n. In het vervolg zullen we kijken naar het limietgedrag van Markov ketens π = [π,..., π N ] = [ lim a (n),..., lim a (n) N ] n n = [ lim P (X n = ),..., lim P (X n = N)] n n De vector π heet de limietverdeling van de Markov keten. 8/25

Vragen die we willen beantwoorden zijn: Bestaat de limietverdeling altijd? Als de limietverdeling bestaat, is hij dan uniek? (Hangt limietverdeling af van beginverdeling van de Markov keten? Of krijg je, onafhankelijk van beginverdeling, dezelfde limietverdeling?) Hoe bereken je de limietverdeling als hij bestaat? We zullen eerst naar een drietal voorbeelden kijken. 9/25

Voorbeeld : P = 0 0 Stel P (X 0 = ) =. Dan geldt a (0) = [, 0], a () = [0, ], a (2) = [, 0], a (3) = [0, ],. =. a (2n) = [, 0], a (2n+) = [0, ]. Conclusie: Limietverdeling bestaat niet! 2 0/25

Voorbeeld 2: P = 0 0.5 0.5 0 0 0 0 0.5 0 0 0 0 0 0 3 0.5 2 4 Stel P (X 0 = ) = Stel P (X 0 = 2) = a (0) = [, 0, 0, 0] a (0) = [0,, 0, 0] a () = [0, 0.5, 0.5, 0] a () = [0, 0, 0, ] a (2) = [0, 0, 0.5, 0.5]. a (2) = [0, 0, 0, ]. a (n) = [0, 0, 0.5, 0.5] a (n) = [0, 0, 0, ] Conclusie: Limietverdeling hangt af van beginverdeling! /25

Voorbeeld 3: 0.50 0.50 0.50 P = 2 0.75 0.25 0.75 0.50 0.25 Stel P (X 0 = ) = Stel P (X 0 = 2) = a (0) = [.000, 0.000] a (0) = [0.000,.000] a () = [0.500, 0.500] a () = [0.750, 0.250] a (2) = [0.625, 0.375] a (2) = [0.563, 0.437] a (3) = [0.594, 0.406] a (3) = [0.60, 0.390] a (4) = [0.602, 0.398] a (4) = [0.598, 0.402] a (5) = [0.600, 0.400]. a (5) = [0.600, 0.400]. Conclusie: Unieke limietverdeling! 2/25

Voor de Markov keten uit Voorbeeld hebben we gezien dat er GEEN limietverdeling bestaat. WEL bestaan er voor dit voorbeeld een stationaire verdeling en een zogenaamde occupatie verdeling. Definitie: Een verdeling π = [π,..., π N] heet een stationaire verdeling als geldt P (X 0 = i) = π i, voor i =,..., N P (X n = i) = π i, voor i =,..., N en alle n 0 Ga voor Voorbeeld na dat π = [/2, /2] een stationaire verdeling is. 3/25

Definitie: Laat N j (n) het aantal bezoeken van een Markov keten aan toestand j in de tijdspanne {0,,..., n} zijn en ˆπ j = lim n E(N j (n)) n +, de lange-termijn fractie van de tijd dat de Markov keten zich in toestand j bevindt. De verdeling ˆπ = [ˆπ,..., ˆπ N ] noemen we de occupatie verdeling van de Markov keten. Ga voor Voorbeeld na dat, onafhankelijk van de beginverdeling van de Markov keten, ˆπ = [/2, /2] de occupatie verdeling is. 4/25

Hoe berekenen we nu limietverdelingen, stationaire verdelingen en occupatieverdelingen van Markov ketens? Deze vraag wordt gedeeltelijk beantwoord door de volgende stelling (zie de Stellingen 2.5, 2.6 en 2.7 in het boek). Stelling: Voor zowel een limietverdeling π, een stationaire verdeling π en een occupatie verdeling ˆπ geldt dat, als ze bestaan, ze een oplossing zijn van het stelsel vergelijkingen π = π P (respectievelijk π = π P en ˆπ = ˆπ P ) waarvoor bovendien geldt dat N π i= i = (respectievelijk N i= π i = en N ˆπ i= i = ). 5/25

Waarom geldt dat er in Voorbeeld GEEN limietverdeling bestaat, er in Voorbeeld 2 MEERDERE limietverdelingen bestaan en er in Voorbeeld 3 een UNIEKE limietverdeling bestaat? Om een antwoord op deze vraag te kunnen geven, zullen we eerst twee structuureigenschappen van Markov ketens formuleren. Definitie 2.3: Een Markov keten heet irreducibel als er voor alle i S en alle j S een k > 0 bestaat zodanig dat p (k) i,j > 0. Als een Markov keten niet aan deze eigenschap voldoet, noemen we hem reducibel. Merk op dat een Markov keten irreducibel is dan en slechts dan als je van iedere toestand i naar iedere andere toestand j kunt komen, in één of meerdere stappen. Vraag: Zijn de Markov ketens in Voorbeeld, 2 en 3 reducibel of irreducibel? 6/25

Definitie 2.4: Laat X n een irreducibele Markov keten zijn en laat d het grootste gehele getal zijn zodanig dat voor alle i S geldt p (n) i,i > 0 n is een veelvoud van d. De Markov keten heet periodiek met periode d als d > en aperiodiek als d =. Vraag: Zijn de Markov ketens in Voorbeeld en 3 periodiek of aperiodiek? We zullen nu de hoofdstelling over het limietgedrag van Markov ketens formuleren. 7/25

Stelling: Een irreducibele, aperiodieke Markov keten met eindige toestandsruimte S heeft een unieke limietverdeling π, een unieke stationaire verdeling π en een unieke occupatie verdeling ˆπ. Alle verdelingen zijn gelijk (π = π = ˆπ) en ze zijn de unieke oplossing van het stelsel π = πp waarvoor geldt i S π i =. Voor een irreducibele, periodieke Markov keten geldt bovenstaand resultaat nog wel voor de stationaire verdeling en de occupatie verdeling. De limietverdeling bestaat in dit geval echter niet. Het limietgedrag van reducibele Markov ketens wordt besproken in sectie van de handout. 8/25

Vervolg Voorbeeld 3: 0.50 0.50 0.50 P = 2 0.75 0.25 0.75 0.50 0.25 Dit is een voorbeeld van een irreducibele, aperiodieke Markov keten. Het stelsel vergelijkingen π = πp is in dit geval π = 0.50π + 0.75π 2, π 2 = 0.50π + 0.25π 2. Beide vergelijkingen reduceren tot de vergelijking 0.50π = 0.75π 2. Samen met de normalisatievergelijking π + π 2 = geeft dit de unieke oplossing π = 0.60, π 2 = 0.40. 9/25

LIMIETGEDRAG VAN REDUCIBELE MARKOV KETEN In het voorgaande hebben we gezien hoe we de limietverdeling van een irreducibele, aperiodieke Markov keten kunnen berekenen. Maar hoe berekenen we nu de limietverdeling van een reducibele Markov keten? Vervolg voorbeeld 2: P = 0 0.5 0.5 0 0 0 0 0.5 0 0 0 3 0 0 0 0.5 2 4 Het stelsel π = πp geeft nu π = 0, π 2 = 0.5π, π 3 = 0.5π + π 3, π 4 = π 2 + π 4. De normalisatievergelijking is π + π 2 + π 3 + π 4 =. 20/25

We concluderen dat iedere verdeling π = [0, 0, α, α], met 0 α, een genormaliseerde oplossing is van het stelsel π = πp. Maar hoe weten we nu hoe we, afhankelijk van de beginverdeling, de waarde van α moeten kiezen? Waarom geldt als P (X 0 = ) dat π = [0, 0, /2, /2] en dus dat we α = /2 moeten kiezen? En waarom geldt als P (X 0 = 2) dat π = [0, 0, 0, ] en dus dat we α = 0 moeten kiezen? En hoe zit het voor een willekeurige beginverdeling a (0)? Om antwoord op deze vragen te geven, zullen we een stappenplan formuleren voor het vinden van de limietverdeling van een reducibele Markov keten. 2/25

Stap : STAPPENPLAN VOOR HET VINDEN VAN LIMIETVERDELING VAN REDUCIBELE MARKOV KETEN. Verdeel de toestandsruimte S van de Markov keten in een aantal eindklassen E,..., E m en een verzameling doorgangstoestanden C zodanig dat S = C E E m. Een eindklasse is een verzameling van verbonden toestanden zodanig dat als de Markov keten in deze verzameling toestanden terecht komt, hij daar nooit meer uit kan komen. Met een verzameling van verbonden toestanden bedoelen we dat je van iedere toestand in de verzameling in één of meer stappen naar iedere andere toestand kan komen. Toestanden die niet in een eindklasse zitten noemen we doorgangstoestanden. 22/25

Stap 2: Bepaal voor iedere toestand i S en voor iedere eindklasse E j, j =,..., m, de kans q i,ej dat de Markov keten, bij start in toestand i, in de eindklasse E j belandt. Stap 3: Bepaal voor iedere eindklasse de limietverdeling (als die bestaat) van de Markov keten, gegeven dat je in deze eindklasse terecht bent gekomen. Merk op dat binnen een eindklasse een Markov keten zich gedraagt als een irreducibele Markov keten. We weten dus hoe we in zo n geval de limietverdeling kunnen uitrekenen. De limietverdeling van een reducibele Markov keten volgt uit een combinatie van de voorgaande drie stappen! 23/25

Vervolg voorbeeld 2: P = 0 0.5 0.5 0 0 0 0 0.5 0 0 0 3 0 0 0 0.5 2 4 Stap : E = {3}, E 2 = {4}, C = {, 2}. Stap 2: q,e = q,e2 = /2, q 2,E = q 3,E2 = q 4,E = 0, q 2,E2 = q 3,E = q 4,E2 =. Stap 3: In eindklasse E geldt π 3 =, in eindklasse E 2 geldt π 4 =. Combinatie van stappen, 2 en 3 geeft de limietverdeling: Als P (X 0 = ) dan π = [0, 0, /2, /2], als P (X 0 = 2) dan π = [0, 0, 0, ] 24/25

Voorbeeld 4: P = /3 /6 /3 0 0 0 /6 3/5 0 0 /5 /5 0 0 0 0 /2 /2 0 0 0 0 0 /4 3/4 0 0 0 0 0 0 0 0 0 0 0 0 0 0 /4 3/4 0 0 0 0 /2 0 /2. Stap : Teken plaatje en bepaal eindklassen + doorgangstoestanden. Stap 2: Stel stelsel vergelijkingen op voor de kansen q i,ej. Stap 3: Bepaal de limietverdeling voor de verschillende eindklassen. Combineer de stappen,2 en 3. 25/25