Samenvatting Statistiek

Vergelijkbare documenten
Tentamen Kansrekening en Statistiek (2WS04), dinsdag 17 juni 2008, van uur.

Kansrekening en statistiek wi2105in deel I 29 januari 2010, uur

Vandaag. Onderzoeksmethoden: Statistiek 3. Recap 2. Recap 1. Recap Centrale limietstelling T-verdeling Toetsen van hypotheses

Kansrekening en Statistiek

Hoofdstuk 3 Statistiek: het toetsen

Hoofdstuk 5 Een populatie: parametrische toetsen

Medische Statistiek Kansrekening

Tentamen Kansrekening en Statistiek MST 14 januari 2016, uur

Inleiding Applicatie Software - Statgraphics

Inleiding Applicatie Software - Statgraphics. Beschrijvende Statistiek

Inhoud. 1 Inleiding tot de beschrijvende statistiek Maatstaven voor ligging en spreiding Kansrekening 99

Kansrekening en Statistiek

Vrije Universiteit 28 mei Gebruik van een (niet-grafische) rekenmachine is toegestaan.

Tentamen Mathematische Statistiek (2WS05), vrijdag 29 oktober 2010, van uur.

TECHNISCHE UNIVERSITEIT EINDHOVEN Faculteit Wiskunde en Informatica. Tentamen Statistiek (2DD14) op vrijdag 17 maart 2006, uur.

HOOFDSTUK 6: INTRODUCTIE IN STATISTISCHE GEVOLGTREKKINGEN

Kansrekening en Statistiek

Wiskunde B - Tentamen 2

Oefenvragen bij Statistics for Business and Economics van Newbold

TECHNISCHE UNIVERSITEIT EINDHOVEN Faculteit Wiskunde en Informatica

Examen Statistiek I Feedback

DEEL 3 INDUCTIEVE STATISTIEK INLEIDING TOT DE INDUCTIEVE STATISTIEK 11.2 DE GROOTSTE AANNEMELIJKHEID - METHODE

Kansrekening en statistiek wi2105in deel 2 16 april 2010, uur

5.0 Voorkennis. Voorbeeld 1: In een vaas zitten 10 rode, 5 witte en 6 blauwe knikkers. Er worden 9 knikkers uit de vaas gepakt.

Deze week: Steekproefverdelingen. Statistiek voor Informatica Hoofdstuk 7: Steekproefverdelingen. Kwaliteit van schatter. Overzicht Schatten

4 Domein STATISTIEK - versie 1.2

Kansrekening en Statistiek

Kansrekening en statistiek WI2105IN deel I 4 november 2011, uur

Kansrekening en statistiek WI2211TI / WI2105IN deel 2 2 februari 2012, uur

36, P (5) = 4 36, P (12) = 1

Populatie: De gehele groep elementen waarover informatie wordt gewenst.

Hoofdstuk 4 Kansen. 4.1 Randomheid

Statistiek voor A.I.

Statistiek voor A.I. College 10. Dinsdag 16 Oktober

VOOR HET SECUNDAIR ONDERWIJS. Kansmodellen. 3. Populatie en steekproef. Werktekst voor de leerling. Prof. dr. Herman Callaert

Hoofdstuk 6 Twee populaties: parametrische toetsen

Kansrekening en Statistiek

Cursus Statistiek Hoofdstuk 4. Statistiek voor Informatica Hoofdstuk 4: Verwachtingen. Definitie (Verwachting van discrete stochast) Voorbeeld (1)

Verklarende Statistiek: Toetsen. Zat ik nou in dat kritische gebied of niet?

Vandaag. Onderzoeksmethoden: Statistiek 2. Basisbegrippen. Theoretische kansverdelingen

Deeltentamen 2 Algemene Statistiek Vrije Universiteit 18 december 2013

Data analyse Inleiding statistiek

6.1 Beschouw de populatie die beschreven wordt door onderstaande kansverdeling.

Tentamen Inleiding Statistiek (WI2615) 10 april 2013, 9:00-12:00u

Statistiek voor A.I. College 6. Donderdag 27 September

HOOFDSTUK 7: STATISTISCHE GEVOLGTREKKINGEN VOOR DISTRIBUTIES

Toetsen van Hypothesen. Het vaststellen van de hypothese

Kansrekening en statistiek wi2105in deel 2 27 januari 2010, uur

Hoofdstuk 5: Steekproevendistributies

Statistiek voor A.I. College 4. Donderdag 20 September 2012

Toetsende Statistiek, Week 2. Van Steekproef naar Populatie: De Steekproevenverdeling

+ ( 1 4 )2 σ 2 X σ2. 36 σ2 terwijl V ar[x] = 11. Aangezien V ar[x] het kleinst is, is dit rekenkundig gemiddelde de meest efficiënte schatter.


Sheets K&S voor INF HC 10: Hoofdstuk 12

VOOR HET SECUNDAIR ONDERWIJS

Toetsen van hypothesen

Hoofdstuk 7: Statistische gevolgtrekkingen voor distributies

Kansrekening en Statistiek

Data analyse Inleiding statistiek

. Dan geldt P(B) = a d. 3 8

Kansrekening en Statistiek

VOOR HET SECUNDAIR ONDERWIJS. Kansmodellen. 4. Het steekproefgemiddelde. Werktekst voor de leerling. Prof. dr. Herman Callaert

Les 1: Waarschijnlijkheidrekening

Inleiding Kansrekening en Statistiek

Inleiding Statistiek

TECHNISCHE UNIVERSITEIT EINDHOVEN. Faculteit Wiskunde en Informatica

11.1 Kansberekeningen [1]

9.0 Voorkennis. Bij samengestelde kansexperimenten maak je gebruik van de productregel.

Examen Statistiek I Januari 2010 Feedback

TECHNISCHE UNIVERSITEIT EINDHOVEN. Faculteit Wiskunde en Informatica

Kansrekening en Statistiek

Statistiek voor Natuurkunde Opgavenserie 1: Kansrekening

Tentamen Inleiding Kansrekening 25 juni 2009, uur Docent: F. den Hollander

Formules Excel Bedrijfsstatistiek

Hoofdstuk 12: Eenweg ANOVA

Inhoudsopgave. Deel I Schatters en toetsen 1

SOCIALE STATISTIEK (deel 2)

Voorbeeldtentamen Statistiek voor Psychologie

Hoeveel vertrouwen heb ik in mijn onderzoek en conclusie? Les 1

Meten en experimenteren

Statistiek voor A.I. College 3. Dinsdag 18 September 2012

Data analyse Inleiding statistiek

Kansrekening en Statistiek

Schatten en simuleren

6.1 Beschouw de populatie die wordt beschreven door onderstaande kansverdeling.

Stochastiek 2. Inleiding in de Mathematische Statistiek 1 / 18

Gezamenlijke kansverdeling van twee stochasten

1. Statistiek gebruiken 1

Tentamen Inleiding Kansrekening wi juni 2010, uur

Voorbeeld 1: kansverdeling discrete stochast discrete kansverdeling

HOOFDSTUK II BIJZONDERE THEORETISCHE VERDELINGEN

werkcollege 5 - P&D7: Population distributions - P&D8: Sampling variability and Sampling distributions

Het tentamen heeft 25 onderdelen. Met ieder onderdeel kan maximaal 2 punten verdiend worden.

Uitwerkingen Mei Eindexamen VWO Wiskunde C. Nederlands Mathematisch Instituut Voor Onderwijs en Onderzoek

11.0 Voorkennis. Wanneer je met binomcdf werkt, werk je dus altijd met een kans van de vorm P(X k)

Algemeen overzicht inleiding kansrekening en statistiek

Kansrekening en Statistiek

1. De wereld van de kansmodellen.

Statistiek. Beschrijvend statistiek

Tentamen Mathematische Statistiek (2WS05), dinsdag 3 november 2009, van uur.

Transcriptie:

Samenvatting Statistiek De hoofdstukken 1 t/m 3 gaan over kansrekening: het uitrekenen van kansen in een volledig gespecifeerd model, waarin de parameters bekend zijn en de kans op een gebeurtenis gevraagd is. De hoofdstukken 4 t/m 6 gaan over statistiek: op grond van waarnemingen uitspraken doen omtrent onbekende parameters in het model. Hierin is de mate waarin gebeurtenissen optreden bekend, en wordt gevraagd hier de juiste parameters bij te zoeken zodat een kansmodel ontstaat. Hoofdstuk 1: Basisbegrippen Uitkomstenruimte S: Verzameling van alle mogelijke uitkomsten van een experiment Gebeurtenis A: Eel deelverzameling van S, we schrijven Complement van A: Alle uitkomsten in S behalve de uitkomsten van A, we schrijven Bovenstaande begrippen kunnen gemakkelijk duidelijk gemaakt worden in een Venn diagram: De vereniging van gebeurtenissen A en B is het gebied waar A en/of B voorkomt, we schrijven De doorsnede is het gebied in S waarin zowel gebeurtenis A als B optreedt, we schrijven Indien A en B geen doorsnede hebben noemen we ze disjunct, we schrijven :

Indien alle gebeurtenissen A ook in B zitten, noemen we A een deelverzameling van B, : Aftelbaar oneindig: Een reeks die omgeschreven kan worden naar de reeks natuurlijke getallen, bijv. aantal keer gegooid met een munt is {1, 2, 3,...} Overaftelbaar: Een reeks die niet omgeschreven kan worden naar de reeks natuurlijke getallen, bijv. tijd tussen 2 klanten is {2 min, 3 min, 7 min, 4 min, } Frequentiequotiënt: Empirische wet van grote getallen: als, dus je kunt de kans op succes steeds beter bepalen naarmate je meer experimenten doet. Definities van kansen (Axioma s van Kolmogorov): 1. 0 voor alle 2. 1 3. Als,, disjunct, dan Eigensch appen van kansen: 0 Als, dan 1 1 Voorwaardelijke kans: Kans op B gegeven dat A al is gebeurd, we schrijven. In dit geval noemen we A de gereduceerde uitkomstenruimte. Twee gebeurtenissen heten onderling onafhankelijk als geldt da t Wet van de totale k ans :... ( disjuncte gebeurtenissen) Stelling van Bayes:... ( disjuncte gebeurtenissen)

Hoofdstuk 2: Discrete kansverdelingen Stochastische variabele: mogelijke uitkomst van een experiment. Stochastische variabelen kunnen aantallen (aantal keer kop) of hoeveelheden (lengte, temperatuur) aangeven. Waarde: Een getal dat voor de stochastische variabele ingevuld kan worden, bijv. als je 2 keer met een munt gooit en X is het aantal keer kop, dan kan X de waarden 0,1 of 2 aannemen. Kans: Kans dat de stochastisch e variabele X op een bepaalde waarde x uitkomt Verdelingsfunctie: de functie, meestal i.p.v. Kansverdeling: Alle mogelijke verzamelingen van de waarden en bijbehorende kansen vormen samen een kansverdeling van een stochastische variabele. Discrete kansverdeling: kansverdeling van een eindige of aftelbaar oneindige stochastische variabele. De volgende discrete kansverdelingen moet je kennen: Ontaarde verdeling: De stochastische variabele kan maar 1 waarde aannemen, dus eigenlijk is dit geen echte stochas tische verdeling. 1 voor een zekere Alternatieve verdeling (Bernoulli experiment): Een experiment met slechts 2 uitkomsten: succes of mislukking. Stel X = aantal keer succes en p is de kans op succes. 1, 0 1 Binomiale verdeling: Een reekst Bernoulli experimenten achter elkaar, waarbij de uitkomsten van eerdere experimenten de uitkomsten van de volgende experimenten niet beïnvloeden (trekking met teruglegging). Hierin is n het aantal trekkingen, p de kans op succes e n k het aantal keer succes. We schrijven ~,. 1 met!!! Hypergeometrische verdeling: Een steekproef zonder teruglegging. Hierin is N de totale grootte van de populatie waaruit getrokken wordt (bijv. het totaal aantal ballen in een vaas), r is het aantal elementen uit de steekproef met een bepaald kenmerk (bijv. het aantal rode ballen IN de vaas), x is het aantal getrokken elementen met dat kenmerk (bijv. aantal rode ballen die je UIT de vaas gehaald hebt), n is het totaal aantal trekkingen. Poisson verdeling: Een wet van zeldzame gebeurtenissen, bijv. aantal storingen per jaar. Hierin geeft de in tensiteit weer. We schrijven ~.! Geometrische verdeling: Verdeling die je vertelt hoe lang het duurt voordat je voor de eerste keer succes hebt bij experimenten met teruglegging. Hierbij is geheugenloosheid van belang, bijv. het feit dat je al 10 keer geen zes hebt gegooid maakt de kans op zes bij het 11 e experiment niet groter. We schrijven ~. 1 1 Bij deze verdeling kan ook een failure rate berekend worden:

Simultane kansverdeling: kansverdeling met 2 stochastische variabelen. De stochastische variabelen in een simultane kansverdeling zijn onderling onafhankelijk als voor elke x en y geldt dat,, waarbij je en uit de marginale verdelingen kunt halen. Anders heten X en Y afhankelijk. Marginale kansverdeling: Het berekenen van de kansverdeling van één stochastische variabele uit een simultane kansverdeling. Indien bij een hypergeometrische verdeling de populatie erg groot is en het aantal trekkingen laag, dan kan de teruglegging als het ware verwaarloosd worden, waardoor de verdeling overgaat in een binomiale verdeling. In veel gevallen rekent dit makkelijker. Indien bij een binomiale verdeling het aantal experimenten erg hoog is en de kans is laag, dan kan deze verdeling benaderd worden met een poisson verdeling. Dus als en 0, dan. Verwachting: de gemiddelde waarde die X zal aannemen. Je doet steeds (waarde * kans) en al deze uitkomsten sommeer je. Kansverdeling van functies van X en Y: max, 22,11,22,2 Verwachting van fucties van X en Y: max, 2 1 max, 12 max, 2... max, Eigenschappen van verwachtingen: met... Als X en Y onderling onafhankelijk zijn Steekproefgemiddelde:,,, Variantie: Een maat van spreiding rond de verwachting. Je berekent eerst het gemiddelde E(X). Vervolgens haal je van alle mogelijke waarden van X het gemiddelde af, waardoor je een verschilterm overhoudt. Deze kwadrateer je. Vervolgens vermenigvuldig je de gekwadrateerde verschilterm met de kans die bij de desbetreffende waarde hoort. Tenslotte tel je alle gevonden uitkomsten bij elkaar op en je hebt de variantie.

Eigenschappen van variantie: 2, LET OP: 2, ALS X en Y onderling onafhankelijk LET OP: ALS X en Y onderling onafhankelijk Algemeen:... 2, Standaardafwijking: Covariantie: een maat van afhankelijkheid tussen de stochastische variabelen X en Y.,, Eigenschappen van covariantie: Als X en Y onderling onafhankelijk, Dan, 0, maar andersom hoeft niet per se!,,,,,,,,,, Correlatiecoëfficiënt: Een schaalvrije covariantie., Voor een binomiale verdeling geldt: 1 Voor een poisson verdeling geldt: Voor een geometrische verdeling geldt: 1/ 1/,

Hoofdstuk 3: Continue kansverdelingen Continue stochastische variabelen zijn stochastische variabelen die alle reële getallen in een bepaald interval of in de hele reële rechte als waarden kunnen aannemen. De kans op één bepaalde waarde is nul, omdat het interval dan geen breedte heeft, waardoor het oppervlak onder de grafiek een oneindig dun strookje wordt, en dit strookje heeft geen oppervlakte. De functie die de kansverdeling beschrijft heet de kansdichtheid. Twee belangrijke eigenschappen van zijn: 0 1 Vergelijking tussen discrete en continue kansverdelingen:

Uniforme (of homogene) verdeling: Exponentiële verdeling: 1/ 1/ Een exponentiële functie wordt gekenmerkt door geheugenloosheid, bijv. als een telefoongesprek al 15 minuten heeft geduurd, is de kans dat het nog 5 minuten duurt even groot als de kans dat een net begonnen telefoongesprek nog 5 minuten duurt. Normale verdeling: als ~, (Standaardnormale verdeling als ~0,1) Φ

Centrale limietstelling: Laat,, onderling onafhankelijke stochastische variabelen zijn die alle dezelfde verdeling hebben met eindige verwachting en e indige variantie. Dan geldt: lim lim Φ / Hieruit volgt dat bij grote de som van,, bij benadering normaal verdeeld is met verwachting en variantie. Φ is de verdelingsfunctie van x voor een normale verdeling. Indien je te maken hebt met een oneindige variantie (bijv. het aantal inwoners in een stad, vergelijk Hengelo met Peking, daar zit een gigantische spreiding in en een gemiddelde is moeilijk aan te wijzen) dan zeggen we dat de verdeling een zware staart heeft. Normale benadering van binomiale verdeling: Bij grote kan de binomiale verdeling benaderd worden als een normale verdeling met en 1. Hierbij moet wel rekening gehouden worden met een zogenaamde continuïteitscorrectie: de ondergrens moet je 0,5 lager kiezen en de bovengrens 0,5 hoger.

Hoofdstuk 4: Schatten van parameters Schatter: een methode om p te bepalen (dus een functievoorschrift) Schatting: Resultaat van de schatter (dus een getal) Meest aannemelijke schatter: de schatter die het meest voor de hand ligt, dus alles optellen en delen door. Meest aannemellijke schatter voor het gemiddelde:,,, Meest aannemellijke schatter voor het gemiddelde: NIET ZUIVER WEL ZUIVER Zuivere schatter: (dus onafhankelijk van ) Zuivere schatter voor gemiddelde:,,, (steekproefgemiddelde) Zuivere schatter voor va riantie: (steekproefvariantie) Verwachte kwadratische fout: Verwachte kwadratische fout gemiddelde: Verwachte kwadratische fout variantie: Beste schatter: De schatter met de kleinste kwadratische fout. Dit hoeft niet altijd de meest aannemelijke schatter of zuivere schatter te zijn! LET OP: Bij deze berekeningen is het belangrijk om het verschil te maken tussen X en E(X). X is een uitkomst van een experiment, en kan in principe alle waarden aannemen. Deze is dus bijna altijd onbekend. Je kunt dus ook NIET stellen dan X 1 + X 2 + + X n = n*x 1. E(X) daarentegen is de gemiddelde uitkomst van X die je verwacht, en deze is WEL voor alle X i experimenten hetzelfde, dus hier geldt: E(X 1 + X 2 + + X n ) = n*e(x 1 ).

Om een kansmodel te kunnen maken moeten er eerst metingen gedaan worden. De uitkomsten van deze verschillende metingen kun je indelen in klassen. Bij iedere klasse noteer je vervolgens hoe vaak een meetresultaat binnen die klasse valt. Vervolgens kun je het frequentiequotiënt berekenen, zie hoofdstuk 1. Tenslotte kun je een histogram maken waarin de hoogte van de staven berekend wordt volgens ë/. De oppervlakte van een rechthoekige staaf stelt het frequentiequotiënt voor. Bijv. de levertijd in dagen van een bepaald product: 6 7 18 20 21 22 23 23 25 26 27 28 29 29 29 29 30 30 30 31 32 32 32 33 36 37 37 38 39 40 44 46 48 52 54 55 56 56 57 59 59 64 65 65 70 70 72 74 75 76 77 77 80 84 103 126 167 177 214 303 0 <40 40 29 0,4833 0,0121 40 <80 40 23 0,3833 0,0096 80 <120 40 3 0,0500 0,0013 120 <160 40 1 0,0167 0,0004 160 <200 40 2 0,0333 0,0008 200 <240 40 1 0,0167 0,0004 240 <280 40 0 0 0 280 <320 40 1 0,0167 0,0004 0,014 0,012 0,01 0,008 0,006 0,004 0,002 0 Histogram Hoogte

Hoofdstu k 5: Betrouwbaarheidsintervallen De kans bij een betrouwbaarheidsinterval (afkorting: BI) geeft de kans dat daadwerkelijk in het interval ; zit: 1 Steekproef Betrouwbaarheidsinterval voor : ; Hierbij moet c bepaald worden aan de hand van de student verdeling, met behulp van het aantal vrijjheidsgraden 1 en de waarde 1 Voorspellingsinterval voor de : 1 ; 1 Hierbij moet c bepaald worden aan de hand van de student verdeling, met behulp van het aantal vrijjheidsgraden 1 en de waarde 1. Je gebruikt de student verdeling omdat je werkt met de steekproefvariantie S (de zuivere schatter voor ), in plaats van de e chte variantie. Betrouwbaarheidsinterval voor : ; Hierbij moeten en bepaald worden aan de hand van de chi kwadraat verdeling, met behulp van 1 en de waarden e n 1. LET OP: vergeet niet te wortertrekken bij een BI voor : ; Indien ersprake is van een test met een binomiale verdeling, dan kan het betrouwbaarheidsinterval benaderd worden met de normale verdeling: 1 (bijv. 1 α=0,95 > z=1,96) 2 Steekproeven Indien er gegevens van 2 steekproeven bekend zijn, moet je kijken of er sprake is van gepaarde waarnemingen. Dan horen er steeds twee waarnemingen bij elkaar, bijvoorbeeld: Fabriek 1 2 3 4 5 6 7 8 9 10 Voor (x) 30,5 18,5 24,5 32,0 16,0 15,0 23,5 25,5 28,0 18,0 Na (y) 23,0 21,0 22,0 28,5 14,5 15,5 24,5 21,0 23,5 16,5 Als je het verschil in verwachte urenvermindering wilt weten, maak je een nieuwe variabele Z = X Y: Fabriek 1 2 3 4 5 6 7 8 9 10 Verschil(z) 7,5 2,5 2,5 3,5 1,5 0,5 1 4,5 4,5 1,5

Van deze nieuwe z waarden bepaal je vervolgens het steekproefgemiddelde, steekproefvariantie, betrouwbaarheidsintervallen op dezelfde manier als hierboven beschreven staat voor 1 steekproef. Is dit niet het geval, dan heb je te maken met twee onafhankelijke steekproeven, bijvoorbeeld de tarweopbrengst per hectare van verschillende akkers. Hier is het dus NIET zo dat op dezelfde akker zowel A als B wordt verbouwd en daarna gekeken wat de opbrengst is, maar we pakken gewoon een paar akkers waarop tarwemerk A groeit en een paar andere akkers waarop tarwemerk B groeit: X = Tarwemerk A 36 32 35 40 36 33 37 32 34 Y = Tarwemerk B 34 38 39 38 37 35 42 43 39 39 45 Als je het verschil in verwachte opbrengst wilt weten, gebruik je het volgende betrouwbaarheidsinterval:,. = aantal metingen van X = aantal metingen van Y word t bepaald met de studentverdeling, bij 2 en 1 In sommige gevallen hebben de twee steekproeven allebei een andere variantie, bijvoorbeeld ~, en ~,. Er kan dan een betrouwbaarheidsinterval opgesteld worden voor het quotiënt : ;. Hierbij moet je en bepale n met behulp van de Fisher verdeling. o Voor het bepalen van geldt: 1, 1 o Voor het bepalen van geldt: 1, 1

Hoofdstuk 6: Toetsingstheorie Met behulp van toetsingstheorie kunnen we voorspellen of bepaalde hypothesen juist of onjuist zijn. Hiervoor stellen we twee hypothesen op: de nulhypothese H 0 en de alternatieve hypothese H 1. Dit kunnen zowel enkelvoudige hypothesen (één waarde voor de parameter mogelijk) als samengestelde hypothesen (de parameter komt uit een bepaald interval) zijn. Voordat je met rekenen begint stel je beide hypothesen op, evenals een kansmodel en een onbetrouwbaarheidsdrempel α. Als de kans op een bepaalde gebeurtenis volgens de nulhypothese erg onwaarschijnlijk is, dus kleiner dan de gestelde α, dan moet je de nulhypothese verwerpen. Om H 0 te kunnen verwerpen moet je een steekproeffunctie T=T(X 1,,X n ) opstellen, dit noemen we de toetstingsgrootheid. Als de uitkomst van T in het kritieke gebied K komt, verwerp je H 0. Hiervoor geldt:, voor alle Θ. De maximale kans onder H 0 om de nulhypothese te verwerpen heet de onbetrouwbaarheid van de toets. Deze vind je dus als volgt:, waarbij we c de kritieke waarde noemen. Heb je de kritieke waarde eenmaal gevonden, dan kun je gaan spelen met je onbekende parameter, bijvoorbeeld als de kans van een binomiaal experiment geschat is, dan wordt je onbekende parameter p (dus ). Stel dat H 0 zegt dat bij 70 trekkingen en 0,05, dan kun je berekenen dat H 0 verworpen wordt als de uitkomst van het experiment 4 of lager is (dus 4 is dan de kritieke waarde). Deze kritieke waarde zet je vast, en nu ga je met je kans spelen, stel 0,1. Hoe groot is dan de kans dat je H 0 (die stelt dat ) alsnog accepteert? Dan reken je uit: 4 70 en 0,1 0,16. Dus als H 0 zegt dat en in werkelijkheid geldat dat 0,1, dan heb je nog maar 16% kans dat H 0 verworpen wordt, ook al is H 0 hartstikke fout! Bovenstaande formule noemen we het onderscheidend vermogen van de toets. Omdat er een bepaalde onbetrouwbaarheid in de toets zit, is de kans aanwezig dat H 0 verworpen wordt terwijl hij in werkelijkheid wel juist is. Dit noemen we een fout van de eerste soort. De fout dat H 0 geaccepteerd wordt, terwijl hij in werkelijkheid verworpen zou moeten worden, noemen we een fout van de tweede soort. Hierbij vinden we de fout van de eerste soort het meest ernstig, daarom noemen we H 0 verwerpen de sterke uitspraak. De uitspraak H 0 niet verwerpen is de zwakke uitspraak, omdat je hiermee alleen ontkent dat H 1 juist is, maar niet bevestigt dat H 0 juist is. LET OP: Soms moet je α nog delen door 2, bijvoorbeeld als je bij een normale verdeling zowel de bovenste als onderste waarden wilt uitsluiten!