DEEL 1: FUNDAMENTALE CONCEPTEN

Vergelijkbare documenten
9. Lineaire Regressie en Correlatie

11. Multipele Regressie en Correlatie

Hoofdstuk 10: Regressie

HOOFDSTUK 6: INTRODUCTIE IN STATISTISCHE GEVOLGTREKKINGEN

HOOFDSTUK VII REGRESSIE ANALYSE

HOOFDSTUK VI NIET-PARAMETRISCHE (VERDELINGSVRIJE) STATISTIEK

Hoofdstuk 7: Statistische gevolgtrekkingen voor distributies

Enkelvoudige ANOVA Onderzoeksvraag Voorwaarden

HOOFDSTUK 7: STATISTISCHE GEVOLGTREKKINGEN VOOR DISTRIBUTIES

Hoofdstuk 12: Eenweg ANOVA

4 Domein STATISTIEK - versie 1.2

Voorbeeldtentamen Statistiek voor Psychologie

Hoofdstuk 5 Een populatie: parametrische toetsen

Kun je met statistiek werkelijk alles bewijzen?

Vandaag. Onderzoeksmethoden: Statistiek 3. Recap 2. Recap 1. Recap Centrale limietstelling T-verdeling Toetsen van hypotheses

Inhoud. Woord vooraf 13. Hoofdstuk 1. Inductieve statistiek in onderzoek 17. Hoofdstuk 2. Kansverdelingen en kansberekening 28

Aanpassingen takenboek! Statistische toetsen. Deze persoon in een verdeling. Iedereen in een verdeling

Hoofdstuk 3 Statistiek: het toetsen

mlw stroom 2.1: Statistisch modelleren

College 3 Meervoudige Lineaire Regressie

Meervoudige ANOVA Onderzoeksvraag Voorwaarden

Toegepaste Biostatistiek Wetenschappelijk Onderzoek

Statistiek II. 1. Eenvoudig toetsen. Onderdeel toetsen binnen de cursus: Toetsen en schatten ivm één statistiek of steekproef

Beschrijvende statistiek

b) Het spreidingsdiagram ziet er als volgt uit (de getrokken lijn is de later uit te rekenen lineaire regressie-lijn): hoogte

Examen Statistiek I Feedback

introductie toetsen power pauze hypothesen schatten ten slotte introductie toetsen power pauze hypothesen schatten ten slotte

Kruis per vraag slechts één vakje aan op het antwoordformulier.

Zomerschool Vakdidactisch Onderzoek Leuven, 8-10 september 2010 Sessie 8: Analyse van kwantitatieve data

Formuleblad. Hoofdstuk 1: Gemiddelde berekenen: = x 1 + x 2 + x 3 + +x n / n Of: = 1/n Σ x i

College 2 Enkelvoudige Lineaire Regressie

Kansrekening en Statistiek

Statistiek II. Sessie 1. Verzamelde vragen en feedback Deel 1

8. Analyseren van samenhang tussen categorische variabelen

Hoeveel vertrouwen heb ik in mijn onderzoek en conclusie? Les 1

Statistiek II. Sessie 3. Verzamelde vragen en feedback Deel 3

Hiermee rekenen we de testwaarde van t uit: n. 10 ( x ) ,16

Cursus TEO: Theorie en Empirisch Onderzoek. Practicum 2: Herhaling BIS 11 februari 2015

1. Reductie van error variantie en dus verhogen van power op F-test

Statistiek II. Sessie 5. Feedback Deel 5

Hoofdstuk 8 Het toetsen van nonparametrische variabelen

introductie Wilcoxon s rank sum toets Wilcoxon s signed rank toets introductie Wilcoxon s rank sum toets Wilcoxon s signed rank toets

Statistiek 2 deel A 30 minuten over statistisch toetsen

Feedback examen Statistiek II Juni 2011

Data analyse Inleiding statistiek

1. De volgende gemiddelden zijn gevonden in een experiment met de factor Conditie en de factor Sekse.

Examen Statistische Modellen en Data-analyse. Derde Bachelor Wiskunde. 14 januari 2008

Statistiek in de alfa en gamma studies. Aansluiting wiskunde VWO-WO 16 april 2018

Toegepaste data-analyse: oefensessie 2

toetsende statistiek deze week: wat hebben we al geleerd? Frank Busing, Universiteit Leiden

We illustreren deze werkwijze opnieuw a.h.v. de steekproef van de geboortegewichten

Figuur 1: Voorbeelden van 95%-betrouwbaarheidsmarges van gemeten percentages.

Hoofdstuk 2: Verbanden

Kansrekening en Statistiek

Introductie tot de statistiek

Oefenvragen bij Statistics for Business and Economics van Newbold

TECHNISCHE UNIVERSITEIT EINDHOVEN Faculteit Wiskunde en Informatica. Tentamenopgaven Statistiek (2DD71) op xx-xx-xxxx, xx.00-xx.00 uur.

Toetsende Statistiek Week 5. De F-toets & Onderscheidend Vermogen

Classification - Prediction

Hoofdstuk 12 : Regressie en correlatie. Marnix Van Daele. Vakgroep Toegepaste Wiskunde en Informatica Universiteit Gent.

Robuustheid regressiemodel voor kapitaalkosten gebaseerd op aansluitdichtheid

G0N11a Statistiek en data-analyse: project Eerste zittijd Modeloplossing

Kansrekening en Statistiek

Examen Kansrekening en Wiskundige Statistiek: oplossingen

Statistiek I Samenvatting. Prof. dr. Carette

Hoofdstuk 6 Twee populaties: parametrische toetsen

Stochastiek 2. Inleiding in de Mathematische Statistiek 1 / 17

Bij herhaalde metingen ANOVA komt het effect van het experiment naar voren bij de variantie binnen participanten. Bij de gewone ANOVA is dit de SS R

Vandaag. Onderzoeksmethoden: Statistiek 2. Basisbegrippen. Theoretische kansverdelingen

Wiskunde B - Tentamen 1

DH19 Bedrijfsstatistiek MC, 2e Bach Hir, Juni 2009

Hoofdstuk 5: Steekproevendistributies

Examen G0N34 Statistiek

toetskeuze schema verschillen in gemiddelden

Bijlage Figuren en formules voor de stof van Professionele Ontwikkeling en Wetenschap, 13-14

11. Meerdere gemiddelden vergelijken, ANOVA

TECHNISCHE UNIVERSITEIT EINDHOVEN Faculteit Wiskunde en Informatica. Tentamen Statistiek 2 voor TeMa (2S195) op dinsdag , uur.

Les 2: Toetsen van één gemiddelde

Kansrekening en Statistiek

Les 1: Waarschijnlijkheidrekening

Data analyse Inleiding statistiek

1 Basisbegrippen, W / O voor waar/onwaar

Oplossingen hoofdstuk XI

Formules Excel Bedrijfsstatistiek

College 6 Eenweg Variantie-Analyse

Schriftelijk examen statistiek, data-analyse en informatica. Maandag 29 mei 1995

College 7. Regressie-analyse en Variantie verklaren. Inleiding M&T Hemmo Smit

Cursus Statistiek 2. Fellowonderwijs Opleiding Intensive Care. UMC St Radboud, Nijmegen

Statistiek voor A.I. College 2. Donderdag 13 September 2012

Statistiek voor A.I.

INDUCTIEVE STATISTIEK VOOR DE GEDRAGSWETENSCHAPPEN OPLOSSINGEN BIJ HOOFDSTUK 5

Open en Gepersonaliseerd Statistiekonderwijs (OGS) Deliverable 1.1 Requirements

Examen Statistiek I Januari 2010 Feedback

Samenvatting Statistiek

Hoeveel condities zijn er (ga er vanuit dat het design fully crossed is)?

TECHNISCHE UNIVERSITEIT EINDHOVEN Faculteit Wiskunde en Informatica

SPSS. Statistiek : SPSS

Tentamen Biostatistiek 1 voor BMT (2DM40) woensdag 2 november 2011, uur

SOCIALE STATISTIEK (deel 2)

Feedback proefexamen Statistiek I

Transcriptie:

DEEL 1: FUNDAMENTALE CONCEPTEN Hoofdstuk 1: Introductiemateriaal 1.1 motivatie Correcte analyse gegevens + interpretatie resultaten zeer belangrijk! 1.2 Cursusmateriaal

Hoofdstuk 2: Wat is statistiek? 2.1 Voorbeeld Onderzoeksvraag: Hoe beïnvloedt behandeling de bloeddruk? Belangrijk om te weten hoe waarschijnlijk de geobserveerde verschillen plaatsvinden door PUUR TOEVAL. Heel onwaarschijnlijk: het verschil is het resultaat van de behandeling Waarschijnlijk: het verschil is te wijten aan toeval, er is geen evidentie voor een behandelingeffect. DOEL VAN DE STATSTIEK: Conclusies trekken over een populatie, gebaseerd op observaties van een willekeurige steekproef. POPULATIE Willekeurig STEEKPROEF Statistiek 2.1 Populatie versus willekeurige steekproef Populatie = Een hypothetische groep van huidige en toekomstige subjecten, met een specifieke conditie, over wie er conclusies getrokken worden. Steekproef = Subgroep van de populatie, waarvan men observaties zal nemen. RANDOMISATIE is belangrijk om de geobserveerde effecten in de steekproef te kunnen generaliseren naar de totale populatie. 2.3 Het doel van statistiek 2 zijdig: Beschrijvende statistiek = samenvatten en beschrijven van geobserveerde gegevens zodat de relevante aspecten duidelijk gemaakt worden. (vb. tabellen, grafieken, berekeningen van gemiddelden, ) Inferentiële statistiek = Bestuderen in welke mate geobserveerde trends/effecten veralgemeend kunnen worden tot een algemene (oneindige) populatie. Het vereist: o een sterke link tussen steekproef en populatie o correcte statistische methodologie o correcte interpretatie van de resultaten

Hoofdstuk 3: overzicht statistiek 3.1 Introductie A en B hebben dezelfde locatie, maar een andere spreiding. B en C hebben dezelfde spreiding, maar een andere locatie. 3.2 Metingen van locatie STEEKPROEFGEMIDDELDE X = X 1 + + X n (heel gevoelig voor extreme waarden) n STEEKPROEFMEDIAAN de middelste observatie (niet gevoelig voor extreme waarden) STEEKPROEFMODUS de meest geobserveerde waarde (niet altijd informatief) Als er zich outliers (extreme waarden) in je gegevens bevinden: best steekproefmediaan gebruiken, zijn er geen outliers, dan gebruik je best het gemiddelde. Symmetrische verdelingen Scheve verdelingen Mediaan = gemiddelde Mediaan ǂ gemiddelde Positief scheef: gemiddelde > mediaan Negatief scheef: mediaan > gemiddelde GEMIDDELDE MEDIAAN ( het gemiddelde kan sterk beïnvloedt worden door extreme scores) 3.2 Metingen van spreiding Hoe gelijkend zijn de observaties? vb. Ze kunnen hetzelfde gemiddelde hebben, maar er kunnen meer extreme waarden zijn (de spreiding is groter) SPREIDING is een belangrijke parameter!

GEMIDDELDE AFWIJKING VAN HET GEMIDDELDE (X X) n GEMIDDELDE KWADRATIRSCHE AFWIJKING VAN HET GEMIDDELDE (heel gevoelig voor outliers) (X X)² n STEEKPROEFVARIANTIE (s²) (X X)² (heel gevoelig voor outliers) n-1 STANDAARDAFWIJKING VAN DE STEEKPROEF (s) (X X)² (heel gevoelig voor outliers) n-1 STEEKPROEFBEREIK (R) (heel gevoelig voor outliers, afhankelijk van steekproefgrootte n) max X min X INTERKWARTIEL BEREIK STEEKPROEF (IQR) max X min X (zonder 25% (niet gevoelig voor outliers, onafhankelijk van steekproefgrootte n: hoogste en 25% laagste waarden) want bij een grotere n, worden meer observaties weggelaten) Omdat we willen dat onze meting van spreiding een maat is voor de hoeveelheid variatie in de populatie, verkiezen w een meting die onafhankelijk is van de steekproefgrootte. Symmetrische verdelingen Scheve verdelingen STANDAARDAFWIJKING/DEVIATIE INTERKWARTIEL BEREIK (IQR) (de standaarddeviatie kan erg beïnvloed worden door extreme scores) 3.4 Percentages Traditioneel: Metingen worden samengevat door - een meting van de locatie EN - een meting van de spreiding. MAAR STEL: een dichotome/ binominale variabele (0 en 1) Van zodra de locatie gekend is (vb. gemiddelde), is ook de spreiding gekend vb. gemiddelde van 0.5: je weet dat de helft van de waarden 0 is en de helft van de waarden 1 Men rapporteert alleen het gemiddelde, geen maat van spreiding.

Hoofdstuk 4: Betrouwbaarheidsintervallen en hypothesetesten 4.1 Willekeurige variabiliteit Niet alle subjecten uit de steekproef hebben hetzelfde voordeel van de behandeling. Het resultaat mag niet overschat worden: een andere steekproef zou tot andere scores leiden. Interpretatie: het resultaat (X) is een schatting voor de populatieparameter (μ) VRAAG: Is het geobserveerde verschil significant zodat we kunnen concluderen dat de behandeling effectief is? ANTWOORD: Betrouwbaarheidsintervallen/ hypothesetesten Willekeurig POPULATIE STEEKPROEF Is μ verschillend van 0? Statistiek Geobserveerd verschil/ effect 4.2 Het betrouwbaarheidsinterval Een bepaalde steekproef leidt tot een geobserveerd verschil. (μ wordt hierop gebaseerd) Maar een andere steekproef zou leiden tot een ander geobserveerd verschil en zou dus zorgen voor een andere schatting van μ. Een betrouwbaarheidsinterval = een interval rond dit geobserveerd verschil (X) waarbij het waarschijnlijk is dat het interval de ongekende populatieparameter μ bevat. 95% betrouwbaarheidsniveau: traditioneel in biomedisch onderzoek. Smalle betrouwbaarheidsintervallen een hele precieze schatting van de ongekende populatieparameter μ. (hoge precisie) Brede betrouwbaarheidsintervallen hogere waarschijnlijkheid dat ze de populatieparameter μ bevatten. (hoog betrouwbaarheidsniveau) Hoe meer observaties (staakproefgrootte n neemt toe) Hoe smaller het interval Hoe meer precisie 100% betrouwbaarheidsinterval? Helemaal niet informatief. Bevat namelijk alle waarden: ]- ; + [ We kunnen nooit helemaal zeker zijn. 4.3 Interpretatie van het betrouwbaarheidsinterval Het interval bevat μ of bevat μ niet. ( Alles of niets situatie ) 95% betrouwbaarheidsinterval: het interval bevat heel waarschijnlijk μ (slechts 5 van de 100 gegevenssets leiden tot een interval dat μ niet bevat.)

4.4 Hypothesetesten μ is nooit gekend, maar we kunnen door onze steekproef wel iets leren over μ. Er is geen behandelingseffect: μ =0. Er is een behandelingseffect: als we met sterke evidentie kunnen aantonen dat μǂ0 MAAR het geobserveerde verschil kan ook te wijten zijn aan PUUR TOEVAL. De vraag is: Hoe waarschijnlijk is dat het geval? Als het heel onwaarschijnlijk is: het geobserveerde verschil wordt significant beschouwd en dus als resultaat van de behandeling/effect. De procedure om te beslissen of er significantie is dat de behandeling de oorzaak is van het geobserveerde verschil. = Hypothesetesten De onderzoeksvraag wordt geformuleerd in termen van: - de nulhypothese H 0 - de alternatieve hypothese H A H 0 : μ=0 H A : μ ǂ 0 Kunnen we H 0 verwerpen of niet (in functie van H A )? NEEN: nulhypothese wordt aanvaard, de behandeling was niet effectief JA: nulhypothese wordt verworpen ALS het gemiddelde μ te ver ligt van 0. (het effect is significant verschillend van 0, de behandeling was effectief) Hoe ver is te ver? Als het heel onwaarschijnlijk is dat het door puur toeval gebeurde. Als het resultaat niet is wat je verwacht te zien als μ 0 zou zijn. p-waarde: vertelt ons hoe extreem de observaties zijn in het geval dat de nulhypothese waar is. o Kleine p-waarde: zeer extreme waarden als H 0 juist is DUS we kunnen H 0 verwerpen o Grote p-waarde: de geobserveerde resultaten zijn perfect in lijn met wat men verwacht als H 0 juist zou zijn. DUS we verwerpen H 0 niet, maar accepteren de nulhypothese. Niveau van significantie α specifiëren, dit is typisch een lage waarde zoals 0.01, 0.05,0.10 Biomedisch onderzoek: α =0.05= 5% (Slechts foutief verwerpen van H 0 in minder dan 5 van de 100 experimenten.) p < α: H 0 verwerpen p > α of p = α: H 0 accepteren 4.5 Hypothesetesten versus betrouwbaarheidsintervallen Komen beide procedures altijd overeen? JA, als het niveau van significantie en betrouwbaarheid complementair zijn t.o.v. elkaar:

Niveau van significantie (α) Betrouwbaarheidsniveau (1-α) 0.05 95% 0.10 90% 0.01 99% H 0 accepteren op basis van hypothesetesten (met α = 0.05) H 0 bevindt zich wel in het 95% B.I. H 0 verwerpen op basis van hypothesetesten (met α = 0.05) H 0 bevindt zich niet in het 95% B.I. Alternatieve definitie van betrouwbaarheidsinterval: Een 95% betrouwbaarheidsinterval is de verzameling van al de nulhypothesen die binnen e en statistische test (met α = 0.05) aanvaardt zouden worden. Voordeel betrouwbaarheidsinterval: geeft indicatie over 1. grootte van het effect (effect size): behandelingsschatting μ 2. precisie van schatting: breedte van het interval BETROUWBAARDHEIDSINTERVALLEN MOETEN VERKOZEN WORDEN BOVEN STATISTISCHE TESTEN

Hoofdstuk 5: gebruik en misbruik van statistiek 5.1 Mogelijke fouten bij het nemen van beslissingen Absolute zekerheid over populatiekarakteristieken kan niet verkregen worden gebaseerd op een eindige steekproef van observaties. Je kan nooit 100% zeker zijn. Vb. α=0.05: je hebt 5% kans dat je H 0 verworpen hebt, terwijl er eigenlijk geen significant verschil is. OF α=0.98: je hebt 2% kans dat je H 0 niet verworpen hebt, terwijl er eigenlijk een significant verschil is. De kans is klein, maar ze bestaat wel. 5.2 Twee soorten fouten TESTRESULTAAT WERKELIJKHEID H 0 is juist H 0 is fout H 0 accepteren Geen fout Type II fout (β) H 0 verwerpen Type I fout (α) Geen fout Type I fout: H 0 is foutief verworpen = niveau van significantie α Biomedisch onderzoek: er is dus een kans van 5% op het maken van een type I fout. Type II fout: H 0 is foutief geaccepteerd Het maken van een type II fout kan enkel gecontroleerd worden door het nemen van voldoende grote steekproeven (Bij een gefixeerd α-niveau) Dat vraagt om berekeningen van de steekproefgrootte = power berekeningen (vermogen) Vermogen (power) = de waarschijnlijkheid van het correct verwerpen van H 0 = 1-β (met β= waarschijnlijkheid van het maken van een type II fout) 5.3 Multiple testen Elke keer als er een test wordt uitgevoerd, is er een waarschijnlijkheid α voor het maken van een type I fout. Hoe meer testen we uitvoeren, hoe groter de waarschijnlijkheid dat er een bepaald wordt door puur toeval. = probleem van multiple testen Significante resultaten bekomen uit meerdere testen (multiple testen) zijn vaak overschat. Altijd kijken naar het aantal experimenten dat men heeft uitgevoerd. (hoe groter het aantal, hoe groter de kans dat het foutief is)

5.4 Equivalentietesten H 0 : μ A = μ B H A : μ A ǂ μ B Vaak de conclusie bij niet-significant resultaat: beide groepen zijn identiek/ equivalent MAAR dat is foutief: niet-significantie zou niet geïnterpreteerd mogen worden als equivalentie. Dergelijke onderzoeken zoeken naar evidentie in de gegevens om effecten te kunnen aantonen. Wanneer we via dit soort onderzoeken equivalentie willen aanduiden, hopen we op het vinden van geen effect. Men hoopt dus, dat als er verschillen zijn, men deze niet ontdekt (m.a.w. een type II fout maakt). Dit impliceert dat equivalentie het best zou kunnen aangetoond worden door zo weinig mogelijk gegevens te verzamelen. Alternatieve conclusie: het experiment had niet genoeg power om te tonen dat er een effect aanwezig was. Als de test gebruikt kan worden om equivalentie aan te duiden, is het beste om kleine steekproeven te onderzoeken, aangezien zij een gebrek hebben aan power en daardoor de kans verhogen op het vinden van een niet-significant resultaat. OPLOSSING: H 0 en H A omdraaien om EQUIVALENTIE te kunnen bewijzen (Equivalentietesten = aantnen dat effecten voldoende klein zijn, om ze als klinisch verwaarloosbaar te kunnen beschouwen.) H 0 : μ A μ B > x H A : μ A μ B < of = x Met x = vooraf opgestelde constant, die de equivalentie aanduidt (hoef niet altijd 0 te zijn) 5.6 Significantie versus relevantie Het vermogen (power) van een test neemt toe als de steekproefgrootte n toeneemt. Elke effect, maakt niet uit hoe klein, zal vroeg of laat gevonden worden, als de steekproef maar groot genoeg is. Maar is het nodig om kleine verschillen te vinden? Het is belangrijk om significante resultaten niet te overschatten: de grootte van het effect is ook zeer belangrijk, het moet m.a.w. relevant zijn in de praktijk (klinisch) Vb. verbetering van 0.1 mmhg BD na behandeling: het is wel een significant verschil, maar in de praktijk ben je er niets mee (geen relevantie).

Hoofdstuk 6: Gegevensstructuren en types 6.1 Niveaus van complexiteit 6.1.1 Één-steekproef probleem Steekproef voor een homogene populatie: 1 afhankelijke/ uitkomstvariabele: Y i met i= 1,,n Standaardprocedure: Berekening van gemiddelde/ mediaan (LOCATIEPARAMATERS) Berekening van standaardfouten/ interkwartielbereienk (VERSPREIDINGSPARAMETERS) 6.1.2 twee-steekproef probleem Steekproef voor 2 subgroepen (subpopulaties) van een grotere populatie (vb. jongens meisjes, welgeen behandeling): Y gi met g= 1,2 en i= 1,..., n Onafhankelijke variabele heeft 2 niveaus (in dit geval): binair/ dichotoom Onderzoeksvraag: zijn de gemiddelden verschillend in de 2 populaties? Uitkomstvariabele = afhankelijke variabele voorspeller (predictor) = covariabele = onafhankelijke variabele 6.1.3 Regressie Predictor (onafhankelijke variabele) kan een variabele zijn met meerdere niveaus. Vb. verschillende dosissen die toegediend worden Leidt tot een familie van modellen = regressiemodellen Y i = β 0 + β 1 x i + ε i met i= 1,,n Keuze van de statistische analyse is vooral gedreven door de afhankelijke variabele (meer dan door de onafhankelijke variabele): Lineaire regressie o Afhankelijke variabele = continue o Onafhankelijke variabele = continu, binair, categorisch of discreet Logistieke regressie o Afhankelijke variabele = binair o Onafhankelijke variabele = continu, binair, categorisch of discreet 6.1.4 Meerdere onafhankelijke variabelen One way ANOVA Two way ANOVA Multi-way ANOVA Eenvoudige/enkelvoudige lineaire regressie multiple regressie Andere technieken (zoals logistieke regressie) gemakkelijk verlengt tot multiple covariabelen. Simpel in theorie, maar ze vereisen grote zorg:

Collineairiteit (op één rechte lijn gelegen) verkrijgt men enkel uit multiple covariabele modellen. Vaak zijn niet alle onafhankelijke variabelen op dezelfde voet Vaak is de relatie tussen een BLOOTSTELLING en een ZIEKTE interessant, terwijl een andere variabele alleen een STORENDE VARIABELE is. Verwarrende variabele Blootstelling Ziekte Interpretatie/ modelopbouw van (regressie)coëfficienten vereisen: - expertise - vakinhoudelijke kennis. 6.1.5 Meerdere afhankelijke variabelen Multivariate analyse: wanneer meerdere afhankelijke variabelen tegelijkertijd bestudeerd worden Multiple: meerdere onafhankelijke variabelen Multivariate: meerdere afhankelijke variabelen 6.2 Multivariate analyse = een set van technieken die toegepast worden wanneer er meer dan 1 afhankelijke variabele is. Associatie: concept van afhankelijkheid tussen 2 of meer variabelen Correlatie: een familie van metingen die berekend kunnen worden om associatie te bekomen (Pearson en Spearman correlatie) Voornamelijk voor categorische gegevens zijn er vele metingen van associatie voorgesteld als alternatieven voor correlatie. 6.3 Algemene multivariate instelling Houdt in: - Een set van afhankelijke variabelen - Een set van onafhankelijke variabelen Moeilijk te bestuderen 6.4 Andere gecorreleerde gegevens instellingen Multivariate instelling is slechts één van de gecorreleerde gegevens instellingen Je hebt ook nog (met meerdere afhankelijke variabelen): o Herhaalde metingen (meerdere metingen van dezelfde variabele bij hetzelfde subject) o Longitudinale gegevens (op dezelfde manier op verschillende tijdstippen, herhaaldelijk metingen om een ontwikkeling in kaart te brengen) o Spatiale gegevens (plaatsbepaald, bij risico) o Geclusterde gegevens (vb. gezin) Zijn zij gerelateerd tot mulivariate anaylse? Of zijn het speciale gevallen? JA EN NEEN

Univariaat: voor elk subject zijn is een meting gedaan Multivariaat: voor elk subject zijn meerdere metingen gedaan Ambigue: voor elke familie(unit) is een meting gedaan (meerdere subjecten, telkens dezelfde meting) 1 afhankelijke variabele elke unit/ familie bestaat uit meerdere waarden (niveaus) 6.9 Schematische representatie Y X Continu Binair Tellen Time-to-event Binair ANOVA X², fisher X², Kaplan Meier (contingentie/kruistabellen) Continu Lineaire Logistieke regressie Poisson regressie Cox PH, regressie Count - Geen wiskundige beperking ( binair: 2) - Kunnen niet negatief worden - Vb. epileptische aanvallen (aantal/week) Time-to-event - Overlevingstijd effect - Vb. kanker - Kunnen niet negatief zijn Doel: Schatting en inferentie

Hoofdstuk 7: Kruistabellen 7.1 Kruistabellen 7.1.1 Voorbeeld 1 Twee variabelen: - Controlegroep behandelde groep - Postieve test (mislukking) negatieve test (succes) GROEP RESPONS Mislukking Succes Controlegroep 5 5 Experimentele groep 5 5 Geen verschil tussen de groepen Geen statistische analyse nodig 7.1.2 Voorbeeld 2 GROEP RESPONS Mislukking Succes Controlegroep 50 0 Experimentele groep 0 5 Duidelijk verschil tussen de groepen Geen statistische analyse nodig 7.1.3 Voorbeeld 3 RESPONS Mislukking Succes Controlegroep 8 2 GROEP Experimentele groep 5 5 Beslissing tussen significant/ niet-significant verschil is niet onmiddellijk duidelijk Verschil te wijten aan toeval of aan de behandeling?

7.2 Voorbeeld 1 Behandeling BESCHADIGING Ja Neen Controlegroep 15 1 16 Experimentele groep (funarizine) 2 6 17 7 24 8 7.3 Statistische vraag Vraag: Is er een verschil tussen beide groepen? Nulhypothese: H 0 : De beschadigingswaarschijnlijkheid is gelijk tussen beide groepen. H 0 : Er is geen associatie tussen behandeling en beschadiging 2 aspecten: - testprobleem - schattingsprobleem (het verschil tussen de beschadigingswaarschijnlijkheden in beide groepen + de meting van de associatie) 7.4 X² test voor kruistabellen Voordeel: duidelijke berekeningen + continue correctie gemakkelijk mogelijk Nadeel: De normale benadering tot de binaire kwantiteitenverdeling moet behouden worden 7.5 Voorbeeld 2 RESPONS GROEP I II Succes 16 18 34 Mislukking 4 12 16 20 30 50 O = geobserveerde waarden E = verwachte waarden Berekening van de verwachte waarden: H 0 : product en repsons zijn onafhankelijk. H 0 : de succesprobabiliteit is gelijk onder de verschillende groepen. 1 gelijke probabiliteit: p = (16+18)/ (20+30) = 34/50 = 0.68 Hoeveelheid successen: o Groep I: 20 x p = 20 x 0.68 = 13.6 o Groep II: 30 x p = 30 x 0.68 = 20.4

Hoeveelheid mislukkingen: o Groep I: 20 x (1-p) = 20 x 0.32 = 6.4 o Groep II: 30 x (1-p) = 30 x 0.32 = 9.6 Hoeveelheid successen + hoeveelheid mislukkingen binnen een groep = aantal individuen per groep Tabel verwachte waarden: RESPONS GROEP I II Succes 13.6 20.4 34 Mislukking 6.4 9.6 16 20 30 50 De gefluoresceerde aantallen (marginale aantallen) zijn gelijk aan de tabel van de geobserveerde waarden. Gemakkelijkere methode voor het berekenen van de verwachtte waarden: E ij = O i+ O +j n RESPONS GROEP I II Succes O 11 O 21 O 1+ Mislukking O 12 O 22 O 2+ O +1 O +2 O ++ Je hoeft ze niet allemaal te berekenen Je weet bijvoorbeeld als je 13.6 hebt, dat 34-13.6 = 20.4 Als je alle geobserveerde waarden en verwachte waarden hebt, is het gewoon de formule invullen: alle tellers zijn gelijk 7.5.1 Vrijheidsgraden Tabel van verwachte waarden: df = aantal marginale waarden (4) Tabel van geobserveerde waarden: df = aantal marginale waarden + 1 (5)

Kritische waarde X² bij α =0.05 is 3.84. (De berekende waarde moet GROTER DAN OF GELIJK ZIJN) Conclusies voor het voorbeeld: 2.206 < 3.84 H 0 niet verwerpen De succeswaarschijnlijkheden zijn niet significant verschillend o p I = 16/20 = 0.8 o p II = 18/30 = 0.6 7.6 Waardigheid van de benadering Hoe groter de steekproefgrootte, hoe beter de normale benadering tot de binominale verdeling, en hoe beter de benadering tot de X 1 ² verdeling. BELANGRIJK: De verwachte waardencellen moeten > 5 of =5. Conservatieve regel, dus smalle afwijkingen zijn aanvaardbaar, maar men moet oppassen! 7.7 Fisher s exact test 2x2 tabellen Verwachte waardencellen < 5. 7.7.1 Voorbeeld 4 BEHANDELING Algemene tabel: CARCINOMEN ja neen Placebo 1 11 12 Actief 4 10 14 5 21 26 A C A+C B D B+D A+B C+D n Waarbij n = (A+B) + (C+D) = (A+C) + (B+D) Nulhypothese: onafhankelijkheid tussen rijen en kolommen. vb. onafhankelijkheid tussen randomisatie en carcinomen De marginale waarden zijn gekend: we kunnen p(a,b,c,d) berekenen P(A,B,C,D) = (A+B)! (C+D)! (A+C)! (B+D)! n! A! B! C! D!

We doen dit voor elke configuratie die op zijn minst even onwaarschijnlijk is als de geobserveerde. Som van alle overeenkomstige waarschijnlijkheden: o </= 0.05: nulhypothese verwerpen o > 0.05: nulhypothese niet verwerpen/ accepteren In dit voorbeeld: P = 0.3304 dus H 0 niet verwerpen Er is dus geen verschil tussen actieve behandeling en placebo. Stel dat p < 0.05 en we H 0 wel verworpen: Dat zou willen zeggen dat actieve therapie lijdt tot meer carcinomen Interpretatie is belangrijk!!!!!!! 7.8 Analyse van voorbeeld 1 Problemen met het aantal van de verwachte waarden: veiliger om Fisher Exact test te gebruiken p = 0.0013 (waarschijnlijkheid 2 tabellen opgeteld): H 0 verwerpen Methode p-waarde X² (zonder continuïteitscorrectie) 0.0005 X² (met continuïteitscorrectie) 0.0009 Fisher s exact test 0.0013 7.9 Analyse voorbeeld 3 Methode Statistiek p-waarde X² (zonder continuïteitscorrectie) 0.98 0.3222 X² (met continuïteitscorrectie) 0.68 0.4096 Fisher s exact test 0.4119 7.10 X² test versus Fisher s exact test X² test: gemakkelijk en betrouwbaar bij grote steekproeven. Fisher s exact test: gemakkelijk en betrouwbaar bij kleine steekproeven.

Hoofdstuk 8: Groepen met continue resultaten vergelijken: de t-test 8.1 Voorbeeld: captopril gegevens Onderzoeksvraag: Hoe beïnvloedt behandeling de bloeddruk? We willen weten hoe waarschijnlijk het geobserveerde verschil te wijten is aan toeval. Grote waarschijnlijkheid: H 0 niet verwerpen, er is geen behandelingseffect. Kleine waarschijnlijkheid: H 0 verwerpen, er is een behandelingseffect. 8.2 Verschil in bloeddruk Zelfde proefpersonen gepaarde observaties verschilscores maken 8.3 twee-steekproeven t-test/ ongepaarde t-test 2 onafhankelijke groepen Heterogeniteit binnen de groep zorgt voor minder precisie Nulhypothese: H 0 : μ A = μ B t = X A X B s/ n Uitbreidingen: - A en B hebben verschillende varianties - A en B hebben verschillende steekproefgroottes - Afhankelijke metingen gepaarde t-toets 8.4 Gepaarde t-test Beperktere toepasbaarheid: enkel bij gepaarde metingen o Hetzelfde subject gemeten op 2 verschillende tijdsmomenten o Gepaarde metingen voor hetzelfde subject o Tweelingen o Case-control gegevens o Split bloed steekproef Meer power: als paren positief gecorreleerd zijn Uitbreiding: meer dan 2 metingen herhaalde metingen analyse 8.5 t-test: slotbeschouwing Voorwaarde: o Ongepaarde t-test: Gegevens in elke groep moeten normaal verdeeld zijn. o Gepaarde t-test: Verschillen moeten normaal verdeeld zijn. Wat als dat niet het geval is? o Transformeren o Non-parametrische (rang-gebaseerde) test: minder efficiënt, maar meer robuust tegen niet- normaliteit.

Deel 2: Analyse van variantie en lineaire regressie Hoofdstuk 9: Introductie Uitgewerkt voorbeeld (zie dia s)

Hoofdstuk 10: enkelvoudige/ eenvoudige lineaire regressie 10.1 Introductie Correlatiecoëfficiënt r meet de lineaire relatie tussen 2 variabelen, x en y. Hoe deze relatie beschrijven? Construeren van een rechte lijn die de geobserveerde metingen het best past. Vergelijking rechte: y=β 0 = β 1 x met β 0 = intercept (waarde van y waarbij x=0) β 1 = richtingscoëfficient β 1 > 0 Positieve relatie tussen x en y. Hoe groter β 1, hoe sneller y toeneemt met x. β 1 < 0 Negatieve relatie tussen x en y. Hoe kleiner β 1, hoe sneller y afneemt met x. 10.2 De kleinste kwadraten methode Welk criterium moet voldaan worden om de best passende lijn te hebben? Als we β 0 en β 1 kennen, kunnen we voor elke observatie gebaseerd op de x-waarde, een voorspelbare waarde voor y berekenen: Ŷ i = β 0 + β 1 x i De voorspelling is goed als Ŷ i dicht bij Y i ligt, en zwak als ze er ver vanaf ligt. Als de rechte lijn de gegevens goed beschrijft verwachten we, voor de meeste punten, dat Ŷ i en Y i dicht bij elkaar liggen. Maat voor hoe dicht de gegevens bij de rechte liggen: Q = (Y i Ŷ i )² = [Y i (β 0 + β 1 x i )]² Andere rechten zorgen voor andere waarden voor Q. De rechte die het best de gegevens beschrijft is deze waarvoor Q het kleinste is. De kleinste kwadraten methode: berekent de waarden van β 0 en β 1 waarvoor Q zo klein mogelijk is. β 1 = (X X) (Y Y) β 0 = Y β 1 X (voorspelde waarden) (X X)² Kleinste kwadraat schattingen voor β 0 en β 1. REGRESSIELIJN: y= β 0 + β 1 x

Error/ fout die we maken als we voorspellen: e i = Y i Ŷ i = Y i (β 0 + β 1 x i ) RESIDU S e i > 0: de geobserveerde y ligt boven de regressielijn (onderschatting) e i = 0: de geobserveerde y ligt op de regressielijn e i < 0: de geobserveerde y ligt onder de regressielijn (overschatting) e i = 0: de punten boven de regressielijn zijn in evenwicht met de punten onder de regressielijn 10.3 Illustratie en interpretatie X-variabele = covariabele = onafhankelijke variabele Interpretatie: Y-variabele = respons = afhankelijke variabele Regressielijn: ADL = 23.65-0.30 x MMSE Stel 2 groepen patiënten Groep 1: MMSE = 20, groep 2: MMSE = 21 (ze verschillen dus met 1 MMSE eenheid) We verwachten dat het verschil in ADL tussen beide groepen 0.30 gaat zijn, met de lagere score bij de groep met de hoogst MMSE (groep 2) DIT IS FOUT: we mogen niet concluderen dat een toename van MMSE met 1 eenheid bij een bepaalde patiënt leidt tot een afname van 0.30 ADL. (Dit is gemiddeld zo, maar de patiënten onderling kunnen afwijken) We kunnen geen longitudinale conclusies trekken uit een cross-sectioneel experiment. 10.4 Statistische inferentie 10.4.1 Introductie p-waarden testen volgende hypothesen: H 0 : β 0 = 0 H 0 : β 1 = 0 H A : β 0 ǂ 0 H A : β 1 ǂ 0 Statistische inferenties (p-waarden, betrouwbaarheidsintervallen) wil een verklaring afleggen over de regressielijn die de gehele populatie omvat. Bepaalde voorwaarden moeten voldaan zijn: beschreven in regressiemodel. 10.4.2 Het eenvoudige lineaire regressiemodel In echte situaties zullen de punten nooit een perfect rechte lijn beschrijven, maar eerder een puntenwolk. Y i = β 0 + β 1 x i + ε i waarbij ε i aanduidt hoe ver een observatie boven/ onder de regressielijn ligt ε i = theoretische versie van de residu s e i ε i = errors/fouten, die volgens het regressiemodel normaal verdeeld zijn met een gemiddelde 0 en een (ongekende) variantie σ²

ε i ~ n (0,σ²) Het regressiemodel neemt aan: 1. Lineairiteit: Voor elke X, ligt het gemiddelde van de overeenkomstige Y op de regressielijn. 2. Normaliteit: Voor elke X, liggen de overeenkomstige Y-waarden symmetrisch rond de regressielijn. 3. Constante variantie: De voorpsellende fouten voor kleine X-waarden zijn niet groter/ kleiner dan de fouten voor grotere X-waarden. Fouten: 10.4.3 Significantietest voor β0 en β1 Significantietest voor β 1 Als β 1 = 0 dan is: Y = β 0 + ε i (er is geen lineaire relatie tussen X en Y) Testen: H 0 : β 1 = 0 H A : β 1 ǂ 0 Is het geobserveerde verschil significant of is het verkregen door toeval? Onderzoeksvraag: Hoe groot is de waarschijnlijkheid dat we, bij toeval een verschil vinden (van een bepaalde grootte, hier bv. -0.30) als eigenlijk: β1 = 0.

Als β 1 = 0, is het heel onwaarschijnlijk dat β 1 = -0.30 EN heel onwaarschijnlijk dat β 1 = + 0.30 p < α = 0.05 = 5% DUS het verschil is significant en β 1 ǂ 0. Het regressiemodel staat ook toe om betrouwbaarheidsintervallen op te stellen. Het interval bevat 0 niet: sterke evidentie dat β 1 ǂ 0. Significantietest voor β0 Analoog H 0 : β 0 = 0 H A : β 0 ǂ 0 In praktijk is men voornamelijk geïnteresseerd in de testen voor β 1. Testen en betrouwbaarheidsintervallen gelden enkel als de voorwaarden voor het regressiemodel voldaan zijn. 10.4.4 De ANOVA tabel Als we geen X-waarden hebben is de beste mogelijke voorspelling voor elke Y-waarde het steekproefgemiddelde Y. Maat van de fout (maar ook van de variabiliteit in Y) : som van de kwadraten (Y-Y)² Als we de geobserveerde X-waarden gebruiken is de voorspelling van elke Y-waarde gelijk aan: Ŷ= β 0 + β 1 x Maat voor de fout: som van de kwadraten (Y Ŷ)² = e² Aangezien dit leidt tot meer precisie: (Y Y)² >/ = (Y Ŷ)² (Y Y)² = (Y Ŷ)² + (Ŷ Y)² SSTO SSE SSR SSTO = Totale som van de kwadraten De totale error die gemaakt wordt bij het voorspellen van Y zonder de geobserveerde X-waarden in rekening te brengen. SSE = Error som van de kwadraten De error die gemaakt wordt door het voorspellen van Y bij het gebruik maken van observaties van X. SSR = Regressie som van de kwadraten De afname in error door het voorspellen van de Y-waarden met i.p.v. zonder gebruik te maken van de covariabelen (X-variabelen/waarden).

Een maat voor hoe goed de gegevenspunten (X,Y) overeenkomen met de regressielijn: R² = SSR SSTO 0 =/< R² =/< 1 R² = 0 o SSR = 0 o Alle Ŷ = Y o De regressielijn is plat o Equivalent met β 1 = 0 R² = 1 o SSE = 0 o Alle Y = Ŷ o Alle punten (X,Y) liggen op de regressielijn R² duidt aan welke fractie van de variabiliteit in Y kan verklaard worden door X R² is equivalent met r² (het kwadraat van de correlatie tussen X en Y) 10.4.5 Illustratie + interpretatie Pearson correlatie: r = - R²

Hoofdstuk 11 : Model diagnostiek 11.1 Voorbeeld Onafhankelijke variabele (X) : ADL (afhankelijkheid van patiënt) Afhankelijke variabele (Y): lengte van verblijf Regressiemodel: lengte van verblijf (Y) = 9.37 + 0.29 ADL Voor β 1 : p-waarde = 0.1173 (dus geen significante relatie tussen lengte van verblijf en ADL) R² = 0.0432: ADL verklaard slechts 4% van de totale variabiliteit in de lengte van het verblijf.