Hoofdstuk 8: Multipele regressie Vragen 1. Wat is het verschil tussen de pearson correlatie en de multipele correlatie R? 2. Voor twee modellen berekenen we de adjusted R2 : Model 1 heeft een adjusted R2 van 0.788 en model 2 van 0.793. Welke model is het betere model op basis van deze waarden? 3. In een model zijn twee partiële correlaties gevonden tot de afhankelijke variabele: rx1y= 0.6, rx2y=0.4. De verklaarde variantie is 60%. Hoeveel variantie wordt verklaard door beide variabelen? 4. Gegeven is de volgende SPSS tabel: Unstandardized coefficients Standardized coefficients B Std. Error Beta (Constant) X1 X2-18.534 7.890-3.980 0.673-0.380 Wat is de gestandaardiseerde vergelijking? 5. Wat is de betekenis van B in de tabel bij de vorige vraag? 6. Welke uitspraak over het evalueren van individuele voorspellers is juist? A. Het evalueren van individuele voorspellers is handig wanneer het model niet beter dan kansniveau voorspelt. B. Om te evalueren kunnen zowel b-gewichten als bèta-gewichten worden gebruikt. C. Bèta-gewichten kunnen beïnvloed worden door de variabiliteit van een variabele, extra voorspellers en meetfouten. D. Het evalueren van bèta-gewichten en structuurcoëfficiënten kan vaak al voldoende zijn. 7. Wat zijn de assumpties voor multipele regressie?
8. In een regressie analyse bij data van 150 personen is het regressiegewicht van X2 niet significant, maar de correlatie is toch hoog: 0.6. Verdere gegevens: correlatie X1 en Y = 0.8, correlatie X1 en X2 = 0.8. Wat kan hiervoor de verklaring zijn? A. Er is sprake van een interactie-effect tussen X1 en X2 B. De data zal waarschijnlijk non-lineair zijn. C. X1 heeft geen unieke bijdrage. D. X2 heeft geen unieke bijdrage. 9. Welke uitspraak over (semi)-partiële correlaties is juist? A. De partiële correlaties geven percentages van de unieke verklaarde variantie van de variabele. B. De gekwadrateerde semi-partiële correlatie van X1 wordt berekend door de unieke verklaarde variantie te delen door de totale variantie van de afhankelijke variabele (zowel verklaard als onverklaard). C. De gekwadrateerde partiële correlatie van X1 geeft het percentage variantie dat voor een deel de afhankelijke variabele verklaart. D. De gekwadrateerde multipele correlatie (R2) is gelijk aan de unieke verklaarde varianties opgeteld. 10. Wat is multicollineariteit? 11.Multicollinariteit zorgt voor een hogere/lagere R 2 waarde en is wel/niet goed wanneer men de interactie tussen variabelen wil begrijpen. A. hogere, wel B. hogere, niet C. lagere, wel D. lagere, niet 12. Wanneer is er sprake van moderatie?
Hoofdstuk 8: Multipele regressie Antwoorden 1. Wat is het verschil tussen de pearson correlatie en de multipele correlatie R? de multipele correlatie heeft altijd een waarde tussen de 0 en 1 en kan dus niet negatief zijn. De pearson correlatie kan van -1 tot 1 lopen. 2. Voor twee modellen berekenen we de adjusted R2 : Model 1 heeft een adjusted R2 van 0.788 en model 2 van 0.793. Welke model is het betere model op basis van deze waarden? Model 2, want die heeft een hogere R2, wat wijst om meer verklaarde variantie. Adjusted R2 is de multiple R2 plus een straf voor de complexiteit van het model. We zoeken modellen die het beste de data verklaren met het minst aantal verklarende variabele (simpleste model) en dat is wat de adjusted Rˆ2 doet; deze maat heeft een voorkeur voor eenvoudigere modellen. We kiezen hier dus voor model 2 omdat de grotere adjusted Rˆ2 een betere balance representeert tussen de grootte van de variantie van de rest-term en de complexiteit van het model. Extra: De adjusted Rˆ2 wordt gegeven door. AdjustedR2 =1 RSS/(n d 1) TSS/(n 1) Met RSS de residual sum of squares en TSS de total sum of squares (sum of squares van de response variabele) Als het aantal verklarende variabele d toeneemt wordt de breuk groter en de Adjusted R2 kleiner, d is dus de straf die wordt opgelegd voor meer complexe modellen. 3. In een model zijn twee partiële correlaties gevonden tot de afhankelijke variabele: rx1y= 0.6, rx2y=0.4. De verklaarde variantie is 60%. Hoeveel variantie wordt verklaard door beide variabelen? 8 procent 4. Gegeven is de volgende SPSS tabel: (Constant) X1 X2 Unstandardized coefficients Standardized coefficients B Std. Error Beta -18.534 7.890 0.673-3.980-0.380 Wat is de gestandaardiseerde vergelijking? Y= 0.673*X1 0.380*X2 5. Wat is de betekenis van B in de tabel bij de vorige vraag? Als X1 met 1 toeneemt, zal Y met 7.890 toenemen. 6. Welke uitspraak over het evalueren van individuele voorspellers is juist? A. Het evalueren van individuele voorspellers is handig wanneer het model niet beter dan kansniveau voorspelt. B. Om te evalueren kunnen zowel b-gewichten als bèta-gewichten worden gebruikt.
C. Bèta-gewichten kunnen beïnvloed worden door de variabiliteit van een variabele, extra voorspellers en meetfouten. D. Het evalueren van bèta-gewichten en structuurcoëfficiënten kan vaak al voldoende zijn. 7. Wat zijn de assumpties voor multipele regressie? 1. De afhankelijke variabele moet van interval niveau zijn 2. Er is een lineaire relatie tussen de voorspellers en de afhankelijke variabele. 3. De residuen hebben (a) een normale distributie, (b) dezelfde variantie voor alle waarden van de lineaire combinaties van voorspellers en (c) zijn onafhankelijk van elkaar. 8. In een regressie analyse bij data van 150 personen is het regressiegewicht van X2 niet significant, maar de correlatie is toch hoog: 0.6. Verdere gegevens: correlatie X1 en Y = 0.8, correlatie X1 en X2 = 0.8. Wat kan hiervoor de verklaring zijn? A. Er is sprake van een interactie-effect tussen X1 en X2 B. De data zal waarschijnlijk non-lineair zijn. C. X1 heeft geen unieke bijdrage. D. X2 heeft geen unieke bijdrage. 9. Welke uitspraak over (semi)-partiële correlaties is juist? A. De partiële correlaties geven percentages van de unieke verklaarde variantie van de variabele. B. De gekwadrateerde semi-partiële correlatie van X1 wordt berekend door de unieke verklaarde variantie te delen door de totale variantie van de afhankelijke variabele (zowel verklaard als onverklaard). C. De gekwadrateerde partiële correlatie van X1 geeft het percentage variantie dat voor een deel de afhankelijke variabele verklaart. D. De gekwadrateerde multipele correlatie (R2) is gelijk aan de unieke verklaarde varianties opgeteld.
10. Wat is multicollineariteit? Dat houdt in dat twee voorspellende variabelen sterk met elkaar correleren en dus grotendeels hetzelfde meten. 11.Multicollinariteit zorgt voor een hogere/lagere R 2 waarde en is wel/niet goed wanneer men de interactie tussen variabelen wil begrijpen. A. hogere, wel B. hogere, niet C. lagere, wel D. lagere, niet 12. Wanneer is er sprake van moderatie? Als een derde variabele de relatie tussen de afhankelijke en onafhankelijke variabele verandert.