Regressie-analyse doel menu hulp globale werkwijze aandachtspunten Doel: Voor de uitvoering in SPSS: Missing Values Globale werkwijze



Vergelijkbare documenten
Voorbeeld regressie-analyse

Enkelvoudige lineaire regressie

(slope in het Engels) en het snijpunt met de y-as, b 0

Zowel correlatie als regressie meten statistische samenhang Correlatie: geen oorzakelijk verband verondersteld: X Y

Verband tussen twee variabelen

9. Lineaire Regressie en Correlatie

Regressie-analyse. Cursus Bachelor Project 2 B&O College 2 Harry B.G. Ganzeboom. Regressie-model en mediatie-analyse 1

College 3 Meervoudige Lineaire Regressie

TECHNISCHE UNIVERSITEIT EINDHOVEN Faculteit Wiskunde en Informatica. Tentamen Statistiek 2 voor TeMa (2S195) op dinsdag , uur.

mlw stroom 2.1: Statistisch modelleren

11. Multipele Regressie en Correlatie

Bijlage 3: Multiple regressie analyse

College 2 Enkelvoudige Lineaire Regressie

Meervoudige lineaire regressie

Meervoudige ANOVA Onderzoeksvraag Voorwaarden

Oplossingen hoofdstuk XI

TECHNISCHE UNIVERSITEIT EINDHOVEN Faculteit Wiskunde en Informatica Tentamen Statistiek voor T (2S070) op vrijdag 8 oktober 1999, uur De u

1 vorig = omzet voorgaande jaar. Forward (Criterion: Probability-of-F-to-enter <=,050) 2 bezoek = aantal bezoeken vertegenwoordiger

Hoofdstuk 8: Multipele regressie Vragen

Deze opdracht lossen we eenvoudig op door in de vergelijking X1 en X2 te vervangen door de geobserveerde waarden van deze variabelen:

Enkelvoudige ANOVA Onderzoeksvraag Voorwaarden

TECHNISCHE UNIVERSITEIT EINDHOVEN Faculteit Wiskunde en Informatica

Hoofdstuk 8 Het toetsen van nonparametrische variabelen

TECHNISCHE UNIVERSITEIT EINDHOVEN Faculteit Wiskunde en Informatica. Tentamen Statistiek 2 voor TeMa (2S195) op dinsdag ,

We berekenen nog de effectgrootte aan de hand van formule 4.2 en rapporteren:

Tentamen Biostatistiek 1 voor BMT (2DM40) woensdag 2 november 2011, uur

TECHNISCHE UNIVERSITEIT EINDHOVEN Faculteit Wiskunde en Informatica. Tentamen Statistiek 2 voor TeMa (2S195) op vrijdag , 9-12 uur.

Cursus TEO: Theorie en Empirisch Onderzoek. Practicum 2: Herhaling BIS 11 februari 2015

HOOFDSTUK VII REGRESSIE ANALYSE

Hoofdstuk 5 Een populatie: parametrische toetsen

b. Bepaal b1 en b0 en geef de vergelijking van de kleinste-kwadratenlijn.

Classification - Prediction

Aanpassingen takenboek! Statistische toetsen. Deze persoon in een verdeling. Iedereen in een verdeling

Menu aansturing van SPSS voorbeeld in paragraaf 6.5 van hoofdstuk 6 over multipele regressie analyses van recidive bij jongens

1. Reductie van error variantie en dus verhogen van power op F-test

Robuustheid regressiemodel voor kapitaalkosten gebaseerd op aansluitdichtheid

College 6 Eenweg Variantie-Analyse

10. Moderatie, mediatie en nog meer regressie

Bij factor ANOVA is er een tweede onafhankelijke variabele in de analyse bij gekomen. Er zijn drie soorten designs mogelijk:

College 7. Regressie-analyse en Variantie verklaren. Inleiding M&T Hemmo Smit

11. Meerdere gemiddelden vergelijken, ANOVA

Hoofdstuk 19. Voorspellende analyse bij marktonderzoek

** VOORBEELD VAN CAUSALE ANALYSE MET CONFOUNDER EN MEDIATOR **.. GET FILE='u:\)Research\ISSP-NL\ISSP \Data\issp_2013_2014_NL_def.sav'.

TECHNISCHE UNIVERSITEIT EINDHOVEN Faculteit Wiskunde en Informatica. Tentamenopgaven Statistiek (2DD71) op xx-xx-xxxx, xx.00-xx.00 uur.

Hoofdstuk 10: Regressie

SPSS. Statistiek : SPSS

Logistische regressie analyse: een handleiding Inge Sieben 1 Liesbeth Linssen

c. Geef de een-factor ANOVA-tabel. Formuleer H_0 and H_a. Wat is je conclusie?

mlw stroom 2.2 Biostatistiek en Epidemiologie College 9: Herhaalde metingen (2) Syllabus Afhankelijke Data Hoofdstuk 4, 5.1, 5.2

* de percentages goed per klas en volgorde van afnemen. sort cases by klas volgorde. split file by klas volgorde. des var=goedboekperc.

Statistiek II. Sessie 4. Feedback Deel 4

TECHNISCHE UNIVERSITEIT EINDHOVEN

INDUCTIEVE STATISTIEK VOOR DE GEDRAGSWETENSCHAPPEN OPLOSSINGEN BIJ HOOFDSTUK 5

M M M M M M M M M M M M M M La La La La La La La Mid Mid Mid Mid Mid Mid Mid

ANOVA in SPSS. Hugo Quené. opleiding Taalwetenschap Universiteit Utrecht Trans 10, 3512 JK Utrecht 12 maart 2003

20. Multilevel lineaire modellen

TECHNISCHE UNIVERSITEIT EINDHOVEN Faculteit Wiskunde en Informatica. Tentamen Statistiek 2 voor TeMa (2S195) op donderdag ,

Masterclass: advanced statistics. Bianca de Greef Sander van Kuijk Afdeling KEMTA

Wat gaan we doen? Help! Statistiek! Wat is een lineaire relatie? De rechte-lijn-vergelijking: Y = a + b X. Relatie tussen gewicht en lengte

introductie Wilcoxon s rank sum toets Wilcoxon s signed rank toets introductie Wilcoxon s rank sum toets Wilcoxon s signed rank toets

Bij herhaalde metingen ANOVA komt het effect van het experiment naar voren bij de variantie binnen participanten. Bij de gewone ANOVA is dit de SS R

TECHNISCHE UNIVERSITEIT EINDHOVEN Faculteit Wiskunde en Informatica. Tentamen Statistiek II voor TeMa (2S195) op maandag ,

4 Meervoudige lineaire regressie

Tentamen Biostatistiek 1 voor BMT (2DM40) woensdag 28 oktober 2009, uur

Hoofdstuk 10 Eenwegs- en tweewegs-variantieanalyse

Fasen in het onderzoeksproces

Voorbeeldtentamen Statistiek voor Psychologie

Statistiek II. 1. Eenvoudig toetsen. Onderdeel toetsen binnen de cursus: Toetsen en schatten ivm één statistiek of steekproef

Opgave 1: (zowel 2DM40 als 2S390)

Faculteit der Wiskunde en Informatica

Tentamen Biostatistiek 1 voor BMT (2DM40) woensdag 27 oktober 2010, uur

Tentamen Biostatistiek 1 voor BMT (2DM40), op maandag 5 januari uur

Interim Toegepaste Biostatistiek deel 1 14 december 2009 Versie A ANTWOORDEN

16. MANOVA. Overeenkomsten en verschillen met ANOVA. De theorie MANOVA

College 7 Tweeweg Variantie-Analyse

LES 2: Data-cleaning en -transformatie 1. Frequentietabel

Hoofdstuk 6 Twee populaties: parametrische toetsen

EIND TOETS TOEGEPASTE BIOSTATISTIEK I. 30 januari 2009

Hierbij is het steekproefgemiddelde x_gemiddeld= en de steekproefstandaardafwijking

Antwoordvel Versie A

Tentamen Biostatistiek 2 voor BMT (2DM50), op woensdag 10 april uur

4 Domein STATISTIEK - versie 1.2

Voer de gegevens in in een tabel. Definieer de drie kolommen van de tabel en kies als kolomnamen groep, vooraf en achteraf.

Toegepaste data-analyse: oefensessie 2

Hoofdstuk 4. Beschrijvende statistiek. 4.1 Beschrijvende statistiek voor één variabele

Hoofdstuk 3 Statistiek: het toetsen

Robuustheid regressiemodel voor kapitaalkosten gebaseerd op aansluitdichtheid

EIND TOETS TOEGEPASTE BIOSTATISTIEK I. 3 februari 2012

EIND TOETS TOEGEPASTE BIOSTATISTIEK I. 5 februari 2010

Het samenstellen van een multipele indicator index. Harry B.G. Ganzeboom ADEK UvS College 2 28 februari 2011

Vandaag. Onderzoeksmethoden: Statistiek 3. Recap 2. Recap 1. Recap Centrale limietstelling T-verdeling Toetsen van hypotheses

Algemeen lineair model

Spreidingsdiagram, kleinste-kwadraten regressielijn, correlatiecoefficient

Tentamen Biostatistiek 2 voor BMT (2DM50), op woensdag 22 april uur

Analyse van kruistabellen

Disclosure Belangen Spreker

Berekenen en gebruik van Cohen s d Cohen s d is een veelgebruikte manier om de effectgrootte te berekenen en wordt

Tentamen Biostatistiek 2 voor BMT (2DM50), op dinsdag 5 april uur

tul Moleculaire Levenswetenschappen Stroom Statistisch modelleren Werkboek

Statistiek II. Sessie 5. Feedback Deel 5

Transcriptie:

Regressie-analyse Regressie-analyse is gericht op het voorspellen van één (numerieke) afhankelijke variabele met behulp van een of meerdere onafhankelijke variabelen (numerieke en/of dummy-variabelen). Wanneer de afhankelijke variabele voorspeld wordt op basis van één onafhankelijke variabele is er sprake van enkelvoudige regressie-analyse. Wanneer er meerdere onafhankelijke variabelen gebruikt worden om de afhankelijke variabele te voorspellen, spreken we van multipele regressie-analyse. Zo kunnen wij bijvoorbeeld de Arbeidssatisfactie van werknemers voorspellen op basis van Werkdruk. In dit geval is er sprake van enkelvoudige regressie. Bij de voorspelling van Arbeidssatisfactie op basis van Werkdruk, Opleiding en Inspraak, is er sprake van drie onafhankelijke variabelen en dus van multipele regressie-analyse. Van de regressieprocedure wordt hieronder het doel aangeduid, hoe de betreffende procedure wordt aangeroepen met behulp van het menu, waar de specifieke hulp gevonden kan worden, hoe de globale werkwijze is en enkele aandachtspunten die belangrijk zijn voor het gebruik. Doel: het zo goed mogelijk voorspellen van de scores op de afhankelijke variabele met behulp van de scores op een of meer onafhankelijke variabelen d.m.v. een lineair model. De afhankelijke variabele dient van interval- of rationiveau (scale) te zijn. De onafhankelijke variabelen zijn vaak van interval- of rationiveau, maar kunnen ook nominaal zijn (zgn. dummy variabelen). Zie daarvoor aandachtspunt 4. In een multipele regressie-analyse kunnen ook interacties opgenomen worden (zie aandachtspunt 4). Zelfs bepaalde niet-lineaire verbanden kunnen geanalyseerd worden (zie aandachtspunt 5). Voor de uitvoering in SPSS: Kies in het menu <Statistics> <Regression> <Linear > Informatie over de procedure kan in SPSS verkregen worden m.b.v. <Help, Topics, Contents, Regression, Linear Regression> ofwel <Help> in het venster "Linear Regression" (na kiezen van de procedure m.b.v. menu). Missing Values worden in de berekening buiten beschouwing gelaten, mits correct gedefinieerd of open gelaten (system missing). Met <Options...> kan aangegeven worden hoe de missing values behandeld moeten worden: "exclude cases listwise" (dit is de standaard instelling), "exclude cases pairwise" ofwel "replace with mean". In dit laatste geval worden de missing values van een variabele vervangen door het gemiddelde van de non-missing values. Globale werkwijze Om een (multipele) regressie-analyse uit te voeren moet een afhankelijke variabele worden geselecteerd: "Dependent" en tevens een of meerdere onafhankelijke variabelen: "Independent". Met behulp van de methode Enter worden de geselecteerde onafhankelijke variabelen alle tegelijkertijd in de analyse opgenomen. De overige methoden (Stepwise, Remove, Backward en Forward) worden hier niet behandeld. Ook het zgn. "gewogen kleinste-kwadraten model" dat d.m.v. "WLS>>" kan worden gekozen, wordt hier niet behandeld. Zie hiervoor de Helpfunctie in SPSS. Van: <Statistics>, <Plots>, <Save> en <Options> worden hieronder slechts de mogelijkheden toegelicht die een functie hebben in de standaard regressie-analyse.

Statistics Klik op <Statistics> om een keuze te kunnen maken uit de uitvoermogelijkheden. "Estimates" staat standaard ingesteld en omvat de uitvoer van de regressiecoëfficiënten en daarmee samenhangende grootheden: regressiecoëfficiënten (B), de standard error van de B's (SE B), de gestandaardiseerde regressiecoëfficiënten (Beta), de toetsingsgrootheid t (T) en de overschrijdingskans daarvan (Sig T). Vermeld moet worden dat de waarden van deze grootheden afhankelijk zijn van de keuze van de onafhankelijke variabelen. Door toevoeging of weglating van variabelen kunnen de waarden zeer sterk veranderen. Bijzonderheden over het toetsen van regressiemodellen zijn te vinden onder aandachtspunt 2. Ook "Model fit" is standaard aangekruist. Tot de uitvoer behoort: de multipele correlatiecoëfficiënt (Multiple R), het kwadraat daarvan (R Square), de gecorrigeerde waarde van R 2 (Adjusted R Square) en de standard error. In aandachtspunt 3 wordt nadere informatie gegeven over de gecorrigeerde waarde van R 2. Bovendien wordt in de uitvoer een variantieanalysetabel gepresenteerd met kwadratensommen, vrijheidsgraden (DF), variantieschattingen (Mean Squares), de toetsingsgrootheid F en de overschrijdingskans van de gevonden F- waarde (Signif F). Met behulp van deze variantie-analysetabel kan de berekende R 2 op significantie worden getoetst. Verdere bijzonderheden over het toetsen van regressiemodellen zijn te vinden onder aandachtspunt 2. Door "Descriptives" aan te kruisen, worden van de geselecteerde variabelen (inclusief de afhankelijke variabele) de gemiddelden, de standaarddeviaties en de onderlinge correlaties berekend en gepresenteerd. Plots Enkele mogelijkheden van "Plots" worden beschreven bij de achterliggende theorie. "Plots" wordt met name gebruikt om de assumpties van lineariteit, normaliteit en homoscedasticiteit van het regressiemodel te controleren. Save Tijdens de uitvoering van een multipele regressie-analyse worden enkele "nieuwe" variabelen berekend, die normaliter niet in de datamatrix worden opgeslagen. Het gaat bijvoorbeeld om de voorspelde scores (Unstandardized Predicted Values), de voorspelde scores in standaardvorm (Standardized Predicted Values = voorspelde scores als z-scores), de residuen (Unstandardized Residuals) en de residuen in de vorm van z-scores (Standardized Residuals). Door de betreffende hokjes aan te kruisen, worden de bijbehorende variabelen wel in de datamatrix opgenomen, zodat ze voor later gebruik beschikbaar blijven (mits de datamatrix ook wordt bewaard!). SPSS zorgt zelf voor de naamgeving van deze variabelen. In de uitvoer worden de naam en inhoud van deze variabelen gepresenteerd. De achterliggende theorie Het regressiemodel Het regressiemodel voor de populatie in termen van de variabelen kan als volgt worden geschreven: Y = + 1X 1 + 2X 2 +... + mx m +

Op het niveau van de individuele onderzoekseenheden kan dit model als volgt worden geschreven: Y i = + 1X 1i + 2X 2i +... + mx mi + i De parameters, 1, 2,... zijn de regressiecoëfficiënten in de populatie. Voor iedere onderzoekseenheid zijn het dezelfde waarden. De variabelen X zijn de onafhankelijke variabelen. In totaal zijn er m onafhankelijke variabelen. Y is de afhankelijke variabele. De (hypothetische) variabele (met de bijbehorende scores i) is de zgn. toevalsfactor of errorterm. De score op de afhankelijke variabele wordt voor iedere onderzoekseenheid op dezelfde wijze bepaald door de scores op de onafhankelijke variabelen, plus of min een bepaalde waarde ( i ) die specifiek is voor iedere onderzoekseenheid. De bovenstaande regressievergelijking wordt in het algemeen door middel van een (aselecte en representatieve) steekproef geschat: Y = a + b 1 X 1 + b 2 X 2 +... + b m X m + e Y i = a + b 1 X 1i + b 2 X 2i +... + b m X mi + e i (niveau van de variabelen) (niveau van de onderzoekseenheden) Vaak schrijft men: Y' = a + b 1 X 1 + b 2 X 2 +... + b m X m Y' i = a + b 1 X 1i + b 2 X 2i +... + b m X mi (niveau van de variabelen) (niveau van de onderzoekseenheden) waarbij Y' i de voorspelde score voorstelt. De modellen kunnen ook nog geschreven worden in termen van gestandaardiseerde variabelen: Z y = 1 Z 1 + 2 Z 2 +... + m Z m + (populatie) Z y = B 1 Z 1 + B 2 Z 2 +... + B m Z m + (steekproef) De waarden van en B zijn de gestandaardiseerde regressiecoëfficiënten voor resp. de populatie en de steekproef. Met behulp van de gestandaardiseerde regressiecoëfficiënten kan worden bepaald welke onafhankelijke variabele het meeste gewicht in de schaal legt bij de voorspelling van de afhankelijke variabele. Voorwaarden om een regressie-analyse uit te voeren Om op een correcte wijze te kunnen generaliseren van steekproef naar populatie, dient aan een aantal assumpties voldaan te zijn. De gangbare statistische toetsing in de regressie-analyse kan gevoelig zijn voor schending van een of meer van de hieronder vermelde assumpties. Regressie-analyses uitvoeren zonder dat men zich om de voorwaarden bekommert, kan gemakkelijk aanleiding geven tot moeilijk interpreteerbare resultaten. Het is daarom verstandig de residuen zorgvuldig te analyseren om eventuele schendingen van de assumpties op te sporen. We bespreken hieronder de assumpties en manieren om die te onderzoeken.

Assumptie 1: Lineariteit van de regressievergelijking De regressievergelijking in de populatie is in werkelijkheid lineair (zie boven). Controle op lineariteit en homoscedasticiteit Maak m.b.v. <Plots> een plot van de gestandaardiseerde residuen (*ZRESID) op de Y-as tegen de gestandaardiseerde voorspelde waarden (*ZPRED) op de X-as. Als aan de assumpties van lineariteit en homoscedasticiteit is voldaan, zullen de punten in deze plot volstrekt willekeurig verdeeld zijn. De aanwezigheid van een bepaald patroon is een aanwijzing voor niet-lineaire regressie, voor heteroscedasticiteit of voor beide. NB: Door het opnemen van kwadratische termen (en eventueel termen met een nog hogere macht) kunnen sommige vormen van niet-lineaire regressie worden geanalyseerd. Met behulp van COMPUTE opdrachten worden "nieuwe" variabelen X 2, X 3, enz. gemaakt, die vervolgens als onafhankelijke variabelen in de regressie-analyse worden opgenomen. Door geschikte transformaties is het soms mogelijk om verschillende vormen van nietlineariteit te "lineariseren". Bekend zijn logaritmische, reciproke en vierkantsworteltransformaties. Assumptie 2: Normaliteit, gemiddelde en variantie van de errortermen Voor elke subgroep van onderzoekseenheden, gekenmerkt door een specifieke combinatie van scores op de onafhankelijke variabelen X, is de verdeling van de -scores een normale verdeling met gemiddelde 0 en constante variantie (homoscedasticiteit). Het gemiddelde van de residuen in de steekproef (e) is altijd exact gelijk aan 0 als gevolg van de schattingsprocedure. Controle op normaliteit Met behulp van <Plots> kan een histogram verkregen worden van de gestandaardiseerde residuen door het betreffende hokje aan te kruisen. In het histogram is de theoretische normale verdeling ingetekend. Sterke afwijkingen van de geobserveerde frequencies (kolommen) en de theoretische normale verdeling zijn een aanwijzing voor non-normaliteit van de errortermen, misspecificatie van het model (b.v. er zijn relevante onafhankelijke variabelen vergeten) of heteroscedasticiteit. Assumptie 3: Onafhankelijkheid van de errortermen De waarden die aanneemt voor de diverse onderzoekseenheden zijn onafhankelijk van elkaar. Een voorbeeld van duidelijk afhankelijke errortermen (dan is dus aan de voorwaarde van onafhankelijkheid niet voldaan) wordt gevormd door zgn. repeated measurements (herhaalde metingen bij dezelfde onderzoekseenheden). Dit is bijvoorbeeld bij tijdreeksen het geval. Assumptie 4: Onafhankelijkheid van error en onafhankelijke variabelen De (hypothetische) toevalsfactor ( ) dient ongecorreleerd te zijn met de onafhankelijke variabelen X. Of aan deze voorwaarde is voldaan, is in de praktijk moeilijk te beoordelen. De steekproefcorrelatie tussen de onafhankelijke variabelen en de residuen is exact gelijk aan 0, als gevolg van de schattingsprocedure. Deze correlatiecoëfficiënten zeggen niets over de populatiewaarden ervan.

Localiseren van extreme waarden Hoewel dit niets te maken heeft met de schending van de assumpties, kan voor de interpretatie van een regressie-analyse het opsporen van extreem grote residuen van belang zijn. Het gaat daarbij immers om slecht voorspelbare scores op de afhankelijke variabele. Na het commando <Plots> kan het keuzehokje "Casewise plot" aangekruist worden. Kies daarna voor "Outliers outside 3 std. deviations". In een tabel worden de cases vermeld waarvan het gestandaardiseerde residu groter is dan 3 of kleiner dan -3. Zoals bekend zijn z-scores (onder de assumptie van een normale verdeling) met een absolute waarde van 3 of meer uiterst zeldzaam. Deze kun je beter uit je analyse laten door de waarde te definiëren als een missing value of weg te halen. Toetsen regressieparameters en regressiemodellen Met behulp van de t-toetsen in de uitvoer van SPSS kan worden nagegaan of de betreffende onafhankelijke variabele een significante extra bijdrage levert aan de verklaring van Y boven op de bijdrage van alle overige onafhankelijke variabelen samen. Het komt echter regelmatig voor dat er bij die overige onafhankelijke variabelen, variabelen voorkomen die zelf geen significante bijdrage leveren aan de verklaring van Y. In een dergelijke situatie heeft een individuele t-toets weinig waarde. De t-waarden en de bijbehorende overschrijdingskansen zijn niet geschikt om de onafhankelijke variabelen te selecteren die een significante bijdrage leveren aan de verklaring van de afhankelijke variabele. Een belangrijke toets in de regressie-analyse is de zgn. modeltoets (F-toets voor proportie verklaarde variantie). Hiermee wordt getoetst of het gehele regressiemodel een significante proportie variantie verklaart. De toets kent de volgende nulhypothese: H 0 : R 2 =0 met H 1 : R 2 >0. In de uitvoer van SPSS worden de resultaten van deze F-toets in de tabel ANOVA weergegeven. Een andere belangrijke toets is de F-toets voor modelvergelijking (niet te verwarren met de vorige F-toets!). Met deze toets kan worden nagegaan of het toevoegen, resp. weglaten van onafhankelijke variabelen leidt tot een significante verbetering, resp. verslechtering van het regressiemodel. Stel, in regressie-analyse 1 (met N onderzoekseenheden) zijn p onafhankelijke variabelen opgenomen. Het kwadraat van de multipele correlatiecoëfficiënt wordt voorgesteld door R 2 1. In regressie-analyse 2 (met dezelfde N onderzoekseenheden) zijn dezelfde p onafhankelijke variabelen opgenomen en bovendien nog q andere (nog niet gebruikte) onafhankelijke variabelen. Het kwadraat van de multipele correlatiecoëfficiënt wordt nu voorgesteld door R 2 2. Uiteraard geldt dat R 2 2 R 2 1. In SPSS kan de F-toets voor modelvergelijking worden uitgevoerd door te werken met Blocks. Specificeer eerst het kleine regressiemodel. Door bij Block 1 of 1 op <Next> te klikken, wordt een nieuw Block gemaakt. Het is nu mogelijk om het grote model te specificeren. SPSS zal nu beide regressie-analyses (zowel voor het kleine als het grote regressiemodel) in 1x uitvoeren. Via <Statistics> <R squared change> worden de gegevens m.b.t. de F-toets voor modelvergelijking verkregen.

Dummy-variabelen Nominale (en dus ook ordinale) variabelen kunnen heel goed als onafhankelijke variabelen in een regressie-analyse worden opgenomen, mits zij getransformeerd zijn tot zgn. dummyvariabelen. Een nominale variabele met k elkaar uitsluitende categorieën wordt met behulp van COMPUTE en COMPUTE IF commando's omgezet in (k-1) dummy-variabelen. Elke categorie kan worden herkend aan het unieke patronen van nullen en enen op de k-1 dummy-variabelen. Een categorie heeft een patroon van allemaal nullen; deze categorie wordt de referentiecategorie genoemd. Je mag zelf bepalen welke categorie je kiest als referentiecategorie. Voorbeeld: kwalitatieve variabele met 3 categorieën (A,B,C) kun je met (3-1) dummies (D1 en D2 representeren. Categorie D 1 D 2 A 1 0 B 0 1 C 0 0 Hier: categorie C is de referentiecategorie. Stel dat de variabele VOOROPL bestaat uit drie categorieën, resp. L(ager), M(iddelbaar) en H(oger) met bijbehorende scores 1, 2 en 3. De variabele VOOROPL is kwalitatief en wordt dus niet zonder meer als onafhankelijke variabele in de regressie-analyse opgenomen. Eerst worden (met behulp van 2 COMPUTE en 2 COMPUTE IF commando's) de volgende datatransformaties uitgevoerd. We maken twee nieuwe variabelen: de variabele MO (middelbare opleiding) en de variabele HO (hogere opleiding). MO heeft de waarde 0 als VOOROPL=1 of 3 (d.w.z niet middelbaar) en de waarde 1 als VOOROPL=2 (d.w.z. middelbaar). HO heeft de waarde 0 als VOOROPL=1 of 2 (d.w.z. niet hoger) en de waarde 1 als VOOROPL=3 (d.w.z. hoger). Merk op dat er geen variabele LO nodig is! MO en HO zijn zgn. dummy-variabelen. Zij worden beide in de regressie-analyse opgenomen. Zij vertegenwoordigen resp. het extra effect van de middelbare en hogere vooropleiding. Nogmaals: VOOROPL wordt niet als onafhankelijke variabele opgenomen, MO en HO wel en er is geen dummy-variabele LO. Lager opgeleiden vormen de referentiecategorie, te herkennen aan hun scorepatroon met nullen op zowel MO als HO. Het opnemen van dummy-variabelen in de regressie-analyse op de hierboven omschreven manier heeft alleen zin als er geen sprake is van interacties. Anders geformuleerd: als afzonderlijke regressie-analyses (bijvoorbeeld uitgevoerd na het commando SPLIT FILE) voor de verschillende categorieën van de nominale onafhankelijke variabele (ongeveer) dezelfde regressie-coëfficiënten b (slope) opleveren, maar verschillende a's (intercepts), is het werken met dummy-variabelen gerechtvaardigd. Er is dan geen sprake van interactie. Als echter blijkt dat de b's in de afzonderlijke regressie-analyses voor de verschillende categorieën van de nominale onafhankelijke variabele duidelijk (significant) verschillend zijn, moeten niet alleen dummy-variabelen worden opgenomen, maar ook product-variabelen (=interactie tussen dummy en andere predictor). Door de toevoeging van product-variabelen wordt het model meestal aanzienlijk gecompliceerder; nu kunnen de regressie-coëfficienten verschillen voor de verschillende categorieën van de nominale variabele.

Selecteren predictoren Bij het selecteren van predictoren wordt vaak ten onrechte gedachte dat meer predictoren zullen leiden tot een betere voorspelling van de afhankelijke variabele. Dit is een onjuiste veronderstelling. Meestal zal na het opnemen van 5 à 6 predictoren de verklaarde variantie niet veel meer verbeteren. Verder is het van belang dat het aantal proefpersonen in een goede verhouding staat tot het aantal variabelen dat wordt meegenomen in de regressievergelijking. Stevens (1992) noemt als vuistregel dat in het algemeen minimaal 15 proefpersonen per predictor nodig zijn voor betrouwbare schattingen van de regressievergelijkingen. Let bij het selecteren van variabelen op de onderlinge samenhang tussen predictoren en de samenhang tussen individuele predictoren en de afhankelijke variabele. Het beste is om predictoren te selecteren die onderling laag correleren, maar die elk wel hoog correleren met de afhankelijke variabele. Deze predictoren zullen ieder een uniek stukje variantie in Y verklaren. Tevens wordt op deze manier multicollineariteit voorkomen; de situatie waarin de geschatte regressiecoëfficiënten onbetrouwbaar zijn (dit uit zich in gestandaardiseerde regressiecoëfficiënten groter dan 1 of kleiner dan 1). In geval van multicollineariteit kunnen variabelen die onderling hoog correleren beter worden samengevoegd. Ook kan er voor gekozen worden om slechts één van de twee hoog correlerende predictoren op te nemen in het regressiemodel. Tot slot is het mogelijk, wanneer er veel predictoren zijn, om eerst een datareductie toe te passen (principale componenten analyse) en de verkregen componenten op te nemen als predictoren in het regressiemodel. Inspectie van de correlatiematrix waarin alle correlaties tussen predictoren onderling en correlaties tussen de predictoren en de afhankelijke variabele zijn opgenomen geeft een indicatie of het verstandig is variabelen samen te voegen, niet in de analyse op te nemen of datareductie toe te passen. SPSS heeft verder onder de optie <Statistics> binnen <Linear Regression> de optie <Collinearity Diagnostics>. De zogenaamde Tolerance en VIF = Variance Inflation Factor, zijn daarbij indicatoren voor multicollineariteit. Meer informatie over deze diagnostics staat in de Help-functie van SPSS wanneer je zoekt naar de term collinearity.