Regressieanalyse

statistische techniek om samenhang tussen gegevens te onderzoeken
(Doorverwezen vanafRegressie-analyse)

Regressieanalyseis eenstatistischetechniek voor het analyseren vangegevenswaarin (mogelijk) sprake is van een specifieke samenhang, aangeduid alsregressie.Deze samenhang houdt in dat de waarde van eenstochastische variabele(de afhankelijkevariabele), op eenstoringstermna, afhangt van een of meer in principe instelbare vrij te kiezen variabelen. De afhankelijke variabele wordt meestal metaangeduid en de onafhankelijke variabele met(eventueel alsvector). Het verband is dan:

Hierin steltde storingsterm voor, die onafhankelijk is van(dat wil zeggen dat men aanneemt dat de volledige variatie te wijten is aan een fout in).

Defunctieis in de relatie onbekend, maar voor toepassing van regressieanalyse behoort deze wel tot een bepaalde klasse die met een beperkt aantalparametersbeschreven kan worden. Het paarwordt wel aangeduid alsonafhankelijke en afhankelijke variabeleof als verklarende en te verklaren variabele; ook wordt wel gesproken van voorspeller en responsvariabele, of predictor en criteriumvariabele.

Terminologie

bewerken
Onafhankelijke variabele
Deze variabele wordt ookinstelvariabelegenoemd. De waarde van de variabele wordt bepaald door de keuzes die door degene die het experiment uitvoert gemaakt worden.
Afhankelijke variabele
De waarde van de afhankelijke variabele is het gevolg van de keuzes die gemaakt zijn bij de instelvariabele(n). De afhankelijke variabele is een stochastische variabele.
Regressie
De terminologie "regressie", teruggang, is in dit verband eigenlijk misplaatst. De term werd voor het eerst gebruikt door de Engelse antropoloogFrancis Galton.Hij merkte namelijk op dat kinderen uitzonderlijke eigenschappen van hun ouders overerven, doch dat er een tendens bestaat van"regressie naar het midden".De kinderen nemen de eigenschappen van hun ouders namelijk in afgezwakte mate over. Zo hebben lange ouders, lange kinderen, en korte ouders korte kinderen, maar steeds minder uitgesproken. Galton ontdekte dit verband door het toepassen van demethode van de kleinste kwadratenen noemde ze naar het door hem bestudeerde fenomeen, regressieanalyse. Later verfijndeKarl Pearsonde rekenmethode en behield de door Galton aangewende psychoantropologische terminologie.

Voorbeeld

bewerken

Het benzineverbruikvan een bepaald type auto hangt af van de snelheidwaarmee gereden wordt. Beredeneerd kan worden dat dit verband kwadratisch is en wel als volgt:

.

Afhankelijk van omstandigheden als wegdek, verkeerssituatie, weersomstandigheden e.d., zal het benzineverbruik bij eenzelfde snelheid toch nog variaties vertonen, die weergegeven worden als storingsterm.Met de gegevens verkregen uit een aantal testritten (steekproef) zal men door middel van regressieanalyse de parameters schatten.

Lineaire regressie

bewerken

Er is sprake van lineaire regressie als de bovengenoemde functieeenlineaire functieis van de verklarende variabelen.

Enkelvoudige lineaire regressie

bewerken

In het geval van enkelvoudige lineaire regressie is er slechts één verklarende variabele.Het model vooris:

Meestal wordt de storingstermnormaal verdeeldverondersteld metverwachting0 enstandaardafwijking.

De parameter,die meestal ook onbekend is, kan ook zichtbaar gemaakt worden:

;

waarinnu standaardnormaal verdeeld is.

Het idee bij de analyse is het volgende:

  • De gemiddelde waarde van alle-waarden zal een waarde vooropleveren die dicht bij de gemiddelde y-waarde ligt. Het puntis het uitgangspunt voor de lijn.
  • De waarde van de helling van de lijn ligt waarschijnlijk dicht bij de gemiddelde waarde van alle hellingen die ontstaan als elk meetpunt verbonden wordt met het hierboven aangegeven.

Met methoden uit deschattingstheorieworden de parameters van deze lineaire relatie geschat.

Omdat een schatting gebaseerd is op het resultaat van eensteekproef,kan het analyseren van enkelvoudige lineaire regressie opgevat worden als het bepalen van de best passendelijndoor de gegeven meetpunten. Wat "best passen" betekent is natuurlijk afhankelijk van het gehanteerde criterium. Een zo'n criterium is het "kleinste-kwadratencriterium". Daarvoor wordt dekleinste-kwadratenmethodegebruikt. Van lijnworden de coëfficiëntenenzodanig berekend dat de som van de kwadraten van alle afwijkingenvan het meetpunt ten opzichte van de lijn (zie figuur) minimaal is.

Theorie

bewerken

Bij verschillende waardenvan de verklarende variabeleworden de waardenvan de bijbehorende stochastische variabelenwaargenomen. Deze stochastische variabelen worden verondersteld onderling onafhankelijk te zijn. Het model voor de steekproef is dus:

waarin deonderling onafhankelijk zijn, alle N(0,1)-verdeeld. Het gaat er nu om schattingen te geven voor de parameters op basis van de steekproefuitkomst.Meestal gebruikt men daarvoor dekleinste-kwadratenmethodeen bepaalt daarmee de kleinste-kwadratenschattersen,waarvoor de som:

minimaal is. Deze schatters worden gegeven door:

en

Ook de parameterkan geschat worden, en wel door:

De hierin voorkomende kwadraatsom kan geschreven worden als:

Daarin zijn

de totale kwadraatsom

veel gebruikte afkortingen voor de beide kwadraatsommen en de som van producten.

Voor dedeterminatiecoëfficiëntgeldt dus:

Verder is:

want

Met

de verklaarde (explained) kwadraatsom
de resterende (residual) kwadraatsom

Met vectoren:enzijn vectoren in.ligt in de deelruimte opgespannen dooren,en is de projectie vanop die ruimte. Omdatook in die ruimte ligt is

en

,

dwz

Herhalingen

bewerken

Als bij dezelfde waarde van de verklarende variabelemeer dan één waarnemingis gedaan, kan de parametergeschat door middel van de variantie binnen deze groepen. Het model is dan:

waarin deweer onderling onafhankelijk zijn en alle N(0,1)-verdeeld.

(NB. De groepen zijn hier voor de eenvoud alle van gelijke omvanggekozen; noodzakelijk is dit niet.)

In de formules voor de schattingenenvoor resp.enmoet nu overal de bijhorende y-waarde vervangen worden door het gemiddelde

van die groep. Een schatting vanis;

De kwadratensom hierin is een van de termen uit de variantieanalyse, waarin de totale kwadratensom uiteenvalt in drie delen:

De laatste term daarin is de kwadratensom ten gevolge van de regressie. De middelste term meet de afwijkingen van de groepsgemiddelden ten opzichte van de geschatte regressielijn, en is daarmee een maat voor het goed passen van het model.

Meervoudige lineaire regressie

bewerken

Zijn er meer verklarende variabelen, maar iswel een lineaire functie daarvan, dan spreken we van multipele (of meervoudige) lineaire regressie. Het model heeft de vorm:

,

metweer N(0,1)-verdeeld.

Ook hier worden met de kleinste-kwadratenmethode de parametersgeschat. De analyse verloopt geheel analoog aan het enkelvoudige geval. Het is alleen rekentechnisch ingewikkelder.

Theorie

bewerken

Ook hier worden bij verschillende waardenvan de verklarende variabelende waardenvan de bijbehorende stochastische variabelenwaargenomen. Deze stochastische variabelen worden verondersteld onderling onafhankelijk te zijn. Het model voor de steekproef is dus:

waarin deonderling onafhankelijk zijn en alle N(0,1)-verdeeld. Het is overzichtelijker deze relaties met vectoren te noteren, waardoor ze in gedaante sterk vereenvoudigen.

.

Hierin isen.De waarden van de'en vinden we terug in de matrix,waarvan de-de rij gegeven wordt door:

.

De kleinste-kwadratenmethode voert tot de normaalvergelijkingen:

.

In de gebruikelijke gevallen is de matrixinverteerbaar, zodat de oplossing, de kleinste-kwadratenschatters, gegeven wordt door:

.

Voorbeeld

bewerken
temperatuur
(in °C)
lengte
(in mm)
20 1000,02
60 1000,96
100 1001,82
120 1002,75

Om de lineaireuitzettingscoëfficiëntvanaluminiumte bepalen, meet eenfysicusde lengte van een aluminium staaf bij vier verschillende temperaturen. Het resultaat staat hiernaast.

De gemeten lengteis natuurlijk niet exact gelijk aan de "werkelijke" (verwachte) lengte; er zit nog een meetfout in en eventueel andere storingen. De verwachte lengte hangt lineair samen met de temperatuur,daarom kunnen we voor de gemeten lengteschrijven:

,

waarin de meetfout en de overige storingen zijn samengevat in. Deparameteris de lengte bij 0 graden; de parameterstaat in directe relatie met de gezochte uitzettingscoëfficiënt. Op basis van de boven gegeven steekproefuitkomstkunnen schattingenenvan deze parameters berekend worden. Als we daartoe de methode der kleinste kwadraten gebruiken, zijn deze schattingen gebaseerd op de volgende grootheden:

en.

Deze werden vroeger, bij "handmatige" berekening bepaald, door de tabel met de meetdata met geschikte kolommen uit te breiden en de kolomtotalen te berekenen:

waarneming
nr.
1 20 1000,02 400 20000,4
2 60 1000,96 3600 60057,6
3 100 1001,82 10000 100182,0
4 120 1002,75 14400 120330,0
totaal 300 4005,55 28400 300570,0

Als kleinste-kwadratenschattingvoor de gezochte parametervinden we:

(mm/K).

Variantieanalyse

bewerken

Vanwege de overeenkomstige analysemethodiek is het mogelijk eenvariantieanalyseop te vatten als een regressieanalyse. Als voorbeeld nemen we het ANOVA-model met één factor.

,

waarin deonderling onafhankelijk zijn en alle N(0,1)-verdeeld. Dit model wordt ook vaak op equivalente wijze geschreven als:

,

met als extra voorwaarde:

.

Door invoeren van zgn. dummy-variabelenkunnen we het model ook schrijven als:

waarin het de vorm heeft van een regressiemodel zonder intercept.

Gesegmenteerde regressie

bewerken
ZieStuksgewijze regressieanalysevoor het hoofdartikel over dit onderwerp.

In sommige gevallen lijkt het verband tussen de variabelen stuksgewijs lineair, als een op een of meer plaatsen gebroken rechte. Het bereik van de verklarende variabele wordt dan verdeeld in segmenten, waarna een lineaire regressie per segment wordt uitgevoerd. De opdeling in segmenten kan daarbij ook onderdeel zijn van de statistische analyse.

Referenties

bewerken