Hoofdstuk 10: Variantieanalyse: Enkelvoudige variantieanalyse
Inleiding tot variantieanalyse
Eerder hebben we de #t#-toets met onafhankelijke steekproeven besproken als een methode voor het testen van hypothesen over het verschil in gemiddelde tussen twee onafhankelijke populaties. Met deze procedure zouden we bijvoorbeeld het verschil in gemiddelde in het aantal verkeersovertredingen tussen de jongere en oudere helft van een bepaalde populatie kunnen vergelijken.
Het nadeel van dit type (paarsgewijze) één-op-één-toets is echter dat deze niet bijzonder geschikt is voor het testen van het verschil in gemiddelde tussen meer dan twee populaties. Wat als we bijvoorbeeld het aantal verkeersovertredingen zouden willen vergelijken tussen drie leeftijdsgroepen (jongeren, middelbare leeftijd, ouderen) in plaats van twee?
We zouden in theorie een reeks opeenvolgende #t#-toetsen kunnen uitvoeren om alle verschillende paren van leeftijdsgroepen één voor één te vergelijken, maar dit stuit op het probleem van kanskapitalisatie.
Kanskapitalisatie
Elke keer dat we een statistische toets uitvoeren, bestaat de mogelijkheid dat we een type I-fout maken, dat wil zeggen dat we een vals-positief resultaat krijgen. De kans op het maken van een Type I-fout is per definitie gelijk aan het significantieniveau #\alpha# dat wij als onderzoeker hanteren:
\[\mathbb{P}(\text{Type I fout}) = \mathbb{P}(H_0\text{ is verworpen}\,|\,H_0\text{ is waar}) = \alpha\]
Als we dus het significantieniveau #\alpha=0.05# kiezen en één enkele toets uitvoeren, is de kans op een vals-positief #5\%#. Als we echter meerdere toetsen achter elkaar uitvoeren, wordt de kans dat ten minste één van deze toetsen een vals positief resultaat oplevert groter dan #\alpha#. Dit wordt kanskapitalisatie genoemd.
Om de exacte kans op een vals-positief resultaat bij meerdere toetsen te bepalen, kan de family-wise error rate (vrij vertaald: familie-gecorrigeerde foutmarge) worden berekend.
Family-wise error rate
Bij het uitvoeren van meerdere hypothese-toetsen is de family-wise error rate (#\alpha_{fw}#) de algemene kans dat één of meer van de toetsen resulteren in een Type I-fout. In het Nederlands kan family-wise error rate vrij vertaald worden naar familie-gecorrigeerde foutmarge.
Als we #k# afzonderlijke hypothese-toetsen uitvoeren en het significantieniveau van de individuele toetsen is #\alpha#, wordt de family-wise error rate als volgt berekend:
\[\alpha_{fw} = 1 - (1 - \alpha)^k\]
Beschouw een onderzoeksontwerp waarbij een continue variabele één keer wordt gemeten in #3# eenvoudige willekeurige steekproeven. Als we een reeks #t#-toetsen met onafhankelijke steekproeven zouden gebruiken om paarsgewijze vergelijkingen te maken tussen de gemiddelden van deze steekproeven, zouden we in totaal #3# toetsen nodig hebben:
- Een toets tussen steekproeven #1# en #2#
- Een toets tussen steekproeven #1# en #3#
- Een toets tussen steekproeven#2# en #3#
Als we voor elk van de drie paarsgewijze vergelijkingen (#k=3#) een significantieniveau van #\alpha = 0.05# kiezen, wordt het family-wise error rate als volgt berekend:
\[\alpha_{fw} = 1 - (1 - 0.05)^3=0.142625\]
Dit betekent dat er een kans van #14.26\%# bestaat op het maken van een Type I-fout.
Naarmate het aantal steekproeven dat wordt vergeleken toeneemt, loopt de family-wise error rate snel uit de hand. Als we bijvoorbeeld #6# steekproeven zouden vergelijken op een significantieniveau van #\alpha=0.05#, is de kans op het verkrijgen van een of meer vals-positieve resultaten ongeveer #50##:##50#.
Om te voorkomen dat het family-wise error rate uit de hand loopt bij het vergelijken van meer dan twee steekproeven, is een ander type toets nodig.
Variantieanalyse (Engels: Analysis of Variance, afgekort als ANOVA) is een verzameling statistische procedures en de bijbehorende modellen die worden gebruikt om hypothesen over het verschil in gemiddelde tussen drie of meer populaties te toetsen.
Met behulp van ANOVA zijn we in staat om tegelijkertijd alle populatiegemiddelden te vergelijken met behulp van een enkele hypothese-toets. Dit zorgt ervoor dat de kans op het maken van een Type I- fout gelijk blijft aan het significantieniveau #\alpha#.
ANOVA-terminologie
In de context van ANOVA wordt de continu afhankelijke variabele de uitkomstvariabele genoemd.
De categorische onafhankelijke variabele die bepaalt welke populaties worden vergeleken, wordt een factor genoemd.
De individuele categorieën of populaties waaruit de factor bestaat, worden de niveaus van de factor genoemd.
Stel dat een onderzoeker wil onderzoeken of de lengte van mensen verschilt tussen drie Europese landen: Frankrijk, Duitsland en Nederland.
In dit voorbeeld:
- Hoogte is de uitkomstvariabele.
- Landen is de factor.
- Frankrijk, Duitsland en Nederland zijn de drie niveaus van de factor.
In de rest van dit hoofdstuk wordt het meest basale type ANOVA geïntroduceerd, de enkelvoudige variantieanalyse, die kan worden beschouwd als een generalisatie van de #t#-toets met onafhankelijke steekproeven.
omptest.org als je een OMPT examen moet maken.