Video
Quiz

In diesem Artikel erklären wir dir, wann du eine Bonferroni-Korrektur verwendest und für was sie gut ist.

Keine Lust zu lesen? Kein Problem, in unserem Video haben wir die wichtigsten Aspekte für dich zusammengefasst, schau doch mal rein!

Quiz zum Thema Bonferroni Korrektur
Inhaltsübersicht

Bonferroni-Korrektur einfach erklärt

Die Bonferroni-Korrektur ist eine Methode, um das Signifikanzniveau \alpha anzupassen. Das ist immer dann notwendig, wenn  du mehrere, „multiple“ Tests durchführst. In diesem Fall beträgt die Wahrscheinlichkeit für den Fehler 1. Art für alle Tests zusammen nämlich nicht mehr 5 % (bzw. 1%), sondern deutlich mehr. Das bedeutet, das Risiko, dass du mindestens ein signifikantes Ergebnis erhältst, obwohl gar kein Effekt vorliegt, ist bei multiplen Tests also deutlich erhöht. Man spricht hier auch von Alpha-Fehler-Kumulierung oder Alpha-Inflation.

Diesem Problem kannst du mit der Bonferroni-Korrektur entgegenwirken. Dabei setzt du das \alpha-Niveau für jeden einzelnen Test herab, so dass das Gesamt-\alpha für alle Tests nur höchstens so groß wird, wie das zuvor festgelegte Signifikanzniveau. Ein Nachteil der Bonferroni-Korrektur ist ein Verlust an Teststärke. Das heißt, die Wahrscheinlichkeit, existierende Effekte auch wirklich zu entdecken, sinkt, wenn du die \alpha-Werte herabsetzt. Als Alternative zur Bonferroni-Korrektur kann man deshalb auch die Bonferroni-Holm-Korrektur anwenden.

Warum braucht man eine Bonferroni-Korrektur? 

Die Bonferroni-Korrektur kommt immer dann zum Einsatz, wenn du mehrere zusammenhängende Tests durchführst. Stell dir etwa vor, du hast drei Gruppen, deren Mittelwerte du vergleichen möchtest. Um zu untersuchen, ob sich die Mittelwerte verschiedener Gruppen unterscheiden, hast du in der Vergangenheit den t-Test kennengelernt. Mit einem t-Test kannst du jedoch immer nur zwei Gruppen gleichzeitig miteinander vergleichen. Da du jetzt aber 3 Gruppen vorliegen hast, musst du mehrere t-Tests durchführen, um sowohl Gruppe 1 mit 2, 2 mit 3 als auch Gruppe 1 mit 3 miteinander zu vergleichen.

Mehrere Tests sind jedoch nicht nur etwas umständlich, sondern bergen auch das Risiko der Alpha-Fehler-Kumulierung. Normalerweise würdest du für jeden t-Test ein Signifikanzniveau von \alpha = 5\% (oder wahlweise 1%) festlegen. Dieser Wert sagt aus, wie hoch das Risiko sein darf, dass dein Test signifikant wird, obwohl kein signifikanter Unterschied vorliegt (Fehler 1. Art).

Führst du nun multiple t-Tests durch, zeigt sich folgendes Problem: Das Gesamtrisiko, dass mindestens einer der Tests fälschlicherweise signifikant wird, liegt nun nicht mehr bei 5%, sondern deutlich höher. Bei 3 Tests läge das Risiko für alle Tests zusammen zum Beispiel bereits bei 14,26%. Das bedeutet, selbst wenn sich deine 3 Gruppen überhaupt nicht signifikant unterscheiden, wird in 14,26 % der Fälle trotzdem mindestens ein Test fälschlicherweise signifikant. Je mehr Gruppen du vergleichst, desto stärker steigt das Risiko für den Fehler 1. Art an. Das schränkt  die Belastbarkeit deiner Ergebnisse stark ein. Schließlich wird mit steigendem \alpha-Risiko zunehmend unklar, ob ein signifikantes Ergebnis auf einen tatsächlichen Effekt oder auf den Fehler 1. Art zurückzuführen ist.

Um der Alpha-Fehler-Kumulierung entgegen zu wirken, kannst du die Bonferroni-Korrektur einsetzen. Mit ihr bewirkst du, dass das Gesamtrisiko für den Fehler 1. Art für alle Tests zusammen wieder nur insgesamt 5 % beträgt und signifikante Ergebnisse nicht mehr so häufig auf Zufallseinflüsse zurückzuführen sind. 

Wie führt man eine Bonferroni-Korrektur durch? 

Die Bonferroni-Korrektur kannst du ganz leicht per Hand durchführen: Du teilst dafür einfach dein angestrebtes Signifikanzniveau (also z.B. 5%) durch die Anzahl der durchzuführenden Tests (also z.B. 3 Tests). Das Ergebnis sagt dir, wie hoch bzw. niedrig das adjustierte \alpha für jeden einzelnen Test sein muss, damit das Gesamtrisiko für den Fehler 1. Art für alle Tests insgesamt höchstens so groß ist wie dein gewünschtes Signifikanzniveau.

\alpha_{adj} = \frac{\alpha}{Anzahl\,der\,Tests}

Angenommen du möchtest 3 Gruppen vergleichen und ein Signifikanzniveau von 5% ansetzen, dann kannst du adjustierte Signifikanzniveau mit der Bonferroni-Korrektur so berechnen: 

\alpha_{adj} = \frac{\alpha}{Anzahl\,der\,Tests} = \frac {0,05}{3} = 0,0167

Für jeden der drei Tests müsstest du also ein adjustiertes \alpha von 1,67% verwenden, damit das Gesamtrisiko des Fehlers 1. Art für alle drei Tests nicht über 5% steigt. 

Nachteile der Bonferroni-Korrektur

Ein Nachteil der Bonferroni-Korrektur ist, dass sie sehr streng ist. Dadurch erhältst du für die einzelnen Tests sehr kleine \alpha-Werte. Das hat zur Folge, dass zwar der Fehler 1. Art klein ist, jedoch das Risiko für den Fehler 2. Art steigt. Der Fehler 2. Art beschreibt, dass ein Effekt nicht entdeckt wird, obwohl er in Wahrheit existiert. Das bedeutet, dass es nach einer Bonferroni-Korrektur schwieriger ist, Effekte, die tatsächlich existieren, auch zu finden, da dein Test nicht mehr so teststark ist. 

Quiz zum Thema Bonferroni Korrektur

Bonferroni-Holm-Korrektur und ANOVA als Lösungen

Als weniger konservative Alternative zur Bonferroni-Korrektur gibt es deshalb die Bonferroni-Holm-Korrektur. Bei dieser Korrektur wird das \alpha-Niveau für jeden einzelnen Test separat festgelegt. Dafür betrachtest du, zwischen welchen Gruppen die größte Mittelwertsdifferenz (bzw. der kleinste p-Wert ) aufgetreten ist. Dieser Test bekommt das kleinste \alpha-Niveau zugewiesen. Der Test mit dem zweitkleinsten p-Wert erhält das zweitkleinste \alpha, der Test mit dem drittkleinsten p-Wert das drittkleinste und so weiter. Die adjustierten \alpha-Werte erhältst du hierbei, indem du das Signifikanzniveau durch die Anzahl der Tests teilst, aber  bei jedem weiteren Test den Nenner um eins reduzierst. 

Bei m Tests kannst du dir das so vorstellen:

  • Test mit der größten Mittelwertsdifferenz: \alpha_{adj} = \frac{\alpha}{m}
  • Test mit der zweitgrößten Mittelwertsdifferenz:  \alpha_{adj} = \frac{\alpha}{m-1}
  • Test mit der drittgrößten Mittelwertsdifferenz:  \alpha_{adj} = \frac{\alpha}{m-2}

… 

  • Test mit der m’tgrößten Mittelwertsdifferenz:  \alpha_{adj} = \frac{\alpha}{m-(m-1)} = \alpha

Bei 3 Tests würde das dann so aussehen: 

  • Test mit der größten Mittelwertsdifferenz: \alpha_{adj} = \frac{\alpha}{3}
  • Test mit der zweitgrößten Mittelwertsdifferenz:  \alpha_{adj} = \frac{\alpha}{3-1}
  • Test mit der drittgrößten Mittelwertsdifferenz:  \alpha_{adj} = \frac{\alpha}{3-2}

Ganz generell lässt sich jedoch festhalten, dass multiple t-Tests neben der Alpha-Fehler-Kumulierung weitere Probleme mit sich bringen. Solltest du also die Mittelwerte von mehr als zwei Gruppen miteinander vergleichen wollen, solltest du generell lieber auf eine ANOVA als Analysemethode zurückgreifen. Auch dazu haben wir ein eigenes Video für dich erstellt. Schau es dir gleich an!

ANOVA, Varianzanalyse
Zum Video: ANOVA

Hallo, leider nutzt du einen AdBlocker.

Auf Studyflix bieten wir dir kostenlos hochwertige Bildung an. Dies können wir nur durch die Unterstützung unserer Werbepartner tun.

Schalte bitte deinen Adblocker für Studyflix aus oder füge uns zu deinen Ausnahmen hinzu. Das tut dir nicht weh und hilft uns weiter.

Danke!
Dein Studyflix-Team

Wenn du nicht weißt, wie du deinen Adblocker deaktivierst oder Studyflix zu den Ausnahmen hinzufügst, findest du hier eine kurze Anleitung. Bitte .