In diesem Artikel erklären wir dir, was das Gesetz der großen Zahlen ist. Wir erläutern dir den Unterschied zwischen dem starken und dem schwachen Gesetz der großen Zahlen und verdeutlichen das Thema an einem anschaulichen Beispiel.

Das ist dir trotzdem noch zu abstrakt? Dann schau dir unser Video an und verstehe dort noch einfacher, was es mit dem Gesetz der großen Zahlen auf sich hat.

Inhaltsübersicht

Gesetz der großen Zahlen einfach erklärt

Das Gesetz der großen Zahlen ist ein Grenzwertsatz aus der Wahrscheinlichkeitslehre mit großer praktischer Bedeutung. Es beschreibt im einfachsten Fall, dass sich die relative Häufigkeit h_n(A) eines Zufallsereignisses A an die theoretische Wahrscheinlichkeit P(A) dieses Ereignisses annähert, wenn das Zufallsexperiment nur oft genug durchgeführt wird. In anderen Worten geht die Differenz zwischen der beobachteten relativen Häufigkeit und der theoretischen Wahrscheinlichkeit eines Ereignisses für unendlich viele Durchgänge des Zufallsexperiments gegen null. Für eine sehr große Anzahl an Wiederholungen weicht also die beobachtete relative Häufigkeit nicht mehr bedeutend von der wahren Wahrscheinlichkeit eines Ereignisses ab.

In der Praxis bedeutet das Gesetz der großen Zahlen, dass wir den Erwartungswert von Zufallsvariablen gut mit dem Stichprobenmittelwert schätzen können. Dabei gilt: Je größer der Stichprobenumfang, desto besser schätzen wir den Erwartungswert.

Gesetz der großen Zahlen: Beispiel

Sehen wir uns das Gesetz der großen Zahlen an einem Beispiel an. Stell dir vor, du wirfst zehnmal eine faire Münze. Die beiden Ausgänge dieses Zufallsexperiments – Kopf und Zahl – können jeweils mit der gleichen Wahrscheinlichkeit von 50 % auftreten. Folglich solltest du theoretisch bei 10 Münzwürfen je fünfmal Kopf und fünfmal Mal Zahl erhalten. In der Realität wird es aber selten so sein, dass du bei 10 Würfen jedes Ereignis wirklich genau gleich oft erhältst.

Und tatsächlich: Auch bei deinem Experiment treten beide Ereignisse nicht gleich oft auf. Stattdessen fällt siebenmal Zahl und nur dreimal Kopf. Die relative Häufigkeit von Kopf beträgt also h_{10}("Kopf") = 30\%. Das ist deutlich weniger als die erwartete Wahrscheinlichkeit von 50%.

Wenn du die Münze in einem zweiten Experiment nicht 10, sondern 100 Mal werfen würdest, würde sich die Situation etwas verändern. Stell dir vor, du erhieltest in diesem Fall 41 Mal Kopf und 59 Mal Zahl. Die relative Häufigkeit von Kopf wäre dann h_{100}("Kopf") = 41\%. Vergleichen wir diese Zahl mit der relativen Häufigkeit aus dem ersten Experiment, stellen wir fest, dass sich die relative Häufigkeit etwas an die theoretisch erwartete Wahrscheinlichkeit angenähert hat. Zwar entspricht sie nach wie vor nicht exakt der Wahrscheinlichkeit von P("Kopf") = 50\%, aber die Differenz zwischen relativer Häufigkeit und Wahrscheinlichkeit ist kleiner geworden.
 Wenn du die Münze nun noch häufiger werfen würdest, würde diese Differenz immer weiter abnehmen. In der Tabelle siehst du, wie die relativen Häufigkeiten für  das Ereignis „Kopf“ ausfallen könnten, wenn die Münze 300 Mal, 1000 Mal oder 10 000 Mal geworfen werden würde.

Anzahl Würfe 10 100 300 1000 10000
Absolute Häufigkeit „Kopf“ 3 41 132 470 4820
Relative Häufigkeit „Kopf“ 0,30 0,41 0,44 0,47 0,482

Du siehst, dass sich die relative Häufigkeit immer näher bei der Wahrscheinlichkeit von 0,5 stabilisiert. Bei unendlich vielen Würfen würde die relative Häufigkeit praktisch der Wahrscheinlichkeit entsprechen. Man sagt deshalb auch, die relative Häufigkeit konvergiert gegen die theoretische Wahrscheinlichkeit. Dieses Phänomen wird dann als Gesetz der großen Zahlen bezeichnet.

Wahrscheinlichkeitstheorie, Stochastik, Grenzwertsatz, Zufallsexperiment, Inferenzstatistik
direkt ins Video springen
Gesetz der großen Zahlen für Wahrscheinlichkeiten

Formel Gesetz der großen Zahlen

Mathematisch kannst du das Gesetz der großen Zahlen für Wahrscheinlichkeiten so notieren: 

Gesetz der großen Zahlen für Wahrscheinlichkeiten

\displaystyle \lim_{n \to \infty} P(|h_n(A)-P(A)| < \epsilon) = 1 für alle \epsilon > 0

  • n – Stichprobengröße
  • \infty – Symbol für „unendlich“
  • h_n(A) – Relative Häufigkeit des Ereignisses A
  • P(A) – Wahrscheinlichkeit des Ereignisses A
  • \epsilon – beliebige positive Zahl

In Worten bedeutet diese Formel: Die Wahrscheinlichkeit, dass die Differenz zwischen beobachteter relativer Häufigkeit und theoretischer Wahrscheinlichkeit kleiner ist als eine beliebig kleine positive Zahl \epsilon, ist für eine unendlich große Stichprobe praktisch 1. 

Starkes und schwaches Gesetz der großen Zahlen

Beim Gesetz der großen Zahlen unterscheidet man zwischen dem starken und dem schwachen Gesetz der großen Zahlen. Die beiden Gesetze unterscheiden sich darin, wie sicher die beobachtete Größe mit zunehmender Stichprobengröße gegen ihren theoretischen Erwartungswert konvergiert. Ist diese Annäherung stochastisch wahrscheinlich, spricht man vom schwachen Gesetz der großen Zahlen. Ist sie hingegen fast sicher, findet das starke Gesetz der großen Zahlen Anwendung. Welches der beiden Gesetze jeweils zutrifft, hängt dabei von den Eigenschaften der betrachteten Zufallsvariable ab.  Beispielsweise wird beim starken Gesetz der großen Zahlen vorausgesetzt, dass der Erwartungswert der Zufallsvariable endlich ist, während das schwache Gesetz der großen Zahlen nur annimmt, dass der Erwartungswert generell existiert. 

Gesetz der großen Zahlen für Erwartungswerte

Die Erkenntnis, dass sich die relative Häufigkeit mit zunehmendem Stichprobenumfang an die Wahrscheinlichkeit annähert, lässt sich generell auf die Erwartungswerte von Zufallsvariablen übertragen. So lässt sich beispielsweise zeigen, dass der Erwartungswert des Stichprobenmittelwerts dem Mittelwert der Grundgesamtheit entspricht.  Auch hier nähert sich also auch die Schätzung des Mittelwerts der Grundgesamtheit  mit dem Stichprobenmittelwert immer mehr an den wahren Wert an, je größer der Stichprobenumfang ist. Eine ausreichend große Stichprobe ist also – neben einigen anderen Aspekten – eine wichtige Voraussetzung, damit du verlässliche Schätzungen über die Grundgesamtheit treffen kannst. 

Was bedeutet das Gesetz der großen Zahlen nicht?

Ein weit verbreiteter Irrtum ist, dass Ereignisse, die bei einem Zufallsexperiment bislang seltener aufgetreten sind, bald vermehrt auftreten müssen, um ihren „Rückstand“ wieder aufzuholen. Beispielsweise setzen Spieler beim Roulette häufig auf die Farbe rot, wenn in den vergangenen Runden immer wieder schwarz gewonnen hatte.

Tatsächlich handelt es sich bei den verschiedenen Runden aber um unabhängige Zufallsexperimente. Das bedeutet, dass das Ergebnis einer Spielrunde unabhängig von dem Ausgang der vorherigen Runde ist. Für ein neues Spiel ist es folglich egal, ob in der Runde zuvor schwarz oder rot gewonnen hatte. Es existiert also kein sogenanntes „Gesetz des Ausgleichs“ . Zwar gleicht sich die relative Häufigkeit der Farben schwarz und rot  auf lange Sicht der wahren Wahrscheinlichkeit an, eine konkrete Vorhersage über die nächste Spielrunde kann auf Grundlage der bislang beobachteten relativen Häufigkeiten aber nicht getroffen werden.

Hallo, leider nutzt du einen AdBlocker.

Auf Studyflix bieten wir dir kostenlos hochwertige Bildung an. Dies können wir nur durch die Unterstützung unserer Werbepartner tun.

Schalte bitte deinen Adblocker für Studyflix aus oder füge uns zu deinen Ausnahmen hinzu. Das tut dir nicht weh und hilft uns weiter.

Danke!
Dein Studyflix-Team

Wenn du nicht weißt, wie du deinen Adblocker deaktivierst oder Studyflix zu den Ausnahmen hinzufügst, findest du hier eine kurze Anleitung. Bitte .