fbpx
Wikipedia

Wahrscheinlichkeitstheorie

Die Wahrscheinlichkeitstheorie, auch Wahrscheinlichkeitsrechnung oder Probabilistik, ist ein Teilgebiet der Mathematik, das aus der Formalisierung, der Modellierung und der Untersuchung von Zufallsgeschehen hervorgegangen ist. Gemeinsam mit der mathematischen Statistik, die anhand von Beobachtungen zufälliger Vorgänge Aussagen über das zugrunde liegende Modell trifft, bildet sie das mathematische Teilgebiet der Stochastik.

Die zentralen Objekte der Wahrscheinlichkeitstheorie sind zufällige Ereignisse, Zufallsvariablen und stochastische Prozesse.

Inhaltsverzeichnis

Wie jedes Teilgebiet der modernen Mathematik wird auch die Wahrscheinlichkeitstheorie mengentheoretisch formuliert und auf axiomatischen Vorgaben aufgebaut. Ausgangspunkt der Wahrscheinlichkeitstheorie sind Ereignisse, die als Mengen aufgefasst werden und denen Wahrscheinlichkeiten zugeordnet sind; Wahrscheinlichkeiten sind reelle Zahlen zwischen 0 und 1; die Zuordnung von Wahrscheinlichkeiten zu Ereignissen muss gewissen Mindestanforderungen genügen.

Diese Definitionen geben keinen Hinweis darauf, wie man die Wahrscheinlichkeiten einzelner Ereignisse ermitteln kann; sie sagen auch nichts darüber aus, was Zufall und was Wahrscheinlichkeit eigentlich sind. Die mathematische Formulierung der Wahrscheinlichkeitstheorie ist somit für verschiedene Interpretationen offen, ihre Ergebnisse sind dennoch exakt und vom jeweiligen Verständnis des Wahrscheinlichkeitsbegriffs unabhängig.

Definitionen

Konzeptionell wird als Grundlage der mathematischen Betrachtung von einem Zufallsvorgang oder Zufallsexperiment ausgegangen. Alle möglichen Ergebnisse dieses Zufallsvorgangs fasst man in der Ergebnismenge Ω {\displaystyle \Omega } zusammen. Häufig interessiert man sich jedoch gar nicht für das genaue Ergebnis ω Ω {\displaystyle \omega \in \Omega } , sondern nur dafür, ob es in einer bestimmten Teilmenge der Ergebnismenge liegt, was so interpretiert werden kann, dass ein Ereignis eingetreten ist oder nicht. Ein Ereignis ist also als eine Teilmenge von Ω {\displaystyle \Omega } definiert. Enthält das Ereignis genau ein Element der Ergebnismenge, handelt es sich um ein Elementarereignis. Zusammengesetzte Ereignisse enthalten mehrere Ergebnisse. Das Ergebnis ist also ein Element der Ergebnismenge, das Ereignis jedoch eine Teilmenge.

Damit man den Ereignissen in sinnvoller Weise Wahrscheinlichkeiten zuordnen kann, werden sie in einem Mengensystem aufgeführt, der Ereignisalgebra oder dem Ereignissystem Σ {\displaystyle \Sigma } über Ω {\displaystyle \Omega } , einer Menge von Teilmengen von Ω {\displaystyle \Omega } , für die gilt: Sie enthält Ω {\displaystyle \Omega } und ist ein σ-Körper, d. h., sie ist gegenüber den Mengenoperationen der Vereinigung und der Komplementbildung (relativ bzgl. Ω {\displaystyle \Omega } ) abgeschlossen genauso wie gegenüber der unendlichen Vereinigung abzählbar vieler Mengen. Die Wahrscheinlichkeiten sind dann Bilder einer gewissen Abbildung P {\displaystyle P} des Ereignisraums in das Intervall [0,1]. Solch eine Abbildung heißt Wahrscheinlichkeitsmaß. Das Tripel ( Ω , Σ , P ) {\displaystyle (\Omega ,\Sigma ,P)} wird als Wahrscheinlichkeitsraum bezeichnet.

Axiome von Kolmogorow

Die axiomatische Begründung der Wahrscheinlichkeitstheorie wurde in den 1930er Jahren von Andrei Kolmogorow entwickelt. Ein Wahrscheinlichkeitsmaß muss demnach folgende drei Axiome erfüllen:

Axiome:

  1. Für jedes Ereignis A Σ {\displaystyle A\in \Sigma } ist die Wahrscheinlichkeit von A {\displaystyle A} eine reelle Zahl zwischen 0 und 1: 0 P ( A ) 1 {\displaystyle 0\leq P(A)\leq 1} .
  2. Das sichere Ereignis Ω Σ {\displaystyle \Omega \in \Sigma } hat die Wahrscheinlichkeit 1: P ( Ω ) = 1 {\displaystyle P(\Omega )=1} .
  3. Die Wahrscheinlichkeit einer Vereinigung abzählbar vieler inkompatibler Ereignisse ist gleich der Summe der Wahrscheinlichkeiten der einzelnen Ereignisse. Dabei heißen Ereignisse A i {\displaystyle A_{i}} inkompatibel, wenn sie paarweise disjunkt sind, also bei A i A j = {\displaystyle A_{i}\cap A_{j}=\emptyset } für alle i j {\displaystyle i\neq j} . Es gilt daher P ( A 1 ˙ A 2 ˙ ) = P ( A i ) {\displaystyle P\left(A_{1}\;\;\!\!{\dot {\cup }}\;\;\!\!A_{2}\;\;\!\!{\dot {\cup }}\;\;\!\!\!\cdots \right)=\sum P(A_{i})} . Diese Eigenschaft wird auch σ-Additivität genannt.

Beispiel: Im Rahmen einer physikalischen Modellbildung wird ein Wahrscheinlichkeitsmaß zur Beschreibung des Ergebnisses eines Münzwurfes angesetzt, die möglichen Ergebnisse (Ereignisse genannt) mögen Zahl und Kopf lauten.

  • Dann ist die Ergebnismenge Ω = { Zahl , Kopf } {\displaystyle \Omega =\{{\text{Zahl}},{\text{Kopf}}\}} .
  • Als Ereignisraum kann die Potenzmenge P ( Ω ) {\displaystyle {\mathcal {P}}(\Omega )\;} gewählt werden, also Σ = { , { Zahl } , { Kopf } , Ω } {\displaystyle \Sigma =\{\emptyset ,\{{\text{Zahl}}\},\{{\text{Kopf}}\},\Omega \}} .
  • Für das Wahrscheinlichkeitsmaß P {\displaystyle P} steht aufgrund der Axiome fest:
    • P ( ) = 0 {\displaystyle P(\emptyset )=0}
    • P ( { Zahl } ) = 1 P ( { Kopf } ) {\displaystyle P(\{{\text{Zahl}}\})=1-P(\{{\text{Kopf}}\})}
    • P ( Ω ) = 1 {\displaystyle P(\Omega )=1}

Zusätzliche physikalische Annahmen über die Beschaffenheit der Münze können nun etwa zur Wahl P ( { Kopf } ) = P ( { Zahl } ) = 0 , 5 {\displaystyle P(\{{\text{Kopf}}\})=P(\{{\text{Zahl}}\})=0{,}5} führen.

Folgerungen

Aus den Axiomen ergeben sich unmittelbar einige Folgerungen:

1. Aus der Additivität der Wahrscheinlichkeit disjunkter Ereignisse folgt, dass komplementäre Ereignisse (Gegenereignisse) komplementäre Wahrscheinlichkeiten (Gegenwahrscheinlichkeiten) haben: P ( Ω A ) = 1 P ( A ) {\displaystyle P(\Omega \setminus A)=1-P(A)} .

Beweis: Es ist ( Ω A ) A = Ω {\displaystyle (\Omega \setminus A)\cup A=\Omega } sowie ( Ω A ) A = {\displaystyle (\Omega \setminus A)\cap A=\emptyset } . Folglich nach Axiom (3): P ( Ω A ) + P ( A ) = P ( Ω ) {\displaystyle P(\Omega \setminus A)+P(A)=P(\Omega )} und dann nach Axiom (2): P ( Ω A ) + P ( A ) = 1 {\displaystyle P(\Omega \setminus A)+P(A)=1} . Umgestellt ergibt sich: P ( Ω A ) = 1 P ( A ) {\displaystyle P(\Omega \setminus A)=1-P(A)} .

2. Daraus folgt, dass das unmögliche Ereignis, die leere Menge, die Wahrscheinlichkeit Null hat: P ( ) = 0 {\displaystyle P(\emptyset )=0} .

Beweis: Es ist Ω = Ω {\displaystyle \emptyset \cup \Omega =\Omega } und Ω = {\displaystyle \emptyset \cap \Omega =\emptyset } , also nach Axiom (3): P ( ) + P ( Ω ) = P ( Ω ) {\displaystyle P(\emptyset )+P(\Omega )=P(\Omega )} . Hieraus folgt P ( ) = 0 {\displaystyle P(\emptyset )=0} .

3. Für die Vereinigung nicht notwendig disjunkter Ereignisse folgt: P ( A B ) = P ( A ) + P ( B ) P ( A B ) {\displaystyle P(A\cup B)=P(A)+P(B)-P(A\cap B)} .

Beweis: Die für den Beweis erforderlichen Mengen sind im obigen Bild dargestellt. Die Menge A B {\displaystyle A\cup B} kann danach als Vereinigung von drei disjunkten Mengen dargestellt werden:
Hieraus folgt nach (3): P ( A B ) = P ( A B ) + P ( A B ) + P ( B A ) {\displaystyle P(A\cup B)=P(A\setminus B)+P(A\cap B)+P(B\setminus A)} .
Andererseits ist nach (3) sowohl
P ( A ) = P ( A B ) + P ( A B ) {\displaystyle P(A)=P(A\setminus B)+P(A\cap B)} als auch
P ( B ) = P ( A B ) + P ( B A ) {\displaystyle P(B)=P(A\cap B)+P(B\setminus A)} .
Addition liefert:
P ( A ) + P ( B ) = P ( A B ) + P ( A B ) + P ( A B ) + P ( B A ) = P ( A B ) + P ( A B ) {\displaystyle P(A)+P(B)=P(A\setminus B)+P(A\cap B)+P(A\cap B)+P(B\setminus A)=P(A\cup B)+P(A\cap B)} .
Umstellen ergibt P ( A B ) = P ( A ) + P ( B ) P ( A B ) {\displaystyle P(A\cup B)=P(A)+P(B)-P(A\cap B)} .
Die Siebformel von Poincaré-Sylvester verallgemeinert diese Behauptung im Falle n verschiedener (nicht notwendig disjunkter) Teilmengen.

Im Weiteren ist zwischen abzählbaren und überabzählbaren Ergebnismengen zu unterscheiden.

Abzählbare Ergebnismenge

Beispiel: Ein Glücksrad mit Ergebnismenge Ω = { 1 , 2 , 3 } {\displaystyle \Omega =\{1,2,3\}} , Ereignisraum Σ {\displaystyle \Sigma } (hier die Potenzmenge von Ω {\displaystyle \Omega } ) und Wahrscheinlichkeitsmaß P {\displaystyle P} .

Bei einer abzählbaren Ergebnismenge kann jedem Elementarereignis eine positive Wahrscheinlichkeit zugewiesen werden. Wenn Ω {\displaystyle \Omega } endlich oder abzählbar unendlich ist, kann man für die σ-Algebra Σ {\displaystyle \Sigma } die Potenzmenge von Ω {\displaystyle \Omega } wählen. Die Summe der Wahrscheinlichkeiten aller Elementarereignisse aus Ω {\displaystyle \Omega } ist hier 1.

Überabzählbare Ergebnismenge

Die Wahrscheinlichkeit, mit einer als punktförmig angenommenen Dartspitze einen bestimmten Punkt auf einer Scheibe zu treffen, ist null. Eine sinnvolle mathematische Theorie kann man nur auf der Wahrscheinlichkeit aufbauen, bestimmte Teilflächen zu treffen. Solche Wahrscheinlichkeiten lassen sich durch eine Wahrscheinlichkeitsdichte beschreiben.

Ein Prototyp einer überabzählbaren Ergebnismenge ist die Menge der reellen Zahlen. In vielen Modellen ist es nicht möglich, allen Teilmengen der reellen Zahlen sinnvoll eine Wahrscheinlichkeit zuzuordnen. Als Ereignissystem wählt man statt der Potenzmenge der reellen Zahlen hier meist die Borelsche σ-Algebra, das ist die kleinste σ-Algebra, die alle Intervalle von reellen Zahlen als Elemente enthält. Die Elemente dieser σ-Algebra nennt man Borelsche Mengen oder auch (Borel-)messbar. Wenn die Wahrscheinlichkeit P ( A ) {\displaystyle P(A)} jeder Borelschen Menge A {\displaystyle A} als Integral

P ( A ) = A f ( x ) d x {\displaystyle P(A)=\int _{A}f(x)\,\mathrm {d} x}

über eine Wahrscheinlichkeitsdichte f {\displaystyle f} geschrieben werden kann, wird P {\displaystyle P} absolut stetig genannt. In diesem Fall (aber nicht nur in diesem) haben alle Elementarereignisse {x} die Wahrscheinlichkeit 0. Die Wahrscheinlichkeitsdichte eines absolut stetigen Wahrscheinlichkeitsmaßes P {\displaystyle P} ist nur fast überall eindeutig bestimmt, d. h., sie kann auf einer beliebigen Lebesgue-Nullmenge, also einer Menge vom Lebesgue-Maß 0, abgeändert werden, ohne dass P {\displaystyle P} verändert wird. Wenn die erste Ableitung der Verteilungsfunktion von P {\displaystyle P} existiert, so ist sie eine Wahrscheinlichkeitsdichte von P. Die Werte der Wahrscheinlichkeitsdichte werden jedoch nicht als Wahrscheinlichkeiten interpretiert.

Laplace-Experimente

Wenn man annimmt, dass nur endlich viele Elementarereignisse möglich und alle gleichberechtigt sind, d. h. mit der gleichen Wahrscheinlichkeit eintreten (wie zum Beispiel beim Werfen einer idealen Münze, wobei {Zahl} und {Kopf} jeweils die Wahrscheinlichkeit 0,5 besitzen), so spricht man von einem Laplace-Experiment. Dann lassen sich Wahrscheinlichkeiten einfach berechnen: Wir nehmen eine endliche Ergebnismenge Ω {\displaystyle \Omega } an, die die Mächtigkeit | Ω | = n {\displaystyle |\Omega |=n} besitzt, d. h., sie hat n {\displaystyle n} Elemente. Dann ist die Wahrscheinlichkeit jedes Elementarereignisses einfach P = 1 n {\displaystyle P={\tfrac {1}{n}}} .

Beweis: Wenn | Ω | = n {\displaystyle |\Omega |=n} ist, dann gibt es n {\displaystyle n} Elementarereignisse E 1 , , E n {\displaystyle E_{1},\ldots ,E_{n}} . Es ist dann einerseits Ω = E 1 E n {\displaystyle \Omega =E_{1}\cup \cdots \cup E_{n}} und andererseits sind je zwei Elementarereignisse disjunkt (inkompatibel: wenn das eine eintritt, kann das andere nicht eintreten). Also sind die Voraussetzungen für Axiom (3) erfüllt, und es gilt:
P ( E 1 ) + + P ( E n ) = P ( Ω ) = 1. {\displaystyle P(E_{1})+\cdots +P(E_{n})=P(\Omega )=1.}
Da nun andererseits P ( E 1 ) = = P ( E n ) = P {\displaystyle P(E_{1})=\cdots =P(E_{n})=P} sein soll, ist n P = 1 {\displaystyle n\cdot P=1} und daher umgestellt: P = 1 n {\displaystyle P={\tfrac {1}{n}}} , wie behauptet.

Als Konsequenz folgt, dass für Ereignisse, die sich aus mehreren Elementarereignissen zusammensetzen, die entsprechend vielfache Wahrscheinlichkeit gilt. Ist A {\displaystyle A} ein Ereignis der Mächtigkeit | A | = m {\displaystyle |A|=m} , so ist A {\displaystyle A} die Vereinigung von m {\displaystyle m} Elementarereignissen. Jedes davon hat die Wahrscheinlichkeit P = 1 n {\displaystyle P={\tfrac {1}{n}}} , also ist P ( A ) = m 1 n = m n {\displaystyle P(A)=m\cdot {\tfrac {1}{n}}={\tfrac {m}{n}}} . Man erhält also den einfachen Zusammenhang

P ( A ) = | A | | Ω | . {\displaystyle P(A)={\frac {|A|}{|\Omega |}}.}

Bei Laplace-Versuchen ist die Wahrscheinlichkeit eines Ereignisses gleich der Zahl der für dieses Ereignis günstigen Ergebnisse, dividiert durch die Zahl der insgesamt möglichen Ergebnisse.

Nachstehend ein Beispiel beim Würfeln mit einem idealen Würfel.

Ω = { {\displaystyle \Omega =\{} ⚀⚁⚂⚃⚄⚅ } {\displaystyle \}}
H = { {\displaystyle H=\{} ⚄⚅ } {\displaystyle \}}
P ( H ) = | H | | Ω | = 2 6 = 1 3 {\displaystyle P(H)={\frac {|H|}{|\Omega |}}={\frac {2}{6}}={\frac {1}{3}}}

Das Ereignis H {\displaystyle H} = Hohe Augenzahl (5 oder 6) hat die Wahrscheinlichkeit 1/3.

Ein typischer Laplace-Versuch ist auch das Ziehen einer Karte aus einem Spiel mit n {\displaystyle n} Karten oder das Ziehen einer Kugel aus einer Urne mit n {\displaystyle n} Kugeln. Hier hat jedes Elementarereignis die gleiche Wahrscheinlichkeit. Um die Anzahl der Elementarereignisse bei Laplace-Versuchen zu bestimmen, werden häufig Methoden der Kombinatorik verwendet.

Das Konzept der Laplace-Experimente lässt sich auf den Fall einer stetigen Gleichverteilung verallgemeinern.

Bedingte Wahrscheinlichkeit

Unter einer bedingten Wahrscheinlichkeit versteht man die Wahrscheinlichkeit für das Eintreten eines Ereignisses A {\displaystyle A} unter der Voraussetzung, dass das Eintreten eines anderen Ereignisses B {\displaystyle B} bereits bekannt ist. Natürlich muss B {\displaystyle B} eintreten können, es darf also nicht das unmögliche Ereignis sein. Man schreibt dann P ( A | B ) {\displaystyle P(A|B)} oder seltener P B ( A ) {\displaystyle P_{B}(A)} für „Wahrscheinlichkeit von A {\displaystyle A} unter der Voraussetzung B {\displaystyle B} “, kurz „ P {\displaystyle P} von A {\displaystyle A} , vorausgesetzt B {\displaystyle B} “.

Beispiel: Die Wahrscheinlichkeit, aus einem Skatblatt eine Herz-Karte zu ziehen (Ereignis A {\displaystyle A} ), beträgt 1/4, denn es gibt 32 Karten und darunter 8 Herz-Karten. Dann ist P ( Herz ) = 8 32 = 1 4 {\displaystyle P({\text{Herz}})={\tfrac {8}{32}}={\tfrac {1}{4}}} . Das Gegenereignis ist dann Karo, Pik oder Kreuz und hat deshalb die Wahrscheinlichkeit 24 32 = 3 4 {\displaystyle {\tfrac {24}{32}}={\tfrac {3}{4}}} .

Ergebnismenge beim Ziehen einer Karte aus einem Skatspiel

Wenn nun aber bereits das Ereignis B {\displaystyle B} „Die Karte ist rot“ eingetreten ist (es wurde eine Herz- oder Karo-Karte gezogen, es ist aber nicht bekannt, welche der beiden Farben), man also nur noch die Auswahl unter den 16 roten Karten hat, dann ist P ( A | B ) = 8 16 = 1 2 {\displaystyle P(A|B)={\tfrac {8}{16}}={\tfrac {1}{2}}} die Wahrscheinlichkeit, dass es sich dann um das Herz-Blatt handelt.

Diese Überlegung galt für einen Laplaceversuch. Für den allgemeinen Fall definiert man die bedingte Wahrscheinlichkeit von „ A {\displaystyle A} , vorausgesetzt B {\displaystyle B} “ als

P ( A | B ) = P ( A B ) P ( B ) . {\displaystyle P(A\vert B)={\frac {P(A\cap B)}{P(B)}}.}

Dass diese Definition sinnvoll ist, zeigt sich daran, dass die so definierte Wahrscheinlichkeit den Axiomen von Kolmogorow genügt, wenn man sich auf B {\displaystyle B} als neue Ergebnismenge beschränkt; d. h., dass gilt:

  1. 0 P ( A | B ) 1 {\displaystyle 0\leq P(A\vert B)\leq 1}
  2. P ( B | B ) = 1 {\displaystyle P(B\vert B)=1}
  3. Wenn A 1 , , A k {\displaystyle A_{1},\ldots ,A_{k}} paarweise disjunkt sind, so ist P ( A 1 A k | B ) = P ( A 1 | B ) + + P ( A k | B ) {\displaystyle P(A_{1}\cup \cdots \cup A_{k}\vert B)=P(A_{1}\vert B)+\cdots +P(A_{k}\vert B)}

Beweis:

  1. P ( A | B ) {\displaystyle P(A\vert B)} ist Quotient zweier Wahrscheinlichkeiten, für welche nach Axiom (1) gilt P ( A B ) 0 {\displaystyle P(A\cap B)\geq 0} und P ( B ) 0 {\displaystyle P(B)\geq 0} . Da B {\displaystyle B} nicht das unmögliche Ereignis sein soll, ist sogar P ( B ) > 0 {\displaystyle P(B)>0} . Also gilt auch für den Quotienten P ( A | B ) 0 {\displaystyle P(A\vert B)\geq 0} . Ferner sind A B {\displaystyle A\cap B} und B A {\displaystyle B\setminus A} disjunkt, und ihre Vereinigung ist B {\displaystyle B} . Also ist nach Axiom (3): P ( A B ) = P ( B ) P ( B A ) {\displaystyle P(A\cap B)=P(B)-P(B\setminus A)} .
    Da P ( B A ) 0 {\displaystyle P(B\setminus A)\geq 0} ist, folgt P ( A B ) P ( B ) {\displaystyle P(A\cap B)\leq P(B)} und daher P ( A | B ) 1 {\displaystyle P(A\vert B)\leq 1} .
  2. Es ist P ( B | B ) = P ( B B ) P ( B ) = P ( B ) P ( B ) = 1. {\displaystyle P(B\vert B)={\frac {P(B\cap B)}{P(B)}}={\frac {P(B)}{P(B)}}=1.}
  3. Des Weiteren ergibt sich:
P ( A 1 A k | B ) = P ( ( A 1 A k ) B ) P ( B ) = P ( ( A 1 B ) ( A k B ) ) P ( B ) = P ( A 1 B ) + + P ( A k B ) P ( B ) = P ( A 1 B ) P ( B ) + + P ( A k B ) P ( B ) = P ( A 1 | B ) + + P ( A k | B ) . {\displaystyle {\begin{aligned}P(A_{1}\cup \cdots \cup A_{k}\vert B)&={\frac {P((A_{1}\cup \cdots \cup A_{k})\cap B)}{P(B)}}\\&={\frac {P((A_{1}\cap B)\cup \cdots \cup (A_{k}\cap B))}{P(B)}}\\&={\frac {P(A_{1}\cap B)+\cdots +P(A_{k}\cap B)}{P(B)}}\\&={\frac {P(A_{1}\cap B)}{P(B)}}+\cdots +{\frac {P(A_{k}\cap B)}{P(B)}}\\\\&=P(A_{1}\vert B)+\cdots +P(A_{k}\vert B).\end{aligned}}}
Dies war zu zeigen.

Beispiel: Es sei wie oben A {\displaystyle A} das Ereignis „Ziehen einer Herz-Karte“ und B {\displaystyle B} das Ereignis „Es ist eine rote Karte“. Dann ist:

P ( A B ) = 8 32 = 1 4 {\displaystyle P(A\cap B)={\frac {8}{32}}={\frac {1}{4}}}

und

P ( B ) = 16 32 = 1 2 . {\displaystyle P(B)={\frac {16}{32}}={\frac {1}{2}}.}

Folglich gilt:

P ( A | B ) = P ( A B ) P ( B ) = 1 4 1 2 = 1 2 . {\displaystyle P(A\vert B)={\frac {P(A\cap B)}{P(B)}}={\frac {\frac {1}{4}}{\frac {1}{2}}}={\frac {1}{2}}.}

Aus der Definition der bedingten Wahrscheinlichkeit ergeben sich folgende Konsequenzen:

Verbundwahrscheinlichkeit (Schnittmengen von Ereignissen)

Das gleichzeitige Eintreten zweier Ereignisse A {\displaystyle A} und B {\displaystyle B} entspricht mengentheoretisch dem Eintreten des Verbund-Ereignisses A B {\displaystyle A\cap B} . Die Wahrscheinlichkeit hiervon berechnet sich zur gemeinsamen Wahrscheinlichkeit oder Verbundwahrscheinlichkeit

P ( A B ) = P ( A ) P ( B | A ) = P ( B ) P ( A | B ) . {\displaystyle P(A\cap B)=P(A)\cdot P(B\vert A)=P(B)\cdot P(A\vert B).}

Beweis: Nach Definition der bedingten Wahrscheinlichkeit ist einerseits

P ( A | B ) = P ( A B ) P ( B ) {\displaystyle P(A\vert B)={\frac {P(A\cap B)}{P(B)}}}

und andererseits auch

P ( B | A ) = P ( A B ) P ( A ) . {\displaystyle P(B\vert A)={\frac {P(A\cap B)}{P(A)}}.}

Umstellen nach P ( A B ) {\displaystyle P(A\cap B)} liefert dann sofort die Behauptung.

Beispiel: Es wird eine Karte aus 32 Karten gezogen. A {\displaystyle A} sei das Ereignis: „Es ist ein König“. B {\displaystyle B} sei das Ereignis: „Es ist eine Herz-Karte“. Dann ist A B {\displaystyle A\cap B} das gleichzeitige Eintreten von A {\displaystyle A} und B {\displaystyle B} , also das Ereignis: „Die gezogene Karte ist ein Herz-König“. Offenbar ist P ( A ) = 4 32 = 1 8 {\displaystyle P(A)={\tfrac {4}{32}}={\tfrac {1}{8}}} . Ferner ist P ( B | A ) = 1 4 {\displaystyle P(B|A)={\tfrac {1}{4}}} , denn es gibt nur eine Herz-Karte unter den vier Königen. Und in der Tat ist dann P ( A B ) = P ( A ) P ( B | A ) = 1 8 1 4 = 1 32 {\displaystyle P(A\cap B)=P(A)\cdot P(B\vert A)={\tfrac {1}{8}}\cdot {\tfrac {1}{4}}={\tfrac {1}{32}}} die Wahrscheinlichkeit für den Herz-König.

Satz von Bayes

Die bedingte Wahrscheinlichkeit von A {\displaystyle A} unter der Bedingung B {\displaystyle B} lässt sich durch die bedingte Wahrscheinlichkeit von B {\displaystyle B} unter der Bedingung A {\displaystyle A} durch

P ( A B ) = P ( B A ) P ( A ) P ( B ) {\displaystyle P(A\mid B)={\frac {P(B\mid A)\cdot P(A)}{P(B)}}}

ausdrücken, wenn man die totalen Wahrscheinlichkeiten P ( B ) {\displaystyle P(B)} und P ( A ) {\displaystyle P(A)} kennt (Satz von Bayes).

Abhängigkeit und Unabhängigkeit von Ereignissen

Ereignisse nennt man unabhängig voneinander, wenn das Eintreten des einen die Wahrscheinlichkeit des anderen nicht beeinflusst. Im umgekehrten Fall nennt man sie abhängig. Man definiert:

Zwei Ereignisse A {\displaystyle A} und B {\displaystyle B} sind unabhängig, wenn P ( A B ) = P ( A ) P ( B ) {\displaystyle P(A\cap B)=P(A)\cdot P(B)} gilt.
Ungenau, aber einprägsam formuliert: Bei unabhängigen Ereignissen kann man die Wahrscheinlichkeiten multiplizieren.

Dass dies dem Begriff „Unabhängigkeit“ gerecht wird, erkennt man durch Umstellen nach P ( A ) {\displaystyle P(A)} :

P ( A ) = P ( A B ) P ( B ) = P ( A | B ) . {\displaystyle P(A)={\frac {P(A\cap B)}{P(B)}}=P(A\vert B).}

Das bedeutet: Die totale Wahrscheinlichkeit für A {\displaystyle A} ist ebenso groß wie die Wahrscheinlichkeit für A {\displaystyle A} , vorausgesetzt B {\displaystyle B} ; das Eintreten von B {\displaystyle B} beeinflusst also die Wahrscheinlichkeit von A {\displaystyle A} nicht.

Beispiel: Es wird eine aus 32 Karten gezogen. A {\displaystyle A} sei das Ereignis „Es ist eine Herz-Karte“. B {\displaystyle B} sei das Ereignis „Es ist eine Bild-Karte“. Diese Ereignisse sind unabhängig, denn das Wissen, dass man eine Bild-Karte zieht, beeinflusst nicht die Wahrscheinlichkeit, dass es eine Herz-Karte ist (Der Anteil der Herz-Karten unter den Bilder-Karten ist ebenso groß wie der Anteil der Herz-Karten an allen Karten). Offenbar ist P ( A ) = 8 32 = 1 4 {\displaystyle P(A)={\tfrac {8}{32}}={\tfrac {1}{4}}} und P ( B ) = 12 32 = 3 8 {\displaystyle P(B)={\tfrac {12}{32}}={\tfrac {3}{8}}} . A B {\displaystyle A\cap B} ist das Ereignis „Es ist eine Herz-Bildkarte“. Da es davon drei gibt, ist P ( A B ) = 3 32 {\displaystyle P(A\cap B)={\tfrac {3}{32}}} . Und in der Tat stellt man fest, dass 1 4 3 8 = 3 32 {\displaystyle {\tfrac {1}{4}}\cdot {\tfrac {3}{8}}={\tfrac {3}{32}}} ist.

Ein weiteres Beispiel für sehr kleine und sehr große Wahrscheinlichkeiten findet sich in Infinite-Monkey-Theorem.

Die klassische Wahrscheinlichkeitsrechnung betrachtet nur Wahrscheinlichkeiten auf diskreten Wahrscheinlichkeitsräumen und stetige Modelle mit Dichtefunktionen. Diese beiden Ansätze lassen sich durch die moderne Formulierung der Wahrscheinlichkeitstheorie, die auf den Konzepten und Ergebnissen der Maß- und Integrationstheorie beruht, vereinheitlichen und verallgemeinern.

Wahrscheinlichkeitsräume

Hauptartikel: Wahrscheinlichkeitsraum

In dieser Sichtweise ist ein Wahrscheinlichkeitsraum ( Ω , Σ , P ) {\displaystyle (\Omega ,\Sigma ,P)} ein Maßraum mit einem Wahrscheinlichkeitsmaß P {\displaystyle P} . Das bedeutet, die Ergebnismenge Ω {\displaystyle \Omega } ist eine beliebige Menge, der Ereignisraum Σ {\displaystyle \Sigma } ist eine σ-Algebra mit Grundmenge Ω {\displaystyle \Omega } und P : Σ [ 0 , 1 ] {\displaystyle P\colon \Sigma \to [0,1]} ist ein Maß, das durch P ( Ω ) = 1 {\displaystyle P(\Omega )=1} normiert ist.

Wichtige Standardfälle von Wahrscheinlichkeitsräumen sind:

  • Ω {\displaystyle \Omega } ist eine abzählbare Menge und Σ {\displaystyle \Sigma } ist die Potenzmenge von Ω {\displaystyle \Omega } . Dann ist jedes Wahrscheinlichkeitsmaß P {\displaystyle P} eindeutig festgelegt durch seine Werte P ( { ω } ) {\displaystyle P(\{\omega \})} auf den einelementigen Teilmengen von Ω {\displaystyle \Omega } und für alle A Σ {\displaystyle A\in \Sigma } gilt
P ( A ) = ω A P ( { ω } ) {\displaystyle P(A)=\sum _{\omega \in A}P(\{\omega \})} .
  • Ω {\displaystyle \Omega } ist eine Teilmenge von R n {\displaystyle \mathbb {R} ^{n}} und Σ {\displaystyle \Sigma } ist die Borelsche σ-Algebra auf Ω {\displaystyle \Omega } . Ist das Wahrscheinlichkeitsmaß P {\displaystyle P} absolut stetig bezüglich des Lebesgue-Maßes, dann besitzt P {\displaystyle P} nach dem Satz von Radon-Nikodým eine Lebesgue-Dichte f {\displaystyle f} , d. h., für alle A Σ {\displaystyle A\in \Sigma } gilt
P ( A ) = A f ( x ) d x {\displaystyle P(A)=\int _{A}f(x)\,\mathrm {d} x} .
Umgekehrt wird für eine nichtnegative messbare Funktion f {\displaystyle f} , welche die Normierungsbedingung Ω f ( x ) d x = 1 {\displaystyle \textstyle \int _{\Omega }f(x)\,dx=1} erfüllt, durch diese Formel ein Wahrscheinlichkeitsmaß auf Ω {\displaystyle \Omega } definiert.
  • Ω = i I Ω i {\displaystyle \textstyle \Omega =\prod _{i\in I}\Omega _{i}} ist ein kartesisches Produkt und Σ = i I Σ i {\displaystyle \textstyle \Sigma =\bigotimes _{i\in I}\Sigma _{i}} ist die Produkt-σ-Algebra von σ-Algebren Σ i {\displaystyle \Sigma _{i}} auf Ω i {\displaystyle \Omega _{i}} . Sind Wahrscheinlichkeitsmaße P i {\displaystyle P_{i}} auf Ω i {\displaystyle \Omega _{i}} gegeben, dann wird durch das Produktmaß P = i I P i {\displaystyle \textstyle P=\bigotimes _{i\in I}P_{i}} ein Wahrscheinlichkeitsmaß auf Ω {\displaystyle \Omega } definiert, das die unabhängige Hintereinanderausführung der Einzelexperimente ( Ω i , Σ i , P i ) i I {\displaystyle (\Omega _{i},\Sigma _{i},P_{i})_{i\in I}} modelliert.

Zufallsvariable

Hauptartikel: Zufallsvariable

Eine Zufallsvariable ist das mathematische Konzept für eine Größe, deren Wert vom Zufall abhängig ist. Aus maßtheoretischer Sicht handelt es sich um eine messbare Funktion X {\displaystyle X} auf einem Wahrscheinlichkeitsraum ( Ω , Σ , P ) {\displaystyle (\Omega ,\Sigma ,P)} in einen Messraum ( Ω , Σ ) {\displaystyle (\Omega ',\Sigma ')} bestehend aus einer Menge Ω {\displaystyle \Omega '} und einer σ-Algebra Σ {\displaystyle \Sigma '} auf Ω {\displaystyle \Omega '} . Messbarkeit bedeutet dabei, dass für alle A Σ {\displaystyle A'\in \Sigma '} das Urbild X 1 ( A ) {\displaystyle X^{-1}(A')} ein Element der σ-Algebra Σ {\displaystyle \Sigma } ist. Die Verteilung von X {\displaystyle X} ist dann nichts anderes als das Bildmaß

P X := P X 1 : Σ [ 0 , 1 ] , P X 1 ( A ) = P ( X 1 ( A ) ) {\displaystyle P_{X}:=P\circ X^{-1}:\Sigma '\to [0,1],\quad P\circ X^{-1}(A')=P(X^{-1}(A'))} ,

das von X {\displaystyle X} auf dem Messraum ( Ω , Σ ) {\displaystyle (\Omega ',\Sigma ')} induziert wird und diesen zu einem Wahrscheinlichkeitsraum ( Ω , Σ , P X ) {\displaystyle (\Omega ',\Sigma ',P_{X})} macht.

Der Erwartungswert einer reellwertigen Zufallsvariable X {\displaystyle X} mittelt die möglichen Ergebnisse. Er lässt sich abstrakt definieren als Integral von X {\displaystyle X} bezüglich des Wahrscheinlichkeitsmaßes P {\displaystyle P} :

E ( X ) = Ω X d P {\displaystyle \operatorname {E} (X)=\int _{\Omega }X\,\mathrm {d} P} .

Wahrscheinlichkeitstheorie und mathematische Statistik werden zusammenfassend auch als Stochastik bezeichnet. Beide Gebiete stehen in enger wechselseitiger Beziehung:

  • Statistische Verteilungen werden regelmäßig unter der Annahme modelliert, dass sie das Resultat zufälliger Prozesse sind.
  • Statistische Verfahren können auf numerische Weise Anhaltspunkte für das Verhalten von Wahrscheinlichkeitsverteilungen liefern.

Die Wahrscheinlichkeitstheorie entstand aus dem Problem der gerechten Verteilung des Einsatzes bei abgebrochenen Glücksspielen. Auch andere frühe Anwendungen stammen aus dem Bereich des Glücksspiels.

Heute ist die Wahrscheinlichkeitstheorie eine Grundlage der Statistik. Die angewandte Statistik nutzt Ergebnisse der Wahrscheinlichkeitstheorie, um Umfrageergebnisse zu analysieren oder Wirtschaftsprognosen zu erstellen.

Große Bereiche der Physik wie die Thermodynamik und die Quantenmechanik nutzen die Wahrscheinlichkeitstheorie zur theoretischen Beschreibung ihrer Resultate.

Sie ist ferner die Grundlage für mathematische Disziplinen wie die Zuverlässigkeitstheorie, die Erneuerungstheorie und die Warteschlangentheorie und das Werkzeug zur Analyse in diesen Bereichen.

Auch in der Mustererkennung ist die Wahrscheinlichkeitstheorie von zentraler Bedeutung.

Dieser Artikel oder Absatz stellt die Situation in Deutschland dar. Hilf mit, die Situation in anderen Staaten zu schildern.

Aufgrund seiner vielseitigen Anwendungsbereiche und des Alltagsbezugs bereits junger Schüler wird die Wahrscheinlichkeitstheorie ab Klasse 1 in allen Schulformen im Rahmen des Mathematikunterrichts gelehrt. Geht es in der Grundschule noch darum, Grundbegriffe der Wahrscheinlichkeitsrechnung kennenzulernen und erste Zufallsexperimente hinsichtlich ihrer Gewinnchancen zu bewerten, wird in der Sekundarstufe I zunehmend der Wahrscheinlichkeitsbegriff analytisch in seiner Vielseitigkeit betrachtet und es stehen zunehmend komplexere Zufallsexperimente im Zentrum des Interesses. In der Sekundarstufe II werden die Vorkenntnisse um spezifische Aspekte wie Bernoulliketten, bedingte Wahrscheinlichkeit und Laplace-Experimente erweitert.

Commons: Wahrscheinlichkeitstheorie – Sammlung von Bildern, Videos und Audiodateien
  1. https://kultusministerium.hessen.de/schulsystem/bildungsstandards-kerncurricula-und-lehrplaene/kerncurricula/primarstufe/mathematik
  2. https://kultusministerium.hessen.de/schulsystem/bildungsstandards-kerncurricula-und-lehrplaene/kerncurricula/sekundarstufe-i/mathematik
  3. https://kultusministerium.hessen.de/schulsystem/bildungsstandards-kerncurricula-und-lehrplaene/kerncurricula/gymnasiale-oberstufe-12
Normdaten (Sachbegriff): GND:4079013-7(OGND, AKS)

Wahrscheinlichkeitstheorie
wahrscheinlichkeitstheorie, teilgebiet, mathematik, sprache, beobachten, bearbeiten, weitergeleitet, wahrscheinlichkeitsrechnung, auch, wahrscheinlichkeitsrechnung, oder, probabilistik, teilgebiet, mathematik, formalisierung, modellierung, untersuchung, zufall. Wahrscheinlichkeitstheorie Teilgebiet der Mathematik Sprache Beobachten Bearbeiten Weitergeleitet von Wahrscheinlichkeitsrechnung Die Wahrscheinlichkeitstheorie auch Wahrscheinlichkeitsrechnung oder Probabilistik ist ein Teilgebiet der Mathematik das aus der Formalisierung der Modellierung und der Untersuchung von Zufallsgeschehen hervorgegangen ist Gemeinsam mit der mathematischen Statistik die anhand von Beobachtungen zufalliger Vorgange Aussagen uber das zugrunde liegende Modell trifft bildet sie das mathematische Teilgebiet der Stochastik Die zentralen Objekte der Wahrscheinlichkeitstheorie sind zufallige Ereignisse Zufallsvariablen und stochastische Prozesse Inhaltsverzeichnis 1 Axiomatischer Aufbau 1 1 Definitionen 1 2 Axiome von Kolmogorow 1 3 Folgerungen 1 3 1 Abzahlbare Ergebnismenge 1 3 2 Uberabzahlbare Ergebnismenge 2 Spezielle Eigenschaften im Fall diskreter Wahrscheinlichkeitsraume 2 1 Laplace Experimente 2 2 Bedingte Wahrscheinlichkeit 2 2 1 Verbundwahrscheinlichkeit Schnittmengen von Ereignissen 2 2 2 Satz von Bayes 2 3 Abhangigkeit und Unabhangigkeit von Ereignissen 3 Masstheoretische Sichtweise 3 1 Wahrscheinlichkeitsraume 3 2 Zufallsvariable 4 Wahrscheinlichkeitstheorie und Statistik 5 Anwendungsgebiete 6 Wahrscheinlichkeitstheorie in der Schule 7 Siehe auch 8 Literatur Auswahl 9 Weblinks 10 EinzelnachweiseAxiomatischer Aufbau BearbeitenWie jedes Teilgebiet der modernen Mathematik wird auch die Wahrscheinlichkeitstheorie mengentheoretisch formuliert und auf axiomatischen Vorgaben aufgebaut Ausgangspunkt der Wahrscheinlichkeitstheorie sind Ereignisse die als Mengen aufgefasst werden und denen Wahrscheinlichkeiten zugeordnet sind Wahrscheinlichkeiten sind reelle Zahlen zwischen 0 und 1 die Zuordnung von Wahrscheinlichkeiten zu Ereignissen muss gewissen Mindestanforderungen genugen Diese Definitionen geben keinen Hinweis darauf wie man die Wahrscheinlichkeiten einzelner Ereignisse ermitteln kann sie sagen auch nichts daruber aus was Zufall und was Wahrscheinlichkeit eigentlich sind Die mathematische Formulierung der Wahrscheinlichkeitstheorie ist somit fur verschiedene Interpretationen offen ihre Ergebnisse sind dennoch exakt und vom jeweiligen Verstandnis des Wahrscheinlichkeitsbegriffs unabhangig Definitionen Bearbeiten Konzeptionell wird als Grundlage der mathematischen Betrachtung von einem Zufallsvorgang oder Zufallsexperiment ausgegangen Alle moglichen Ergebnisse dieses Zufallsvorgangs fasst man in der Ergebnismenge W displaystyle Omega zusammen Haufig interessiert man sich jedoch gar nicht fur das genaue Ergebnis w W displaystyle omega in Omega sondern nur dafur ob es in einer bestimmten Teilmenge der Ergebnismenge liegt was so interpretiert werden kann dass ein Ereignis eingetreten ist oder nicht Ein Ereignis ist also als eine Teilmenge von W displaystyle Omega definiert Enthalt das Ereignis genau ein Element der Ergebnismenge handelt es sich um ein Elementarereignis Zusammengesetzte Ereignisse enthalten mehrere Ergebnisse Das Ergebnis ist also ein Element der Ergebnismenge das Ereignis jedoch eine Teilmenge Damit man den Ereignissen in sinnvoller Weise Wahrscheinlichkeiten zuordnen kann werden sie in einem Mengensystem aufgefuhrt der Ereignisalgebra oder dem Ereignissystem S displaystyle Sigma uber W displaystyle Omega einer Menge von Teilmengen von W displaystyle Omega fur die gilt Sie enthalt W displaystyle Omega und ist ein s Korper d h sie ist gegenuber den Mengenoperationen der Vereinigung und der Komplementbildung relativ bzgl W displaystyle Omega abgeschlossen genauso wie gegenuber der unendlichen Vereinigung abzahlbar vieler Mengen Die Wahrscheinlichkeiten sind dann Bilder einer gewissen Abbildung P displaystyle P des Ereignisraums in das Intervall 0 1 Solch eine Abbildung heisst Wahrscheinlichkeitsmass Das Tripel W S P displaystyle Omega Sigma P wird als Wahrscheinlichkeitsraum bezeichnet Axiome von Kolmogorow Bearbeiten Die axiomatische Begrundung der Wahrscheinlichkeitstheorie wurde in den 1930er Jahren von Andrei Kolmogorow entwickelt Ein Wahrscheinlichkeitsmass muss demnach folgende drei Axiome erfullen Axiome Fur jedes Ereignis A S displaystyle A in Sigma ist die Wahrscheinlichkeit von A displaystyle A eine reelle Zahl zwischen 0 und 1 0 P A 1 displaystyle 0 leq P A leq 1 Das sichere Ereignis W S displaystyle Omega in Sigma hat die Wahrscheinlichkeit 1 P W 1 displaystyle P Omega 1 Die Wahrscheinlichkeit einer Vereinigung abzahlbar vieler inkompatibler Ereignisse ist gleich der Summe der Wahrscheinlichkeiten der einzelnen Ereignisse Dabei heissen Ereignisse A i displaystyle A i inkompatibel wenn sie paarweise disjunkt sind also bei A i A j displaystyle A i cap A j emptyset fur alle i j displaystyle i neq j Es gilt daher P A 1 A 2 P A i displaystyle P left A 1 dot cup A 2 dot cup cdots right sum P A i Diese Eigenschaft wird auch s Additivitat genannt Beispiel Im Rahmen einer physikalischen Modellbildung wird ein Wahrscheinlichkeitsmass zur Beschreibung des Ergebnisses eines Munzwurfes angesetzt die moglichen Ergebnisse Ereignisse genannt mogen Zahl und Kopf lauten Dann ist die Ergebnismenge W Zahl Kopf displaystyle Omega text Zahl text Kopf Als Ereignisraum kann die Potenzmenge P W displaystyle mathcal P Omega gewahlt werden also S Zahl Kopf W displaystyle Sigma emptyset text Zahl text Kopf Omega Fur das Wahrscheinlichkeitsmass P displaystyle P steht aufgrund der Axiome fest P 0 displaystyle P emptyset 0 P Zahl 1 P Kopf displaystyle P text Zahl 1 P text Kopf P W 1 displaystyle P Omega 1 Zusatzliche physikalische Annahmen uber die Beschaffenheit der Munze konnen nun etwa zur Wahl P Kopf P Zahl 0 5 displaystyle P text Kopf P text Zahl 0 5 fuhren Folgerungen Bearbeiten Aus den Axiomen ergeben sich unmittelbar einige Folgerungen 1 Aus der Additivitat der Wahrscheinlichkeit disjunkter Ereignisse folgt dass komplementare Ereignisse Gegenereignisse komplementare Wahrscheinlichkeiten Gegenwahrscheinlichkeiten haben P W A 1 P A displaystyle P Omega setminus A 1 P A Beweis Es ist W A A W displaystyle Omega setminus A cup A Omega sowie W A A displaystyle Omega setminus A cap A emptyset Folglich nach Axiom 3 P W A P A P W displaystyle P Omega setminus A P A P Omega und dann nach Axiom 2 P W A P A 1 displaystyle P Omega setminus A P A 1 Umgestellt ergibt sich P W A 1 P A displaystyle P Omega setminus A 1 P A 2 Daraus folgt dass das unmogliche Ereignis die leere Menge die Wahrscheinlichkeit Null hat P 0 displaystyle P emptyset 0 Beweis Es ist W W displaystyle emptyset cup Omega Omega und W displaystyle emptyset cap Omega emptyset also nach Axiom 3 P P W P W displaystyle P emptyset P Omega P Omega Hieraus folgt P 0 displaystyle P emptyset 0 3 Fur die Vereinigung nicht notwendig disjunkter Ereignisse folgt P A B P A P B P A B displaystyle P A cup B P A P B P A cap B Beweis Die fur den Beweis erforderlichen Mengen sind im obigen Bild dargestellt Die Menge A B displaystyle A cup B kann danach als Vereinigung von drei disjunkten Mengen dargestellt werden Hieraus folgt nach 3 P A B P A B P A B P B A displaystyle P A cup B P A setminus B P A cap B P B setminus A Andererseits ist nach 3 sowohl P A P A B P A B displaystyle P A P A setminus B P A cap B als auch P B P A B P B A displaystyle P B P A cap B P B setminus A Addition liefert P A P B P A B P A B P A B P B A P A B P A B displaystyle P A P B P A setminus B P A cap B P A cap B P B setminus A P A cup B P A cap B Umstellen ergibt P A B P A P B P A B displaystyle P A cup B P A P B P A cap B Die Siebformel von Poincare Sylvester verallgemeinert diese Behauptung im Falle n verschiedener nicht notwendig disjunkter Teilmengen Im Weiteren ist zwischen abzahlbaren und uberabzahlbaren Ergebnismengen zu unterscheiden Abzahlbare Ergebnismenge Bearbeiten Beispiel Ein Glucksrad mit Ergebnismenge W 1 2 3 displaystyle Omega 1 2 3 Ereignisraum S displaystyle Sigma hier die Potenzmenge von W displaystyle Omega und Wahrscheinlichkeitsmass P displaystyle P Bei einer abzahlbaren Ergebnismenge kann jedem Elementarereignis eine positive Wahrscheinlichkeit zugewiesen werden Wenn W displaystyle Omega endlich oder abzahlbar unendlich ist kann man fur die s Algebra S displaystyle Sigma die Potenzmenge von W displaystyle Omega wahlen Die Summe der Wahrscheinlichkeiten aller Elementarereignisse aus W displaystyle Omega ist hier 1 Uberabzahlbare Ergebnismenge Bearbeiten Die Wahrscheinlichkeit mit einer als punktformig angenommenen Dartspitze einen bestimmten Punkt auf einer Scheibe zu treffen ist null Eine sinnvolle mathematische Theorie kann man nur auf der Wahrscheinlichkeit aufbauen bestimmte Teilflachen zu treffen Solche Wahrscheinlichkeiten lassen sich durch eine Wahrscheinlichkeitsdichte beschreiben Ein Prototyp einer uberabzahlbaren Ergebnismenge ist die Menge der reellen Zahlen In vielen Modellen ist es nicht moglich allen Teilmengen der reellen Zahlen sinnvoll eine Wahrscheinlichkeit zuzuordnen Als Ereignissystem wahlt man statt der Potenzmenge der reellen Zahlen hier meist die Borelsche s Algebra das ist die kleinste s Algebra die alle Intervalle von reellen Zahlen als Elemente enthalt Die Elemente dieser s Algebra nennt man Borelsche Mengen oder auch Borel messbar Wenn die Wahrscheinlichkeit P A displaystyle P A jeder Borelschen Menge A displaystyle A als Integral P A A f x d x displaystyle P A int A f x mathrm d x uber eine Wahrscheinlichkeitsdichte f displaystyle f geschrieben werden kann wird P displaystyle P absolut stetig genannt In diesem Fall aber nicht nur in diesem haben alle Elementarereignisse x die Wahrscheinlichkeit 0 Die Wahrscheinlichkeitsdichte eines absolut stetigen Wahrscheinlichkeitsmasses P displaystyle P ist nur fast uberall eindeutig bestimmt d h sie kann auf einer beliebigen Lebesgue Nullmenge also einer Menge vom Lebesgue Mass 0 abgeandert werden ohne dass P displaystyle P verandert wird Wenn die erste Ableitung der Verteilungsfunktion von P displaystyle P existiert so ist sie eine Wahrscheinlichkeitsdichte von P Die Werte der Wahrscheinlichkeitsdichte werden jedoch nicht als Wahrscheinlichkeiten interpretiert Spezielle Eigenschaften im Fall diskreter Wahrscheinlichkeitsraume BearbeitenLaplace Experimente Bearbeiten Wenn man annimmt dass nur endlich viele Elementarereignisse moglich und alle gleichberechtigt sind d h mit der gleichen Wahrscheinlichkeit eintreten wie zum Beispiel beim Werfen einer idealen Munze wobei Zahl und Kopf jeweils die Wahrscheinlichkeit 0 5 besitzen so spricht man von einem Laplace Experiment Dann lassen sich Wahrscheinlichkeiten einfach berechnen Wir nehmen eine endliche Ergebnismenge W displaystyle Omega an die die Machtigkeit W n displaystyle Omega n besitzt d h sie hat n displaystyle n Elemente Dann ist die Wahrscheinlichkeit jedes Elementarereignisses einfach P 1 n displaystyle P tfrac 1 n Beweis Wenn W n displaystyle Omega n ist dann gibt es n displaystyle n Elementarereignisse E 1 E n displaystyle E 1 ldots E n Es ist dann einerseits W E 1 E n displaystyle Omega E 1 cup cdots cup E n und andererseits sind je zwei Elementarereignisse disjunkt inkompatibel wenn das eine eintritt kann das andere nicht eintreten Also sind die Voraussetzungen fur Axiom 3 erfullt und es gilt P E 1 P E n P W 1 displaystyle P E 1 cdots P E n P Omega 1 Da nun andererseits P E 1 P E n P displaystyle P E 1 cdots P E n P sein soll ist n P 1 displaystyle n cdot P 1 und daher umgestellt P 1 n displaystyle P tfrac 1 n wie behauptet Als Konsequenz folgt dass fur Ereignisse die sich aus mehreren Elementarereignissen zusammensetzen die entsprechend vielfache Wahrscheinlichkeit gilt Ist A displaystyle A ein Ereignis der Machtigkeit A m displaystyle A m so ist A displaystyle A die Vereinigung von m displaystyle m Elementarereignissen Jedes davon hat die Wahrscheinlichkeit P 1 n displaystyle P tfrac 1 n also ist P A m 1 n m n displaystyle P A m cdot tfrac 1 n tfrac m n Man erhalt also den einfachen Zusammenhang P A A W displaystyle P A frac A Omega Bei Laplace Versuchen ist die Wahrscheinlichkeit eines Ereignisses gleich der Zahl der fur dieses Ereignis gunstigen Ergebnisse dividiert durch die Zahl der insgesamt moglichen Ergebnisse Nachstehend ein Beispiel beim Wurfeln mit einem idealen Wurfel W displaystyle Omega displaystyle H displaystyle H displaystyle P H H W 2 6 1 3 displaystyle P H frac H Omega frac 2 6 frac 1 3 Das Ereignis H displaystyle H Hohe Augenzahl 5 oder 6 hat die Wahrscheinlichkeit 1 3 Ein typischer Laplace Versuch ist auch das Ziehen einer Karte aus einem Spiel mit n displaystyle n Karten oder das Ziehen einer Kugel aus einer Urne mit n displaystyle n Kugeln Hier hat jedes Elementarereignis die gleiche Wahrscheinlichkeit Um die Anzahl der Elementarereignisse bei Laplace Versuchen zu bestimmen werden haufig Methoden der Kombinatorik verwendet Das Konzept der Laplace Experimente lasst sich auf den Fall einer stetigen Gleichverteilung verallgemeinern Bedingte Wahrscheinlichkeit Bearbeiten Unter einer bedingten Wahrscheinlichkeit versteht man die Wahrscheinlichkeit fur das Eintreten eines Ereignisses A displaystyle A unter der Voraussetzung dass das Eintreten eines anderen Ereignisses B displaystyle B bereits bekannt ist Naturlich muss B displaystyle B eintreten konnen es darf also nicht das unmogliche Ereignis sein Man schreibt dann P A B displaystyle P A B oder seltener P B A displaystyle P B A fur Wahrscheinlichkeit von A displaystyle A unter der Voraussetzung B displaystyle B kurz P displaystyle P von A displaystyle A vorausgesetzt B displaystyle B Beispiel Die Wahrscheinlichkeit aus einem Skatblatt eine Herz Karte zu ziehen Ereignis A displaystyle A betragt 1 4 denn es gibt 32 Karten und darunter 8 Herz Karten Dann ist P Herz 8 32 1 4 displaystyle P text Herz tfrac 8 32 tfrac 1 4 Das Gegenereignis ist dann Karo Pik oder Kreuz und hat deshalb die Wahrscheinlichkeit 24 32 3 4 displaystyle tfrac 24 32 tfrac 3 4 Ergebnismenge beim Ziehen einer Karte aus einem Skatspiel Wenn nun aber bereits das Ereignis B displaystyle B Die Karte ist rot eingetreten ist es wurde eine Herz oder Karo Karte gezogen es ist aber nicht bekannt welche der beiden Farben man also nur noch die Auswahl unter den 16 roten Karten hat dann ist P A B 8 16 1 2 displaystyle P A B tfrac 8 16 tfrac 1 2 die Wahrscheinlichkeit dass es sich dann um das Herz Blatt handelt Diese Uberlegung galt fur einen Laplaceversuch Fur den allgemeinen Fall definiert man die bedingte Wahrscheinlichkeit von A displaystyle A vorausgesetzt B displaystyle B als P A B P A B P B displaystyle P A vert B frac P A cap B P B Dass diese Definition sinnvoll ist zeigt sich daran dass die so definierte Wahrscheinlichkeit den Axiomen von Kolmogorow genugt wenn man sich auf B displaystyle B als neue Ergebnismenge beschrankt d h dass gilt 0 P A B 1 displaystyle 0 leq P A vert B leq 1 P B B 1 displaystyle P B vert B 1 Wenn A 1 A k displaystyle A 1 ldots A k paarweise disjunkt sind so ist P A 1 A k B P A 1 B P A k B displaystyle P A 1 cup cdots cup A k vert B P A 1 vert B cdots P A k vert B Beweis P A B displaystyle P A vert B ist Quotient zweier Wahrscheinlichkeiten fur welche nach Axiom 1 gilt P A B 0 displaystyle P A cap B geq 0 und P B 0 displaystyle P B geq 0 Da B displaystyle B nicht das unmogliche Ereignis sein soll ist sogar P B gt 0 displaystyle P B gt 0 Also gilt auch fur den Quotienten P A B 0 displaystyle P A vert B geq 0 Ferner sind A B displaystyle A cap B und B A displaystyle B setminus A disjunkt und ihre Vereinigung ist B displaystyle B Also ist nach Axiom 3 P A B P B P B A displaystyle P A cap B P B P B setminus A Da P B A 0 displaystyle P B setminus A geq 0 ist folgt P A B P B displaystyle P A cap B leq P B und daher P A B 1 displaystyle P A vert B leq 1 Es ist P B B P B B P B P B P B 1 displaystyle P B vert B frac P B cap B P B frac P B P B 1 Des Weiteren ergibt sich P A 1 A k B P A 1 A k B P B P A 1 B A k B P B P A 1 B P A k B P B P A 1 B P B P A k B P B P A 1 B P A k B displaystyle begin aligned P A 1 cup cdots cup A k vert B amp frac P A 1 cup cdots cup A k cap B P B amp frac P A 1 cap B cup cdots cup A k cap B P B amp frac P A 1 cap B cdots P A k cap B P B amp frac P A 1 cap B P B cdots frac P A k cap B P B amp P A 1 vert B cdots P A k vert B end aligned dd dd Dies war zu zeigen Beispiel Es sei wie oben A displaystyle A das Ereignis Ziehen einer Herz Karte und B displaystyle B das Ereignis Es ist eine rote Karte Dann ist P A B 8 32 1 4 displaystyle P A cap B frac 8 32 frac 1 4 und P B 16 32 1 2 displaystyle P B frac 16 32 frac 1 2 Folglich gilt P A B P A B P B 1 4 1 2 1 2 displaystyle P A vert B frac P A cap B P B frac frac 1 4 frac 1 2 frac 1 2 Aus der Definition der bedingten Wahrscheinlichkeit ergeben sich folgende Konsequenzen Verbundwahrscheinlichkeit Schnittmengen von Ereignissen Bearbeiten Das gleichzeitige Eintreten zweier Ereignisse A displaystyle A und B displaystyle B entspricht mengentheoretisch dem Eintreten des Verbund Ereignisses A B displaystyle A cap B Die Wahrscheinlichkeit hiervon berechnet sich zur gemeinsamen Wahrscheinlichkeit oder Verbundwahrscheinlichkeit P A B P A P B A P B P A B displaystyle P A cap B P A cdot P B vert A P B cdot P A vert B Beweis Nach Definition der bedingten Wahrscheinlichkeit ist einerseits P A B P A B P B displaystyle P A vert B frac P A cap B P B und andererseits auch P B A P A B P A displaystyle P B vert A frac P A cap B P A Umstellen nach P A B displaystyle P A cap B liefert dann sofort die Behauptung Beispiel Es wird eine Karte aus 32 Karten gezogen A displaystyle A sei das Ereignis Es ist ein Konig B displaystyle B sei das Ereignis Es ist eine Herz Karte Dann ist A B displaystyle A cap B das gleichzeitige Eintreten von A displaystyle A und B displaystyle B also das Ereignis Die gezogene Karte ist ein Herz Konig Offenbar ist P A 4 32 1 8 displaystyle P A tfrac 4 32 tfrac 1 8 Ferner ist P B A 1 4 displaystyle P B A tfrac 1 4 denn es gibt nur eine Herz Karte unter den vier Konigen Und in der Tat ist dann P A B P A P B A 1 8 1 4 1 32 displaystyle P A cap B P A cdot P B vert A tfrac 1 8 cdot tfrac 1 4 tfrac 1 32 die Wahrscheinlichkeit fur den Herz Konig Satz von Bayes Bearbeiten Die bedingte Wahrscheinlichkeit von A displaystyle A unter der Bedingung B displaystyle B lasst sich durch die bedingte Wahrscheinlichkeit von B displaystyle B unter der Bedingung A displaystyle A durch P A B P B A P A P B displaystyle P A mid B frac P B mid A cdot P A P B ausdrucken wenn man die totalen Wahrscheinlichkeiten P B displaystyle P B und P A displaystyle P A kennt Satz von Bayes Abhangigkeit und Unabhangigkeit von Ereignissen Bearbeiten Ereignisse nennt man unabhangig voneinander wenn das Eintreten des einen die Wahrscheinlichkeit des anderen nicht beeinflusst Im umgekehrten Fall nennt man sie abhangig Man definiert Zwei Ereignisse A displaystyle A und B displaystyle B sind unabhangig wenn P A B P A P B displaystyle P A cap B P A cdot P B gilt Ungenau aber einpragsam formuliert Bei unabhangigen Ereignissen kann man die Wahrscheinlichkeiten multiplizieren Dass dies dem Begriff Unabhangigkeit gerecht wird erkennt man durch Umstellen nach P A displaystyle P A P A P A B P B P A B displaystyle P A frac P A cap B P B P A vert B Das bedeutet Die totale Wahrscheinlichkeit fur A displaystyle A ist ebenso gross wie die Wahrscheinlichkeit fur A displaystyle A vorausgesetzt B displaystyle B das Eintreten von B displaystyle B beeinflusst also die Wahrscheinlichkeit von A displaystyle A nicht Beispiel Es wird eine aus 32 Karten gezogen A displaystyle A sei das Ereignis Es ist eine Herz Karte B displaystyle B sei das Ereignis Es ist eine Bild Karte Diese Ereignisse sind unabhangig denn das Wissen dass man eine Bild Karte zieht beeinflusst nicht die Wahrscheinlichkeit dass es eine Herz Karte ist Der Anteil der Herz Karten unter den Bilder Karten ist ebenso gross wie der Anteil der Herz Karten an allen Karten Offenbar ist P A 8 32 1 4 displaystyle P A tfrac 8 32 tfrac 1 4 und P B 12 32 3 8 displaystyle P B tfrac 12 32 tfrac 3 8 A B displaystyle A cap B ist das Ereignis Es ist eine Herz Bildkarte Da es davon drei gibt ist P A B 3 32 displaystyle P A cap B tfrac 3 32 Und in der Tat stellt man fest dass 1 4 3 8 3 32 displaystyle tfrac 1 4 cdot tfrac 3 8 tfrac 3 32 ist Ein weiteres Beispiel fur sehr kleine und sehr grosse Wahrscheinlichkeiten findet sich in Infinite Monkey Theorem Masstheoretische Sichtweise BearbeitenDie klassische Wahrscheinlichkeitsrechnung betrachtet nur Wahrscheinlichkeiten auf diskreten Wahrscheinlichkeitsraumen und stetige Modelle mit Dichtefunktionen Diese beiden Ansatze lassen sich durch die moderne Formulierung der Wahrscheinlichkeitstheorie die auf den Konzepten und Ergebnissen der Mass und Integrationstheorie beruht vereinheitlichen und verallgemeinern Wahrscheinlichkeitsraume Bearbeiten Hauptartikel Wahrscheinlichkeitsraum In dieser Sichtweise ist ein Wahrscheinlichkeitsraum W S P displaystyle Omega Sigma P ein Massraum mit einem Wahrscheinlichkeitsmass P displaystyle P Das bedeutet die Ergebnismenge W displaystyle Omega ist eine beliebige Menge der Ereignisraum S displaystyle Sigma ist eine s Algebra mit Grundmenge W displaystyle Omega und P S 0 1 displaystyle P colon Sigma to 0 1 ist ein Mass das durch P W 1 displaystyle P Omega 1 normiert ist Wichtige Standardfalle von Wahrscheinlichkeitsraumen sind W displaystyle Omega ist eine abzahlbare Menge und S displaystyle Sigma ist die Potenzmenge von W displaystyle Omega Dann ist jedes Wahrscheinlichkeitsmass P displaystyle P eindeutig festgelegt durch seine Werte P w displaystyle P omega auf den einelementigen Teilmengen von W displaystyle Omega und fur alle A S displaystyle A in Sigma giltP A w A P w displaystyle P A sum omega in A P omega dd W displaystyle Omega ist eine Teilmenge von R n displaystyle mathbb R n und S displaystyle Sigma ist die Borelsche s Algebra auf W displaystyle Omega Ist das Wahrscheinlichkeitsmass P displaystyle P absolut stetig bezuglich des Lebesgue Masses dann besitzt P displaystyle P nach dem Satz von Radon Nikodym eine Lebesgue Dichte f displaystyle f d h fur alle A S displaystyle A in Sigma giltP A A f x d x displaystyle P A int A f x mathrm d x dd Umgekehrt wird fur eine nichtnegative messbare Funktion f displaystyle f welche die Normierungsbedingung W f x d x 1 displaystyle textstyle int Omega f x dx 1 erfullt durch diese Formel ein Wahrscheinlichkeitsmass auf W displaystyle Omega definiert W i I W i displaystyle textstyle Omega prod i in I Omega i ist ein kartesisches Produkt und S i I S i displaystyle textstyle Sigma bigotimes i in I Sigma i ist die Produkt s Algebra von s Algebren S i displaystyle Sigma i auf W i displaystyle Omega i Sind Wahrscheinlichkeitsmasse P i displaystyle P i auf W i displaystyle Omega i gegeben dann wird durch das Produktmass P i I P i displaystyle textstyle P bigotimes i in I P i ein Wahrscheinlichkeitsmass auf W displaystyle Omega definiert das die unabhangige Hintereinanderausfuhrung der Einzelexperimente W i S i P i i I displaystyle Omega i Sigma i P i i in I modelliert Zufallsvariable Bearbeiten Hauptartikel Zufallsvariable Eine Zufallsvariable ist das mathematische Konzept fur eine Grosse deren Wert vom Zufall abhangig ist Aus masstheoretischer Sicht handelt es sich um eine messbare Funktion X displaystyle X auf einem Wahrscheinlichkeitsraum W S P displaystyle Omega Sigma P in einen Messraum W S displaystyle Omega Sigma bestehend aus einer Menge W displaystyle Omega und einer s Algebra S displaystyle Sigma auf W displaystyle Omega Messbarkeit bedeutet dabei dass fur alle A S displaystyle A in Sigma das Urbild X 1 A displaystyle X 1 A ein Element der s Algebra S displaystyle Sigma ist Die Verteilung von X displaystyle X ist dann nichts anderes als das Bildmass P X P X 1 S 0 1 P X 1 A P X 1 A displaystyle P X P circ X 1 Sigma to 0 1 quad P circ X 1 A P X 1 A das von X displaystyle X auf dem Messraum W S displaystyle Omega Sigma induziert wird und diesen zu einem Wahrscheinlichkeitsraum W S P X displaystyle Omega Sigma P X macht Der Erwartungswert einer reellwertigen Zufallsvariable X displaystyle X mittelt die moglichen Ergebnisse Er lasst sich abstrakt definieren als Integral von X displaystyle X bezuglich des Wahrscheinlichkeitsmasses P displaystyle P E X W X d P displaystyle operatorname E X int Omega X mathrm d P Wahrscheinlichkeitstheorie und Statistik BearbeitenWahrscheinlichkeitstheorie und mathematische Statistik werden zusammenfassend auch als Stochastik bezeichnet Beide Gebiete stehen in enger wechselseitiger Beziehung Statistische Verteilungen werden regelmassig unter der Annahme modelliert dass sie das Resultat zufalliger Prozesse sind Statistische Verfahren konnen auf numerische Weise Anhaltspunkte fur das Verhalten von Wahrscheinlichkeitsverteilungen liefern Anwendungsgebiete BearbeitenDie Wahrscheinlichkeitstheorie entstand aus dem Problem der gerechten Verteilung des Einsatzes bei abgebrochenen Glucksspielen Auch andere fruhe Anwendungen stammen aus dem Bereich des Glucksspiels Heute ist die Wahrscheinlichkeitstheorie eine Grundlage der Statistik Die angewandte Statistik nutzt Ergebnisse der Wahrscheinlichkeitstheorie um Umfrageergebnisse zu analysieren oder Wirtschaftsprognosen zu erstellen Grosse Bereiche der Physik wie die Thermodynamik und die Quantenmechanik nutzen die Wahrscheinlichkeitstheorie zur theoretischen Beschreibung ihrer Resultate Sie ist ferner die Grundlage fur mathematische Disziplinen wie die Zuverlassigkeitstheorie die Erneuerungstheorie und die Warteschlangentheorie und das Werkzeug zur Analyse in diesen Bereichen Auch in der Mustererkennung ist die Wahrscheinlichkeitstheorie von zentraler Bedeutung Wahrscheinlichkeitstheorie in der Schule Bearbeiten Dieser Artikel oder Absatz stellt die Situation in Deutschland dar Hilf mit die Situation in anderen Staaten zu schildern Aufgrund seiner vielseitigen Anwendungsbereiche und des Alltagsbezugs bereits junger Schuler wird die Wahrscheinlichkeitstheorie ab Klasse 1 in allen Schulformen im Rahmen des Mathematikunterrichts gelehrt Geht es in der Grundschule noch darum Grundbegriffe der Wahrscheinlichkeitsrechnung kennenzulernen und erste Zufallsexperimente hinsichtlich ihrer Gewinnchancen zu bewerten 1 wird in der Sekundarstufe I zunehmend der Wahrscheinlichkeitsbegriff analytisch in seiner Vielseitigkeit betrachtet und es stehen zunehmend komplexere Zufallsexperimente im Zentrum des Interesses 2 In der Sekundarstufe II werden die Vorkenntnisse um spezifische Aspekte wie Bernoulliketten bedingte Wahrscheinlichkeit und Laplace Experimente erweitert 3 Siehe auch BearbeitenGeschichte der WahrscheinlichkeitsrechnungLiteratur Auswahl BearbeitenRobert B Ash Real Analysis and Probability Probability and Mathematical statistics Band 11 Academic Press Inc New York u a 1972 ISBN 0 12 065201 3 MR0474442 Krishna B Athreya Soumendra N Lahiri Measure Theory and Probability Theory Springer Verlag New York 2006 ISBN 978 0 387 32903 1 MR2247694 Heinz Bauer Wahrscheinlichkeitstheorie und Grundzuge der Masstheorie 4 Auflage de Gruyter Berlin 1991 ISBN 3 11 012191 3 Heinz Bauer Wahrscheinlichkeitstheorie 5 durchgesehene und verbesserte Auflage de Gruyter Berlin New York 2002 ISBN 3 11 017236 4 MR1902050 Kai Lai Chung A Course in Probability Theory Academic Press San Diego u a 2001 ISBN 0 12 174151 6 MR1796326 Bruno de Finetti Wahrscheinlichkeitstheorie Einfuhrende Synthese mit kritischem Anhang 4 Auflage R Oldenbourg Verlag Munchen u a 1981 ISBN 3 486 44701 7 MR0742141 Harald Cramer Mathematical Methods of Statistics Princeton Mathematical Series 11 Auflage Princeton University Press Princeton 1966 Richard M Dudley Real Analysis and Probability Cambridge Studies in Advanced Mathematics Band 74 Cambridge University Press Cambridge 2002 ISBN 0 521 00754 2 MR1932358 P Ganssler W Stute Wahrscheinlichkeitstheorie Hochschultext Band 91 Springer Verlag Berlin Heidelberg New York 1977 ISBN 3 540 08418 5 MR0501219 Marek Fisz Wahrscheinlichkeitsrechnung und mathematische Statistik Hochschulbucher fur Mathematik Band 40 8 Auflage VEB Deutscher Verlag der Wissenschaften Berlin 1976 Boris Wladimirowitsch Gnedenko Lehrbuch der Wahrscheinlichkeitstheorie Verlag Harri Deutsch Thun Frankfurt am Main 1997 ISBN 3 8171 1531 8 Hans Otto Georgii Stochastik Einfuhrung in die Wahrscheinlichkeitstheorie und Statistik 5 Auflage de Gruyter 2015 ISBN 978 3 11 035969 5 J Hoffmann Jorgensen Probability with a View toward Statistics Volume I Chapman amp Hall Probability Series Band 91 Chapman and Hall New York 1994 ISBN 0 412 05221 0 MR1278485 Achim Klenke Wahrscheinlichkeitstheorie 3 uberarbeitete und erganzte Auflage Springer Spektrum Berlin Heidelberg 2013 ISBN 978 3 642 36017 6 doi 10 1007 978 3 642 36018 6 Oleg Klesov Limit Theorems for Multi Indexed Sums of Random Variables Springer Verlag Heidelberg New York Dordrecht London 2014 ISBN 978 3 662 44387 3 doi 10 1007 978 3 662 44388 0 MR3244237 A Kolmogoroff Grundbegriffe der Wahrscheinlichkeitsrechnung Reprint Ergebnisse der Mathematik und ihrer Grenzgebiete Band 3 Springer Verlag Berlin Heidelberg New York 1973 ISBN 3 540 06110 X MR0494348 A Kolmogoroff Uber die Summen durch den Zufall bestimmter unabhangiger Grossen In Mathematische Annalen Band 99 1928 S 309 319 doi 10 1007 BF01459098 MR1512588 A J Khintchine und A N Kolmogoroff Uber Konvergenz von Reihen deren Glieder durch den Zufall bestimmt werden In Recueil mathematique de la Societe mathematique de Moscou Matematicheskii Sbornik Band 32 1925 S 668 677 Ulrich Krengel Einfuhrung in die Wahrscheinlichkeitstheorie und Statistik Fur Studium Berufspraxis und Lehramt Vieweg Studium Aufbaukurs Mathematik 8 erweiterte Auflage Vieweg Wiesbaden 2005 ISBN 3 8348 0063 5 Norbert Kusolitsch Mass und Wahrscheinlichkeitstheorie Eine Einfuhrung Springer Lehrbuch 2 uberarbeitete und erweiterte Auflage Springer Verlag Berlin Heidelberg 2014 ISBN 978 3 642 45386 1 doi 10 1007 978 3 322 96418 2 R G Laha V K Rohatgi Probability Theory Wiley Series in Probability and Mathematical Statistics John Wiley amp Sons New York u a 1979 ISBN 0 471 03262 X MR0534143 Michel Ledoux Michel Talagrand Probability in Banach Spaces Isoperimetry and Processes Ergebnisse der Mathematik und ihrer Grenzgebiete 3 Folge Band 23 Springer Verlag Berlin u a 1991 ISBN 3 540 52013 9 MR1102015 Richard von Mises Probability Statistics and Truth Reprint of the 1957 English edition Dover Publications Inc New York 1981 ISBN 0 486 24214 5 MR0668875 Jacques Neveu Mathematische Grundlagen der Wahrscheinlichkeitstheorie Aus dem Franzosischen ubersetzt von Karl Bosch R Oldenbourg Verlag Munchen Wien 1969 MR0245056 Alfred Renyi Wahrscheinlichkeitsrechnung Mit einem Anhang uber Informationstheorie Hochschulbucher fur Mathematik Band 54 5 Auflage Deutscher Verlag der Wissenschaften Berlin 1977 MR0474442 A N Sirjaev Wahrscheinlichkeit Hochschulbucher fur Mathematik Band 91 Deutscher Verlag der Wissenschaften Berlin 1988 ISBN 3 326 00195 9 MR0967761 Vladimir Spokoiny Thorsten Dickhaus Basics of Modern Mathematical Statistics Springer Texts in Statistics Springer Verlag Heidelberg New York Dordrecht London 2015 ISBN 978 3 642 39908 4 MR3289985 J V Uspensky Introduction to Mathematical Probability MacGraw Hill Book Company Inc New York London 1937 N N Vakhania V I Tarieladze S A Chobanyan Probability Distributions on Banach Spaces Mathematics and its Applications Soviet Series Band 14 D Reidel Publishing Company Dordrecht Boston Lancaster Tokio 1987 ISBN 90 277 2496 2 Walter Vogel Wahrscheinlichkeitstheorie Studia Mathematica Band XXII Vandenhoeck amp Ruprecht Gottingen 1970 MR0286145Weblinks Bearbeiten Commons Wahrscheinlichkeitstheorie Sammlung von Bildern Videos und AudiodateienEinzelnachweise Bearbeiten https kultusministerium hessen de schulsystem bildungsstandards kerncurricula und lehrplaene kerncurricula primarstufe mathematik https kultusministerium hessen de schulsystem bildungsstandards kerncurricula und lehrplaene kerncurricula sekundarstufe i mathematik https kultusministerium hessen de schulsystem bildungsstandards kerncurricula und lehrplaene kerncurricula gymnasiale oberstufe 12Normdaten Sachbegriff GND 4079013 7 OGND AKS Abgerufen von https de wikipedia org w index php title Wahrscheinlichkeitstheorie amp oldid 209892742, wikipedia, wiki, deutsches

deutschland

buch, bücher, bibliothek

artikel

lesen, herunterladen

kostenlos

kostenloser herunterladen, MP3, Video, MP4, 3GP, JPG, JPEG, GIF, PNG, Bild, Musik, Lied, Film, Buch, Spiel, Spiele