Bayes'sche Regel

Aus Wikiludia
Wechseln zu: Navigation, Suche

In diesem Artikel soll die Bayes'sche Regel behandelt werden. Die Bayes'sche Regel beschreibt den Lernprozess der Spieler.


Inhaltsverzeichnis

Einleitung

Die Bayes'sche Regel in der Spieltheorie kann den Lernprozess eines Spielers in einem Spiel mit unvollkommener Information (siehe Vollkommene Information) beschreiben. Ein Spiel mit unvollständiger Information kann zu einem Spiel mit unvollkommener, vollständiger Information gemacht werden, wodurch es analysierbar wird. Dies wird Bayes-Spiel genannt. (siehe Bayes-Spiel). Solch ein Spiel wird hier betrachtet. Die Bayes'sche Regel beschreibt also, dass die Verfeinerung der Informationsstruktur entlang eines Spielbaumes bedeutet, dass ein Spieler im Zeitablauf aus Informationen lernen kann.

Bayes'sche Regel

Seien eh für einen Spieler nicht unterscheibare Ereignisse mit h = 1,...,H. Seien Ωm mit m = 1,...,M Signale, für die Wahrscheinlichkeiten pm | eh) gegeben ist.

Der Spieler habe eine A-priori-Wahrscheinlichkeitsverteilung p(eh) über die Eintrittswahrscheinlichkeit von ph. Nun beobachte der Spieler ein Signal Ωm mit m = 1,...,M. Daraufhin revidiert der Spieler seine Wahrscheinlichkeitseinschätzung für eh, da ihm bekannt ist, dass das Signal mit der Wahrscheinlichkeit pm | eh) gesendet wird, falls eh wahr ist.

Wenn nun Ωm beobachtet wird, berechnet sich die Wahrscheinlichkeit für eh nun aus p(eh)pm | eh), wobei diese Wahrscheinlichkeit durch die Gesamtwahrscheinlichkeit pm) korrigiert wird, mit der Ωm erwartet wurde.

Die Posteriori-Wahrscheinlichkeiten berechnen sich mit der Bayes'schen Formel.

                                                  p(e_h|\Omega_m)=\frac{p(e_{h})p(\Omega_{m}|e_{h})}{p(\Omega_{m})}=\frac{p(e_{h})p(\Omega_{m}|e_{h})}{\sum_{h}p(e_{h})p(\Omega_{m}|e_{h})}

Also bedeutet Lernen aus Beobachtungen Revidieren von Wahrscheinlichkeitseinschätzungen.

Das Prinzip lässt sich natürlich auch anwenden, wenn bei asymmetrischer Information Beobachtungen über Handlungen von Mitspielern Rückschlüsse auf deren Eigenschaften ermöglichen.

Beispiel

Sei i ein Unternehmen, das in ein Grundstück investieren kann, das mit 50% Wahrscheinlichkeit (also p = 0,5) eine wertvolle Goldader mit einem Gewinn y1 enthält. Umgekehrt besteht jedoch auch eine Wahrscheinlichkeit von 50%, dass die Goldader von minderer Qualität mit einem niedrigeren Gewinn y2 ist.

Die Frage die sich in dieser Problemstellung stellt, ist, wieviel i für das Grundstück bieten soll. Dieses Spiel ist ein Bayes-Spiel. Die "Natur" wählt also zuerst die Qualität der Goldader mit der Wahrscheinlichkeit p aus. Die Wahl der "Natur" ist für das Unternehmen i natürlich nicht bekannt.

Es ist aber möglich, durch eine Goldprobe eine genauere Information (ein "Signal") Ωm über die Goldader einzuholen. Nun gibt es die zwei Möglichkeiten, dass die Qualität der Probe "hoch" oder "niedrig" ist. Sei nun Ω1 = hoch und Ω2 = niedrig Es gelte: Wenn die Qualität hoch ist, ist p1 | y1) = 0,7 und p2 | y1) = 0,3 und umgekehrt: p1 | y2) = 0,1 und p2 | y2) = 0,9.

Nun stellt sich die Frage, wie das Unternehmen aus diesen Proben logische Schlüsse ziehen kann. Wir wollen nun also die Wahrscheinlichkeit haben, dass die Goldprobenqualität hoch ist, wenn die Probe hohe bzw. niedrige Qualität hat. Also wollen wir p(y1 | Ω1) und p(y1 | Ω2), mit p(y2 | Ω1)= 1 − p(y1 | Ω1) und p(y2 | Ω2) = 1 − p(y1 | Ω2)

\Rightarrow Mit der Bayes'schen Formel folgt: p(y_h|\Omega_m)=\frac{p(y_{h})p(\Omega_{m}|y_{h})}{p(\Omega_{m})}, wobei pm) = p(y1)pm | y1) + p(y2)pm | y2)

In unserem Beispiel heißt das: p(y1 | Ω1) = 0,875, p(y2 | Ω1) = 0,125, p(y1 | Ω2) = 0,833, p(y2 | Ω2) = 0,1677.

Also hat das Unternehmen zusätzliche Informationen gewonnen und sie in seine Entscheidungsfindung mit einbezogen.

Weitere Artikel zu dem Thema

Meine Werkzeuge