Bayessches Netz

Ein Bayes'sches Netz ist ein gerichteter azyklischer Graph (DAG), in dem die Knoten Zufallsvariablen und die Kanten bedingte Abhängigkeiten zwischen den Variablen beschreiben. Jedem Knoten des Netzes ist eine bedingte Wahrscheinlichkeitsverteilung der durch ihn repräsentierten Zufallsvariable gegeben, die Zufallsvariablen an den Elternknoten zuordnet. Sie werden durch Wahrscheinlichkeitstabellen beschrieben. Diese Verteilung kann beliebig sein, jedoch wird häufig mit diskreten oder Normalverteilungen gearbeitet. Eltern eines Knotens v sind diejenigen Knoten, von denen eine Kante zu v führt.

Ein Bayes'sches Netz dient dazu, die gemeinsame Wahrscheinlichkeitsverteilung aller beteiligten Variablen unter Ausnutzung bekannter bedingter Unabhängigkeiten möglichst kompakt zu repräsentieren. Dabei wird die bedingte (Un)abhängigkeit von Untermengen der Variablen mit dem A-priori-Wissen kombiniert.

Sind X1, ..., Xn einige der im Graphen vorkommenden Zufallsvariablen (die abgeschlossen sind unter hinzufügen von Elternvariablen), so berechnet sich deren gemeinsame Verteilung als

P(X_1,\dots,X_n) = \prod_{i=1}^{n}P(X_i | \mathrm{Eltern}(X_i))

Hat ein Knoten keine Eltern, so handelt es sich bei der assoziierten Wahrscheinlichkeitsverteilung um eine unbedingte Verteilung.

Inhaltsverzeichnis

Beispiel

Beispiel für ein Bayes'sches Netz

Schließen in Bayes'schen Netzen

Ist von manchen der Variablen, etwa E1, ..., Em, der Wert bekannt, d. h. liegt Evidenz vor, so kann mit Hilfe verschiedener Algorithmen auch die bedingte Wahrscheinlichkeitsverteilung von X1, ..., Xn gegeben E1, ..., Em berechnet und damit Inferenz betrieben werden.

Das Inferenzproblem, sowohl das exakte wie auch das approximative, in Bayes'schen Netzen ist NP-schwer. In größeren Netzen bieten sich jedoch approximative Verfahren an. Exakte Verfahren sind zwar etwas genauer als approximative, dies spielt aber in der Praxis oft nur eine unwesentliche Rolle, da Bayes'sche Netze zur Entscheidungsfindung eingesetzt werden wo die genauen Wahrscheinlichkeiten nicht benötigt werden.

Zu Beachten ist, dass bei Softwareumsetzungen exakter Inferenzverfahren oft nur doppelt genaue Gleitkommazahlen eingesetzt werden. Dadurch ist die Genauigkeit dieser Berechnungen eingeschränkt.

Exakte Inferenz

Zur exakten Inferenz in Bayes'schen Netzen eignen sich u. a. folgende Algorithmen:

Approximative Inferenz

Inferenztypen

  • Diagnostisch: Von Effekten zu Ursachen
  • Kausal: Von Ursachen zu Effekten
  • Interkausal: Zwischen Ursachen eines gemeinsamen Effekts
  • Gemischt: Kombination der Vorangegangenen

Lernen Bayes'scher Netze

Soll aus vorliegenden Daten automatisch ein Bayes'sches Netz generiert werden, das die Daten möglichst gut beschreibt, so stellen sich zwei mögliche Probleme: Entweder ist die Graphenstruktur des Netzes bereits gegeben und man muss sich nicht mehr um die Ermittlung bedingter Unabhängigkeiten, sondern nur noch um die Berechnung der bedingten Wahrscheinlichkeitsverteilungen an den Knoten des Netzes kümmern, oder man muss neben den Parametern auch eine Struktur eines geeigneten Netzes lernen.

Parameterlernen

Geht man nicht von einem vollen (Bayes'schen) Wahrscheinlichkeitsmodell aus, wählt man im allgemeinen

als Schätzmethode. Für den Fall eines vollständigen (Bayes'schen) Wahrscheinlichkeitsmodells bietet sich zur Punktschätzung die

an. Lokale Maxima der Likelihood- bzw. A-Posteriorifunktionen können im Fall von vollständigen Daten und vollständig beobachteten Variablen üblicherweise mit gängigen Optimierungsalgorithmen wie

gefunden werden. Für den (als die Regel anzusehenden) Fall fehlender Beobachtungen wird üblicherweise der mächtige und weit verbreitete

verwendet.

Strukturlernen

Strukturlernen kann u. a. mit dem K2-Algorithmus (approximativ, unter Verwendung einer geeigneten Zielfunktion) oder dem PC-Algorithmus erfolgen.

Bedingte Unabhängigkeit

Zur Ermittlung bedingter Unabhängigkeiten zweier Variablenmengen gegeben eine dritte solche Menge genügt es, die Graphenstruktur des Netzes zu untersuchen. Man kann zeigen, dass der (graphentheoretische) Begriff der d-Separation mit dem Begriff der bedingten Unabhängigkeit zusammenfällt.

Anwendung

Bayes'sche Netze werden als Form probabilistischer Expertensysteme eingesetzt, wobei die Anwendungsgebiete unter anderem in Bioinformatik, Musteranalyse, Medizin und Ingenieurswissenschaften liegen. In der Tradition der Künstlichen Intelligenz liegt der Fokus Bayes'scher Netze auf der Ausnutzung derer graphischen Strukturen zur Ermöglichung abduktiver und deduktiver Schlüsse, die in einem unfaktorisierten Wahrscheinlichkeitsmodell undurchführbar wären. Realisiert wird dies durch die verschiedenen Inferenzalgorithmen.

Die Grundidee Bayes'scher Netze, nämlich die graphische Faktorisierung eines Wahrscheinlichkeitsmodells, wird auch in anderen Traditionen eingesetzt, wie in der Bayesschen Statistik und in der Tradition der sogenannten Graphischen Modelle zu Zwecken der Datenmodellierung. Anwendungsgebiete sind hier vor allem Epidemiologie, Medizin und Sozialwissenschaften.

Software

Literatur

  • Enrique Castillo, Jose Manuel Gutierrez, Ali S. Hadi: Expert Systems and Probabilistic Network Models. Springer-Verlag, New York 1997, ISBN 0-3879-4858-9.
  • Finn V. Jensen: Bayesian Networks and Decision Graphs. Springer-Verlag, New York 2001, ISBN 0-3879-5259-4.
  • Richard E. Neapolitan: Learning Bayesian Networks. Prentice Hall, 2003, ISBN 0-13-012534-2.
  • Judea Pearl: Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference. Morgan Kauffmann Publishers, San Francisco 1988, ISBN 0-9346-1373-7.
  • Judea Pearl: Causality. Cambridge University Press, Cambridge 2000, ISBN 0-5217-7362-8.

Wikimedia Foundation.

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Bayessches Netzwerk — Dieser Artikel wurde auf der Qualitätssicherungsseite des Portals Mathematik eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Mathematik auf ein akzeptables Niveau zu bringen. Dabei werden Artikel gelöscht, die nicht… …   Deutsch Wikipedia

  • Bayessches Filter — Das (auch: der) bayessche Filter (auch als bayesisches Filter und meistens als Bayes Filter bezeichnet) ist ein statistischer Filter, der auf dem bayesschen Wahrscheinlichkeitsbegriff aufbaut. Sein Name leitet sich vom englischen Mathematiker… …   Deutsch Wikipedia

  • Abduktion (Wissenschaftstheorie) — Der Begriff Abduktion (lat. abductio = Wegführung; engl. abduction) ist im Wesentlichen von dem amerikanischen Theoretiker Charles Sanders Peirce (1839–1914) in die wissenschaftliche Debatte eingeführt worden. „Abduktion ist der Vorgang, in dem… …   Deutsch Wikipedia

  • Abduktiv — Der Begriff Abduktion (lat. abductio = Wegführung; engl. abduction) ist im Wesentlichen von dem amerikanischen Theoretiker Charles Sanders Peirce (1839–1914) in die wissenschaftliche Debatte eingeführt worden. „Abduktion ist der Vorgang, in dem… …   Deutsch Wikipedia

  • Bayes-Normalverteilungsklassifikator — Ein Bayes Klassifikator (Aussprache: [ˈbeiz], benannt nach dem englischen Mathematiker Thomas Bayes) ist ein aus dem Bayestheorem hergeleiteter Klassifikator. Er ordnet jedes Objekt der Klasse zu, zu der es mit der größten Wahrscheinlichkeit… …   Deutsch Wikipedia

  • Computational learning theory — Dieser Artikel wurde aufgrund von inhaltlichen Mängeln auf der Qualitätssicherungsseite der Redaktion Informatik eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Informatik auf ein akzeptables Niveau zu bringen. Hilf… …   Deutsch Wikipedia

  • Computer-Lerntheorie — Dieser Artikel wurde aufgrund von inhaltlichen Mängeln auf der Qualitätssicherungsseite der Redaktion Informatik eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Informatik auf ein akzeptables Niveau zu bringen. Hilf… …   Deutsch Wikipedia

  • Inferenz zu der besten Erklärung — Der Begriff Abduktion (lat. abductio = Wegführung; engl. abduction) ist im Wesentlichen von dem amerikanischen Theoretiker Charles Sanders Peirce (1839–1914) in die wissenschaftliche Debatte eingeführt worden. „Abduktion ist der Vorgang, in dem… …   Deutsch Wikipedia

  • Konditionale Wahrscheinlichkeit — Bedingte Wahrscheinlichkeit (auch konditionale Wahrscheinlichkeit) ist die Wahrscheinlichkeit des Eintretens eines Ereignisses A unter der Bedingung, dass ein Ereignis B bereits vorher eingetreten ist. Es wird geschrieben als P(A | B), der… …   Deutsch Wikipedia

  • Naiver Bayes-Klassifikator — Ein Bayes Klassifikator (Aussprache: [ˈbeiz], benannt nach dem englischen Mathematiker Thomas Bayes) ist ein aus dem Bayestheorem hergeleiteter Klassifikator. Er ordnet jedes Objekt der Klasse zu, zu der es mit der größten Wahrscheinlichkeit… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”