Bayes'sches Netzwerk

Bayes'sches Netzwerk

Dieser Artikel wurde auf der Qualitätssicherungsseite des Portals Mathematik eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Mathematik auf ein akzeptables Niveau zu bringen. Dabei werden Artikel gelöscht, die nicht signifikant verbessert werden können. Bitte hilf mit, die Mängel dieses Artikels zu beseitigen, und beteilige dich bitte an der Diskussion!

Bayes'sche Netze dienen der Repräsentation von nicht beobachtbaren Ereignissen und daraus möglichen Schlussfolgerungen. Sie stellen eine spezielle Form der Formulierung von wahrscheinlichkeitstheoretischen Modellen dar.

Ein Bayes'sches Netz ist ein gerichteter azyklischer Graph (DAG), in dem die Knoten Zufallsvariablen und die Kanten bedingte Abhängigkeiten zwischen den Variablen beschreiben. Jedem Knoten des Netzes ist eine bedingte Wahrscheinlichkeitsverteilung der durch ihn repräsentierten Zufallsvariable gegeben, die Zufallsvariablen an den Elternknoten zuordnet. Sie werden durch Wahrscheinlichkeitstabellen beschrieben. Diese Verteilung kann beliebig sein, jedoch wird häufig mit diskreten oder Normalverteilungen gearbeitet. Eltern eines Knotens v sind diejenigen Knoten, von denen eine Kante zu v führt.

Ein Bayes'sches Netz dient dazu, die gemeinsame Wahrscheinlichkeitsverteilung aller beteiligten Variablen unter Ausnutzung bekannter bedingter Unabhängigkeiten möglichst kompakt zu repräsentieren. Dabei wird die bedingte (Un)Abhängigkeit von Untermengen der Variablen mit dem a-priori Wissen kombiniert.

Sind X1, ..., Xn einige der im Graphen vorkommenden Zufallsvariablen (die abgeschlossen sind unter hinzufügen von Elternvariablen), so berechnet sich deren gemeinsame Verteilung als

P(X_1,\dots,X_n) = \prod_{i=1}^{n}P(X_i | \mathrm{parents}(X_i))

Hat ein Knoten keine Eltern, so handelt es sich bei der assoziierten Wahrscheinlichkeitsverteilung um eine unbedingte Verteilung.

Inhaltsverzeichnis

Beispiel

Beispiel für ein Bayes'sches Netz

Schließen in Bayes'schen Netzen

Ist von manchen der Variablen, etwa E1, ..., Em, der Wert bekannt, d. h. liegt Evidenz vor, so kann mit Hilfe verschiedener Algorithmen auch die bedingte Wahrscheinlichkeitsverteilung von X1, ..., Xn gegeben E1, ..., Em berechnet und damit Inferenz betrieben werden.

Das Inferenzproblem, sowohl das exakte wie auch das approximative, in Bayes'schen Netzen ist NP-schwer. In größeren Netzen bieten sich jedoch approximative Verfahren an. Exakte Verfahren sind zwar etwas genauer als approximative, dies spielt aber in der Praxis oft nur eine unwesentliche Rolle, da Bayes'sche Netze zur Entscheidungsfindung eingesetzt werden wo die genauen Wahrscheinlichkeiten nicht benötigt werden. Des Weiteren sind auch Implementierungen exakter Inferenzverfahren, bedingt durch die limitierte Gleitkommaarithmetik heutiger Rechner, nicht zwangsläufig genau.

Exakte Inferenz

Zur exakten Inferenz in Bayes'schen Netzen eignen sich u.a. folgende Algorithmen:

Approximative Inferenz

Inferenztypen

  • Diagnostisch: Von Effekten zu Ursachen
  • Kausal: Von Ursachen zu Effekten
  • Interkausal: Zwischen Ursachen eines gemeinsamen Effekts
  • Gemischt: Kombination der Vorangegangenen

Lernen Bayes'scher Netze

Soll aus vorliegenden Daten automatisch ein Bayes'sches Netz generiert werden, das die Daten möglichst gut beschreibt, so stellen sich zwei mögliche Probleme: Entweder ist die Graphenstruktur des Netzes bereits gegeben und man muss sich nicht mehr um die Ermittlung bedingter Unabhängigkeiten, sondern nur noch um die Berechnung der bedingten Wahrscheinlichkeitsverteilungen an den Knoten des Netzes kümmern, oder man muss neben den Parametern auch eine Struktur eines geeigneten Netzes lernen.

Parameterlernen

Geht man nicht von einem vollen (Bayes'schen) Wahrscheinlichkeitsmodell aus, wählt man im allgemeinen

als Schätzmethode. Für den Fall eines vollständigen (Bayes'schen) Wahrscheinlichkeitsmodells bietet sich zur Punktschätzung die

an. Lokale Maxima der Likelihood- bzw. A-Posteriorifunktionen können im Fall von vollständigen Daten und vollständig beobachteten Variablen üblicherweise mit gängigen Optimierungsalgorithmen wie

gefunden werden. Für den (als die Regel anzusehenden) Fall fehlender Beobachtungen wird üblicherweise der mächtige und weit verbreitete

verwendet.

Strukturlernen

Strukturlernen kann u.a. mit dem K2-Algorithmus (approximativ, unter Verwendung einer geeigneten Zielfunktion) oder dem PC-Algorithmus erfolgen.

Bedingte Unabhängigkeit

Zur Ermittlung bedingter Unabhängigkeiten zweier Variablenmengen gegeben eine dritte solche Menge genügt es, die Graphenstruktur des Netzes zu untersuchen. Man kann zeigen, dass der (graphentheoretische) Begriff der d-Separation mit dem Begriff der bedingten Unabhängigkeit zusammenfällt.

Anwendung

Bayes'sche Netze werden als Form probabilistischer Expertensysteme eingesetzt, wobei die Anwendungsgebiete unter anderem in Bioinformatik, Musteranalyse, Medizin und Ingenieurswissenschaften liegen. In der Tradition der Künstlichen Intelligenz liegt der Fokus Bayes'scher Netze auf der Ausnutzung derer graphischen Strukturen zur Ermöglichung abduktiver und deduktiver Schlüsse, die in einem unfaktorisierten Wahrscheinlichkeitsmodell undurchführbar wären. Realisiert wird dies durch die verschiedenen Inferenzalgorithmen.

Es ist jedoch zu betonen, dass die Grundidee Bayes'scher Netze, nämlich die graphische Faktorisierung eines Wahrscheinlichkeitsmodells auch in anderen Traditionen eingesetzt wird wie in der Bayesschen Statistik und der Tradition der sogenannten Graphischen Modelle zu Zwecken der Datenmodellierung. Anwendungsgebiete sind hier vor allem Epidemiologie, Medizin und Sozialwissenschaften.

Literatur

  • Enrique Castillo, Jose Manuel Gutierrez, Ali S. Hadi: Expert Systems and Probabilistic Network Models. Springer-Verlag, New York 1997, ISBN 0-3879-4858-9.
  • Finn V. Jensen: Bayesian Networks and Decision Graphs. Springer-Verlag, New York 2001, ISBN 0-3879-5259-4.
  • Richard E. Neapolitan: Learning Bayesian Networks. Prentice Hall, 2003, ISBN 0-13-012534-2.
  • Judea Pearl: Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference. Morgan Kauffmann Publishers, San Francisco 1988, ISBN 0-9346-1373-7.
  • Judea Pearl: Causality. Cambridge University Press, Cambridge 2000, ISBN 0-5217-7362-8.

Wikimedia Foundation.

Игры ⚽ Поможем написать курсовую

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Bayessches Netzwerk — Dieser Artikel wurde auf der Qualitätssicherungsseite des Portals Mathematik eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Mathematik auf ein akzeptables Niveau zu bringen. Dabei werden Artikel gelöscht, die nicht… …   Deutsch Wikipedia

  • Hierarchical Temporal Memory — Ein hierarchischer Temporalspeicher (Hierarchical Temporal Memory; HTM) ist ein Modell des maschinellen Lernens, welches von Jeff Hawkins und George Dileep (Numenta, Inc.) entwickelt wurde. Dieses Modell bildet einige Eigenschaften des Neocortex… …   Deutsch Wikipedia

  • Hierarchischer Temporalspeicher — Ein hierarchischer Temporalspeicher (Hierarchical Temporal Memory; HTM) ist ein Modell des maschinellen Lernens, welches von Jeff Hawkins und George Dileep (Numenta, Inc.) entwickelt wurde. Dieses Modell bildet einige Eigenschaften des Neocortex… …   Deutsch Wikipedia

  • BBN — Die Abkürzung BBN steht für: Bario in Sarawak in Malaysia, ein Flughafen nach dem IATA Flughafencode Bayesian Belief Network, fachsprachlich englisch für Bayes’sches Netz Berliner Bunker Netzwerk e. V. (Eigenschreibweise) Big Bang Nucleosynthesis …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”