Boosting
Klassifizierung in fünf Klassen. Der durch Boosting erzeugte Klassifikator klassifiziert nur in zwei Klassen, sozusagen binär.

Boosting (engl. „Verstärken“) ist ein Algorithmus der automatischen Klassifizierung, der mehrere schlechte Klassifikatoren zu einem einzigen guten Klassifikator verschmilzt.

Die zum Verständnis benötigten Grundbegriffe werden im Artikel Klassifizierung erläutert.

Inhaltsverzeichnis

Anwendungsgebiete

Boosting kann überall dort verwendet werden, wo eine automatische Klassifikation in zwei Klassen benötigt wird, beispielsweise um Bilder von Gesichtern in „bekannt“ und „unbekannt“ oder Produkte auf einem Fließband als „in Ordnung“ oder „fehlerhaft“ einzustufen. Die Anwendungsgebiete sind damit nahezu ebenso vielfältig wie die der automatischen Klassifizierung an sich.

Bedeutung

Obwohl es weitaus raffiniertere Methoden gibt, Klassifikatoren zu entwerfen, bildet Boosting in vielen Fällen eine annehmbare Alternative: Die Technik liefert akzeptable Ergebnisse und lässt sich einfach in ein Computerprogramm umsetzen, das sparsam im Speicherbedarf und schnell in der Laufzeit ist.

Funktionsweise

Vorgegeben ist eine Reihe von Objekten und eine Reihe schwacher Klassifikatoren. Gesucht ist ein Klassifikator, der die Objekte möglichst fehlerfrei in zwei Klassen einteilt. Boosting kombiniert die vorhandenen schwachen Klassifikatoren so, dass der entstehende neue Klassifikator möglichst wenige Fehler macht.

Schwache Klassifikatoren, auch base classifiers (engl. „Basisklassifikatoren“) oder weak learners (engl. „schwache Lerner“) genannt, sind sehr einfach aufgebaut und berücksichtigen meist nur ein einziges Merkmal der Objekte. Für sich genommen liefern sie deswegen einerseits schlechte Ergebnisse, können aber andererseits sehr schnell ausgewertet werden. Boosting führt alle schwachen Klassifikatoren so mit einer Gewichtung zusammen, dass die stärkeren unter den schwachen Klassifikatoren besonders berücksichtigt, die wirklich schwachen hingegen ignoriert werden.

Grundlagen

Gegeben ist ein Merkmalsraum M beliebiger Dimension und darin eine Trainingsstichprobe T der Größe n, also eine Menge von Mustervektoren x1, …, xn. Von jedem dieser Mustervektoren ist bekannt, in welche Klasse er gehört, das heißt zu jedem xi ist ein yi ∈ {+1, −1} gegeben, das angibt, in welche der beiden Klassen +1 oder −1 der Mustervektor gehört. Ferner sind m primitive Klassifikatoren f1,v…, fm: M → {+1, −1} gegeben, die jeweils den Merkmalsraum in die beiden Klassen +1 und −1 aufspalten.

Gesucht sind die m Gewichtungsfaktoren w1, …, wm des Klassifikators F: M → {+1, −1}, der über die Vorzeichenfunktion sgn durch

F(x) := \sgn(\sum_{i=1}^m w_i f_i(x))

gegeben ist. Die Gewichtungsfaktoren sollen so optimiert werden, dass F möglichst wenige Fehler macht.

Für die Optimierung bietet sich eine über die Exponentialfunktion e definierte, sogenannte „exponentielle Verlustfunktion“ L als Optimierungskriterium an:

 L := {1 \over n} \sum_{i=1}^n \mathrm{e}^{-y_i F(x_i)} \rightarrow \min

L wird umso kleiner, je weniger Objekte F falsch klassifiziert. Das Ziel ist also, die Gewichtungsfaktoren so zu wählen, dass L minimal wird.

Diese Optimierung wird schrittweise über m ausgeführt, das heißt zunächst wird nur w1 optimiert, dann w2, dann w3 und so weiter, bis alle Gewichtungsfaktoren optimal sind. Die Optimierung wird im nächsten Abschnitt erläutert.

Schrittweise Optimierung

Die schrittweise Optimierung benötigt m Durchläufe, um alle Gewichtungsfaktoren für F zu optimieren. In jedem Durchlauf wird ein Klassifikator Fs erzeugt, indem zum bisher erzeugten Klassifikator Fs−1 ein schwacher Klassifikator hinzugenommen wird. Das bedeutet, dass der Benutzer die Berechnung nach jedem Durchlauf abbrechen kann, falls das Zwischenergebnis bereits seinen Ansprüchen genügt.

Vor jedem Durchlauf wird beurteilt, welche Mustervektoren mit dem bislang erstellten Klassifikator gut eingeordnet werden können und welche nicht. Diejenigen Mustervektoren, die noch nicht gut klassiert werden, werden im nächsten Durchlauf besonders stark berücksichtigt. Dazu werden in jedem Durchlauf s n Hilfsvariablen ts,1, …, ts,n benötigt. Je höher der Wert von ts,i, desto stärker geht der Mustervektor xi in den aktuellen Durchgang ein.

Die Nummer des Durchgangs ist s:

1. Gewichte aktualisieren.

Im ersten Durchlauf (s = 1) werden alle Hilfsvariablen auf den Wert 1/n gesetzt: t1,1, …, t1,n:= 1/n; somit werden im ersten Durchgang alle Mustervektoren gleich stark berücksichtigt. In allen folgenden Durchläufen (s > 1) werden die Hilfsvariablen wie folgt gesetzt:
t_{s,i} := t_{s-1,i} \mathrm{e}^{-y_i w_{s-1} f_{s-1}(x_i) }
Damit werden alle Mustervektoren, die vom eben betrachteten schwachen Klassifikator fs−1 falsch klassifiziert wurden, in diesem Durchlauf mit einem besonders hohen Hilfsgewicht versehen, alle anderen mit einem besonders geringen.

2. Gewichteten Trainingsfehler bestimmen.

In diesem Durchgang wird der schwache Klassifikator fs hinzugenommen. Der „gewichtete Trainingsfehler“ ist ein Maß dafür, wie schlecht dieser primitive Klassifikator für sich genommen abschneidet. Für jeden von fs falsch klassierten Mustervektor xi summiert er die zugehörige Hilfsvariable ts,i auf:
err_s := \sum_{i: f_s(x_i) \ne y_i} t_{s,i}
Ist der gewichtete Trainingsfehler 0, so klassifiziert fs alle Mustervektoren richtig, ist er 1, so klassifiziert fs alles falsch. Ist errs = 1/2, so klassifiziert fs genauso gut, als würde er bei jedem Mustervektor bloß raten oder eine Münze werfen.

3. Nächsten Gewichtungsfaktor optimieren.

Der Gewichtungsfaktor ws des in diesem Durchgang hinzugenommenen primitiven Klassifikators fs wird aus der folgenden Formel bestimmt:
w_s = {1 \over 2} \log \left( {1-err_s \over err_s} \right)
Nach der Formel wird fs genau dann mit positivem Gewicht zum Endergebnis hinzugenommen, wenn errs < ½ gilt, das heißt der schwache Klassifikator besser ist als bloßes Raten. Gilt exakt errs = ½, so folgt ws = 0, das heißt fs wird ignoriert. Gilt hingegen errs > ½, so ist der schwache Klassifikator durchaus brauchbar, er ist nur „falsch gepolt“, das heißt er klassifiziert genau falsch herum; indem er mit einem negativen Gewicht hinzugenommen wird, kann dieser Formfehler ausgeglichen werden und der umgedrehte Klassifikator mit verstärkendem Effekt hinzugenommen werden.

4. Zwischenergebnis aufstellen.

Das Zwischenergebnis Fs ergibt sich aus der Formel:
F_s(x) := \sum_{i=1}^s w_i f_i(x)
Es wird also genauso berechnet wie das eigentliche Ziel F, nur dass statt aller m schwachen Klassifikatoren nur die ersten s bereits optimierten berücksichtigt werden.

Diese Schritte werden in dieser Reihenfolge wiederholt, bis alle schwachen Klassifikatoren berücksichtigt wurden, also s = m ist, oder der Benutzer den Fortgang abbricht.

Schwache Klassifikatoren

Typische schwache Klassifikatoren sind sogenannte decision stumps (engl. „Entscheidungsstümpfe“). Diese Funktionen vergleichen den Wert einer einzelnen Koordinate j mit einem Schwellwert l und begründen damit ihre Entscheidung für +1 oder −1. Ist x:= (x1, …, xd) ∈ M ein Mustervektor im d-dimensionalen Merkmalsraum M, so hat ein solcher primitiver Klassifikator f im Allgemeinen die Form:

f(x) = f((x_1, x_2, ..., x_d)) := \begin{cases} +1 & \mbox{falls } x_j \geqslant l \\ -1 & \mbox{falls } x_j < l \end{cases}

Genauer gesagt unterteilt f den Merkmalsraum mit einer Hyperebene in zwei Klassen.

Der Name spielt auf die Analogie zu Entscheidungsbäumen an: Der erzeugte Gesamtklassifikator F kann als Entscheidungsbaum angesehen werden. Jeder schwache Klassifikator ist ein innerer Knoten dieses Baumes, an dem ein Unterbaum (vgl. engl. stump, „(Baum)Stumpf“) hängt. Die endgültige Klassifizierung in einem der Blätter des Baums wird als Folge binärer Entscheidungen (engl. decision) erreicht.

Solche decision stumps sind als Grundlage für Boosting sehr beliebt, denn sie sind einfach zu handhaben und können extrem schnell ausgewertet werden. Zudem müssen sie nicht von Anfang an vorgegeben sein, sondern können erstellt werden, während der Algorithmus läuft.

Unterarten von Boosting

[1]

  • AdaBoost
  • AsymBoost
  • Bagging
  • BrownBoost
  • DiscreteAB
  • FloatBoost
  • GentleAB
  • GloBoost
  • KLBoost
  • LogitBoost
  • RealAB
  • WeightBoost

Einzelnachweise

  1. Boosting in der französischsprachigen Wikipedia

Wikimedia Foundation.

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Boosting — is a machine learning meta algorithm for performing supervised learning. Boosting is based on the question posed by KearnsMichael Kearns. Thoughts on hypothesis boosting. Unpublished manuscript. 1988] : can a set of weak learners create a single… …   Wikipedia

  • boosting — index cumulative (intensifying), promotion (encouragement) Burton s Legal Thesaurus. William C. Burton. 2006 …   Law dictionary

  • Boosting — Le boosting est un domaine de l apprentissage automatique (branche de l intelligence artificielle). C est un principe qui regroupe de nombreux algorithmes qui s appuient sur des ensembles de classifieurs binaires : le boosting optimise leurs …   Wikipédia en Français

  • Boosting — Boost Boost (b[=oo]st), v. t. [imp. & p. p. {Boosted}; p. pr. & vb. n. {Boosting}.] [Cf. {Boast}, v. i.] To lift or push from behind (one who is endeavoring to climb); to push up; hence, to assist in overcoming obstacles, or in making advancement …   The Collaborative International Dictionary of English

  • boosting — See start boosting …   Dictionary of automotive terms

  • boosting — n. use of one drug to rais blood levels as to intensify the activity of another drug (Medicine) buːst n. push, shove; raising, lift; incentive, encouragement v. raise; push; urge …   English contemporary dictionary

  • Boosting (disambiguation) — Boosting may refer to:* Boosting, a machine learning meta algorithm * Boosted fission weapon * A slang term for stealing, usually shoplifting * Boosting (video game), cheating to obtain progress or increase ranks in a video game, especially… …   Wikipedia

  • Boosting methods for object categorization — Given images containing various known objects in the world, a classifier can be learned from them to automatically categorize the objects in future images. Simple classifiers built based on some image feature of the object tend to be weak in… …   Wikipedia

  • Boosting (Sport) — Als Boosting bezeichnet man eine Methode der unerlaubten Leistungssteigerung im Sport, bei der ein Sportler sich selbst Schmerzen zufügt, um durch den Adrenalinschub mehr leisten zu können. Damit ist es dem Doping vergleichbar. Allgemeines Das… …   Deutsch Wikipedia

  • boosting ratio — Смотри коэффициент форсирования …   Энциклопедический словарь по металлургии

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”