Aktualisiert am: 25.04.2022

Decision Tree - Methodische Entscheidungsfindung

Anwendung:

Design | Engineering

Decision Tree

Ein Decision Tree oder Entscheidungsbaum macht Entscheidungsabläufe transparent.

Worum geht’s?

Ein Decision Tree ist ein Instrument der Entscheidungsfindung und visualisiert sämtliche Entscheidungsalternativen entlang eines Entscheidungspfades. Oftmals werden Decision Trees zur Vorbereitung einer übergeordneten Cluster-Analyse eingesetzt.
Die Entscheidungsbäume basieren auf einer eigentlich simplen Entscheidungslogik und sind daher einfach mathematisch zu erfassen. In Bezug auf die Syntax ist ein Decision Tree mit einem Flowchart vergleichbar. Sie sind ein geeignetes Werkzeug, um mögliche Optionen und Abhängigkeiten transparent darzustellen. Entscheidungsbäume können zum Teil auch eine ähnliche kreativitätsfördernde Wirkung haben, wie ein morphologischer Kasten und neue Lösungskombinationen hervorbringen. In der modernen Datenanalyse kommen Decision Trees auch in unterschiedlichen Modellen des maschinellen Lernens zum Einsatz.

Hinweis

Es sollte wenn möglich versucht werden Entscheidungsalternativen im Hinblick auf die Eintrittswahrscheinlichkeit zu bewerten.

Funktion und Aufbau eines Decision Tree

Zunächst werden alle Entscheidungspunkte identifiziert und als Knotenpunkte in einem Diagramm dargestellt. Ausgangspunkt bildet hierbei ursprüngliche Wahlalternative, die auch als Wurzel bezeichnet wird. An jedem Knoten- oder Entscheidungspunkt, kommen neu Verästelungen hinzu. Am Ende erhält man eine klare Hierarchie des Entscheidungsproblems. DAs Tool hilft also dabei alle Entscheidungspunkte zu identifizieren und alle Optionen in einem Diagramm zu visualisieren.

Der Decision Tree als Methode des maschinellen Lernens

Im Bereich des maschinellen Lernens werden Entscheidungsbäume in Form von Prognosemodellen angewendet. Auf Basis unterschiedlicher Eingabevariable sollen Zielvariablen bestimmt werden, indem Klassifizierung und Wahrscheinlichkeitsfunktionen rekursiv verfeinert werden. Hierbei wird zwischen Klassifizierungsbäumen (Prognoseergebnis in Form einer Klassenzuordnung) und Regressionsbäumen (Prognoseergebnis liegt als Zahlenergebnis vor) unterschieden.

Vorteile eines Decision Tree im Bereich der Datenanalyse

  • Sind einfach zu verstehen und lassen sich leicht interpretieren. Vor allem durch die grafische Aufbereitung können die Ergebnisse über Fachgrenzen hinweg diskutiert werden.
  • Entspricht in seinen Grundzügen der menschlichen Entscheidungsfindung.
  • Das Verfahren eignet sich für klassifizierte und numerische Daten, auch für große Datenmengen.
  • Relativ geringer Aufwand für die Datenaufbereitung, so müssen beispielsweise keine Dummy-Variablen erzeugt werden.
  • Die erzeugten Vorhersagemodelle können durch statistische Tests validiert werden und können jegliche bool’schen Operationen approximieren.

Was wird bei einem Decision Tree gemacht?

Decision Tree - Entscheidungsprobleme in einem Baum erfassen

Schritt-für-Schritt-Anleitung für die manuelle Erstellung eines Decision Tree

1.Klärung der Problemstellung

Am Anfang steht die Erfassung und klare Abgrenzung des Ausgangsproblems (Wurzel).

2. Identifikation von Entscheidungsoptionen

In einem zweiten Schritt sind dann alle Entscheidungsoptionen zu identifizieren, die sich aus der ersten Fragestellung ergeben. Jede Option bildet einen eigenen Ast.

3. Ermittlung der Eintrittswahrscheinlichkeit

So gut wie möglich, sollten die Entscheidungsalternativen im Hinblick auf die Eintrittswahrscheinlichkeit bewertet werden. Eine grobe Schätzung kann durch spätere Iterationen verfeinert werden.

4. Erfassung in einem Datenmodell

Je nach Umfang des Entscheidungsproblems ist ein geeignetes Datenmodell aufzubauen.

Weitere Hinweise zur Anwendung von Decision Trees

Optionen schließen sich aus

Bei einem Decision Tree schließen sich alle Optionen gegenseitig aus und Überschneidungen sind ausgeschlossen. Dies sollte auf jeder Ebene geprüft werden, um eine konsistente Zuordnung zu gewährleisten.

Linearer Entscheidungspfad

Auch entlang eines Entscheidungspfades gilt ebenfalls das Ausschlusskriterium, sodass immer ein linearer Verlauf sichergestellt ist.

Quantifizierbare Entscheidungsgrößen

Zusätzlich zur Eintrittswahrscheinlichkeit sind weitere quantifizierbare Entscheidungsgrößen (Zeit, Kosten, Aufwand …) hilfreich, um das Datenmodell noch aussagekräftiger zu gestalten.

Wenn, dann, sonst …

Eine gute Orientierung bietet ein „Wenn, dann, sonst“-Vorgehen. Wird diese Frage an jedem Knotenpunkt gestellt, läuft man nicht so schnell Gefahr etwas zu vergessen.

Kombination eines Decision Tree mit anderen Tools

Ein Decision Tree kann auch gut in Kombination mit einer Risikomatrix genutzt werden und eignet sich auch ganz hervorragend zur Festlegung von Service- und Instandhaltungsaktivitäten. In diesem Fall hilt der Entscheidungsbaum dabei, die unterschiedlichen Szenarien darzustellen.