Icon

PLZHELP

Decision Tree

Data Ingestion, Preprocessing & Feature Engineering

Modeling & Evaluation

Baseline

One-Hot-Encoding trainingsbasiert parametriert und identisch auf Test angewandt (vergleichbarer Feature-Space).

Standardisierung nur für LR; baumbasierte Modelle benötigen keine Skalierung.

Verteilung
  • no: 36.548

  • yes: 4.640

  • Positivrate (yes):11,27%

  • Imbalance-Ratio: ca. 1 : 7,88 (yes ist die Minderheitsklasse)
    Die Zielvariable ist unausgeglichen (≈11% positive Klasse). Die Klassenanteile sind im Trainings- und Testsplit nahezu identisch (Train: 11,22%; Test: 11,37%; Seed=42), wodurch Vergleichbarkeit der Evaluation gewährleistet ist.

Logistik Regression
Mit Hyperparameter:
Mit Hyperparameter:
Random Forest:
Mit Hyperparameter:
Gradient Boosted Tree:
Mit Hyperparameter:

Ergebnis:

Die Ergebnisse zeigen, dass einfachere Modelle wie der Decision Tree oft am meisten Potenzial durch Hyperparameter-Optimierung (insb. Pruning und Mindestanzahl pro Blatt) freisetzen können. Während der Random Forest absolut gesehen die meisten Kündiger findet (TP = 430), bietet der optimierte Decision Tree das ausgewogenste Verhältnis aus Verbesserung (+35 % PR-AUC) und Zuverlässigkeit der Wahrscheinlichkeiten (bester Brier Score Improvement).

Basis Modellen
Logistic Regression Predictor
Tuned Modellen Visualization
PMML Transformation Apply
Decision Tree Predictor
Metriken Tabelle
Decision Tree Learner
Basis Modellen Visualization
Perfomance Metrics Visualizations
Performance Calculation
Metriken Tabelle
ROC Curve
Random Forest Predictor
Scorer
Random Forest Learner
Gradient Boosted Trees Learner
not important
Parameter Optimization Loop Start
Getuned Modell
SMOTE
Gradient Boosted Trees Predictor
Random Forest Predictor
Column Filter
ROC Curve
Scorer
PR-AUC
PR-AUC
Parameter Optimization Loop End
PR-AUC
Parameter Optimization Loop Start
ROC Curve
Scorer
Parameter Optimization Loop End
Parameter Optimization Loop Start
Reference Column Filter
Scorer
Training Data
CSV Reader
ROC Curve
Test Data
CSV Reader
Gradient Boosted Trees Predictor
Parameter Optimization Loop End
Parameter Optimization Loop Start
EDA
Parameter Optimization Loop End
Decision Tree Learner
PR-AUC
Decision Tree Predictor
Logistic Regression Learner
One to Many (PMML)
Prädikative Merkmalen
PMML Transformation Apply
Random Forest Learner
Normalizer (PMML)
Balanced Deviation
Partitioning 80Traing 20 Test with PMML and SMOTE
Gradient Boosted Trees Learner
Logistic Regression Learner
Logistic Regression Predictor

Nodes

Extensions

Links