Entdecken Sie Schlüsselkonzepte, üben Sie mit Flashcards und testen Sie Ihr Wissen – schalten Sie dann das Paket frei.
Entscheidungsbäume sind Klassifikationsmodelle, die Daten in Knoten basierend auf unterschiedlichen Attributwerten unterteilen. Die Effizienz eines Entscheidungsbaums hängt stark davon ab, wie die besten Splits an jedem Knoten gewählt werden. Hier kommen Impurity-Maße ins Spiel. Die zwei primären Maße, Gini Impurity und Entropy, sind entscheidend für die Bewertung, wie die Daten optimal aufgeteilt werden können.
Die Gini Impurity wird definiert als ein Maß dafür, wie oft eine zufällig ausgewählte Probe falsch klassifiziert wird, wenn sie gemäß der Klassenwahrscheinlichkeit zugewiesen wird. Niedrigere Werte der Gini Impurity deuten auf homogenere Knoten hin, was für das Entscheidungsbaum-Modell vorteilhaft ist.
Was misst die Gini Impurity?
Die Gini Impurity misst, wie oft eine zufällig ausgewählte Probe falsch klassifiziert würde.
Was ist die Hauptfunktion der Impurity-Maße in Entscheidungsbäumen?
Sie verhindern zufällige Splits, die die Vorhersagekraft des Modells verringern.
Wie wird Entropy definiert?
Entropy misst die Unsicherheit in der Klassifikationsverteilung eines Knotens.
Klicken Sie auf eine Karte für die Antwort
Q1
Was misst die Gini Impurity?
Q2
Welches Maß ist rechnerisch einfacher?
Q3
Was erzielt man durch die Verwendung von Impurity-Maßen in Entscheidungsbäumen?
Laden Sie Ihre Notizen oder PDF hoch, um in Sekundenschnelle vollständige Dokumente zu erhalten.
Kostenlos anmelden → Keine Kreditkarte • 1 Paket gratis