diff --git a/zusammenfassung/bilder/roc_kurve.png b/zusammenfassung/bilder/roc_kurve.png new file mode 100644 index 0000000..19ee457 Binary files /dev/null and b/zusammenfassung/bilder/roc_kurve.png differ diff --git a/zusammenfassung/zusammenfassung.md b/zusammenfassung/zusammenfassung.md index a2b4e78..820b822 100644 --- a/zusammenfassung/zusammenfassung.md +++ b/zusammenfassung/zusammenfassung.md @@ -188,5 +188,7 @@ $$ |Precision (Relevanz)|Gibt den Anteil der korrekt als positiv klassifizierten Ergebnisse an der Gesamtheit der als positiv klassifizierten Ergebnisse an $\large precision = \frac{tp}{tp+fp} $| |Recall (Sensivität)|Gibt die Wahrscheinlichkeit an, mit der ein positives Objekt korrekt als positiv klassifiziert wird. $\large recall = \frac{tp}{tp+fn} $| |F1|Der F1-Wert ist der harmonische Mittelwert (eine Art Durchschnitt) von Precision und Recall. Dieser Messwert gleicht die Bedeutung von Precision und Recall aus und ist für Datasets mit unausgeglichenen Klassen besser geeignet als die Genauigkeit. $\large \\ f1=2*\frac{precision * recall}{precision + recall} $| -||| +|ROC-Kurve|Bewertung der Trennschärfe eines binären Klassifikators über verschiedene Schwellenwerte. ROC-Kurve| +|TPR (True Positive Rate)|Beschreibt, wie viele der tatsächlich positiven Beispiele korrekt erkannt wurden. Sie entspricht dem Recall. Eine TPR von 1.0 bedeutet: alle positiven Beispiele wurden richtig erkannt. $\large TPR = \frac{TP}{TP+FN} $| +|FPR (False Positive Rate)|Die FPR (False Positive Rate) misst, wie viele der negativen Beispiele fälschlich als positiv klassifiziert wurden. Eine FPR von 0.2 bedeutet: 20 % der negativen Beispiele wurden falsch als positiv erkannt. $\large FPR = \frac{FP}{FP+TN} $| ## Unsupervised Learning Clustering \ No newline at end of file