kl
This commit is contained in:
parent
772cdb360a
commit
e5a97f5b25
@ -185,8 +185,8 @@ $$
|
||||
|Logistische Regression vs. lineare Regression|Im Gegensatz zur linearen Regression sagt man bei der logistischen Regression nicht die konkreten Werte des Kriteriums vorher. Stattdessen schätzt man, wie wahrscheinlich es ist, dass eine Person in die eine oder die andere Kategorie des Kriteriums fällt. So könntest man etwa vorhersagen, wie wahrscheinlich es ist, dass eine Person mit einem IQ von 112 die Aufnahmeprüfung bestehen wird. Für die Vorhersage verwendet man auch bei der logistischen Regression eine Regressionsgleichung. Überträgt man diese Regressionsgleichung in ein Koordinatensystem, so erhält man die charakteristische Kurve der logistischen Regression. An ihr kann man abschätzen, wie wahrscheinlich eine Merkmalsausprägung des Kriteriums für eine Person mit einem bestimmten Prädiktorwert ist und wie gut das Modell zu deinen Daten passt. Die Funktion der logistischen Regression sieht so aus: |
|
||||
|Stochastisches Gradientverfahren (SGD)|<ul><li>Iteratives Optimierungsverfahren</li><ul><li>Parameter verändern</li><li>Minimum der Verlustfunktion finden</li></ul><li>SGDClassifier in Scikit-Learn</li><ul><li>Lineare Support Vector Machine (SVM)</li><li>Logistic Regression</li></ul><li>Eingesetzt in…</li><ul><li>Machine Learning</li><li>Deep Learning</li><li>Reinforcement Learning</li></ul></ul>|
|
||||
|Konfusionsmatrix|Die Konfusionsmatrix zeigt die Verteilung korrekter und falscher Vorhersagen, enthält jedoch keine Trainingsparameter wie die Lernrate. <img src="bilder/konfusionsmatrix.png" alt="Konfusionsmatrix" width="600"/>|
|
||||
|Precision (Relevanz)|Gibt den Anteil der korrekt als positiv klassifizierten Ergebnisse an der Gesamtheit der als positiv klassifizierten Ergebnisse an $\huge precision = \frac{tp}{tp+fp} $|
|
||||
|Recall (Sensivität)|Gibt die Wahrscheinlichkeit an, mit der ein positives Objekt korrekt als positiv klassifiziert wird. $\huge recall = \frac{tp}{tp+fn} $|
|
||||
|F1|Der F1-Wert ist der harmonische Mittelwert (eine Art Durchschnitt) von Precision und Recall. Dieser Messwert gleicht die Bedeutung von Precision und Recall aus und ist für Datasets mit unausgeglichenen Klassen besser geeignet als die Genauigkeit. $\huge f1=2*\frac{precision * recall}{precision + recall} $|
|
||||
|Precision (Relevanz)|Gibt den Anteil der korrekt als positiv klassifizierten Ergebnisse an der Gesamtheit der als positiv klassifizierten Ergebnisse an $\large precision = \frac{tp}{tp+fp} $|
|
||||
|Recall (Sensivität)|Gibt die Wahrscheinlichkeit an, mit der ein positives Objekt korrekt als positiv klassifiziert wird. $\large recall = \frac{tp}{tp+fn} $|
|
||||
|F1|Der F1-Wert ist der harmonische Mittelwert (eine Art Durchschnitt) von Precision und Recall. Dieser Messwert gleicht die Bedeutung von Precision und Recall aus und ist für Datasets mit unausgeglichenen Klassen besser geeignet als die Genauigkeit. $\large f1=2*\frac{precision * recall}{precision + recall} $|
|
||||
|||
|
||||
## Unsupervised Learning Clustering
|
||||
Loading…
x
Reference in New Issue
Block a user