From ef5b36550b5ed70ddc7b240d8924506d0dec222a Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?Oliver=20Sch=C3=BCtz?= Date: Sun, 8 Dec 2024 20:59:02 +0100 Subject: [PATCH] Results --- term-paper/results.tex | 5 +++-- 1 file changed, 3 insertions(+), 2 deletions(-) diff --git a/term-paper/results.tex b/term-paper/results.tex index 5fba13e..53e6bb2 100644 --- a/term-paper/results.tex +++ b/term-paper/results.tex @@ -3,5 +3,6 @@ % Preamble \section{Resultate}\label{sec:resultate} - - +Der Decision Tree schneidet mit einem F1-Score von 0,58 am schlechtesten ab, da er im Vergleich zu komplexeren Modellen wie dem Random Forest eher anfällig für Overfitting ist und weniger robuste Entscheidungsregeln bildet. +Der Random Forest und KNN haben mit rund 0,68 einen ähnlichen F1-Score. Der Random Forest Algorithmus liefert durch die Kombination vieler Entscheidungsbäume stabilere Vorhersagen, der KNN-Algorithmus dagegen ist auch anfällig für Overfitting, was ihn etwas schlechter abschneiden lässt als Random Forest. +Insgesamt liefert der Random Forest tendenziell die besten Ergebnisse.