Was macht ein Classifier im Machine Learning?
Er ordnet eine Eingabe (Input) einer diskreten Klasse (Label) zu. Er beantwortet die Frage: “Zu welcher Gruppe gehört das?”
Beispiele:
* Binär: (2 Klassen) → Spam oder kein Spam? Systemabsturz oder Normalbetrieb?
* Multiklassen: (3+ Klassen) → Handgeschriebene Ziffern (0–9) oder Fehlercodes (Critical, Warning, Info).
Der Classifier lernt während des Trainings die Entscheidungsgrenzen (Decision Boundaries) zwischen den Klassen.
Was ist eine Decision Boundary in einem Klassifikationsmodell?
Es ist die Trenlinie (oder Fläche) im Merkmalsraum, die bestimmt, wo eine Klasse aufhört und die nächste beginnt.
Logik: Wenn ein Datenpunkt auf der einen Seite der Grenze liegt, klassifiziert ihn das Modell als „Klasse A“, auf der anderen Seite als „Klasse B“.
Form:
Linear: Eine gerade Linie (z. B. bei Logistischer Regression).
Nicht-linear: Komplexe Kurven oder Kreise (z. B. bei Random Forests oder Neural Networks).
Lernprozess: Während des Trainings versucht der Classifier, diese Grenze so zu legen, dass möglichst wenig Fehler entstehen.
Logistische Regression
Was ist der Hauptunterschied zur linearen Regression?
Was ist Lineare Regression und wie unterscheidet sie sich von der Klassifikation?
Welche Algorithmen werden neben der Logistischen Regression für die Klassifizierung genutzt?
🌳 Decision Trees (Entscheidungsbäume): Teilt Daten anhand von Wenn-Dann-Fragen auf. (Vorteil: Glassbox – man sieht den Pfad).
🌲 Random Forest: Ein Ensemble aus vielen Entscheidungsbäumen. Sehr robust und schwer zu überlisten.
🚀 Support Vector Machines (SVM): Sucht die “breiteste Straße” (Hyperplane), um Klassen mit maximalem Abstand zu trennen.
👥 K-Nearest Neighbors (KNN): Schaut sich die
nächsten Nachbarn eines Punktes an und wählt die häufigste Klasse.
🧠 Neuronale Netze: Blackbox-Modelle für hochkomplexe Daten wie Bilder (CNNs) oder Sprache (Transformer).
📈 Naive Bayes: Basiert auf Wahrscheinlichkeiten (Satz von Bayes). Extrem schnell für Text-Klassifizierung (Spam-Filter).