Pitfalls Flashcards

(5 cards)

1
Q

Was ist der häufigste Fehler beim Preprocessing (z.B. Mean/Std)?

A

Statistiken über den gesamten Datensatz berechnen statt nur über den Train-Set. (Informationen aus dem Test-Set “leaken” ins Training).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Warum scheitert Batch Normalization oft bei Multi-GPU Training?

A

Weil die Statistiken standardmäßig pro GPU berechnet werden. Ist die Batch-Size pro GPU zu klein (< 4), werden die Schätzungen instabil (Lösung: SyncBN).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Welcher Fehler tritt häufig bei der Loss-Funktion (CrossEntropy) auf?

A

Die doppelte Anwendung von Softmax. Viele Frameworks (wie PyTorch CrossEntropyLoss) erwarten rohe Logits, keine Wahrscheinlichkeiten als Input.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Warum bleibt der Loss manchmal konstant hoch, obwohl das Modell lernt?

A

Zu hohe Learning Rate am Anfang führt zu Dying ReLUs. Zu viele Neuronen landen im negativen Bereich, der Gradient wird 0, das Netz “erstarrt”.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Welcher “stille” Fehler ruiniert die Validierung bei Zeitreihen oder geordneten Daten?

A

Vergessen des Shufflings beim Training oder (umgekehrt) Shuffling bei Zeitreihen, was die zeitliche Kausalität zerstört.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly