MicroGrad Flashcards

(24 cards)

1
Q

Ableitung von f(x) = x + c

A

Die Steigung (der Gradient) ist immer 1.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Ableitung von f(a) = a * b (nach a)

A

Der Gradient ist b (der Hebel der anderen Zahl).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Ableitung von f(a) = a * b (nach b)

A

Der Gradient ist a.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Ableitung von f(x) = x**2 (Quadrat)

A

Der Gradient ist 2 * x.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Ableitung von f(x) = x**n (Potenz)

A

Der Gradient ist n * x**(n-1).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Die Kettenregel (Chain Rule) als Formel

A

Gesamt-Grad = Lokaler-Grad * Grad-von-vorn.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Ableitung von tanh(x) (Aktivierungsfunktion)

A

Der Gradient ist 1 - (tanh(x))**2.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Wie lautet die Formel für den ‘Manual Gradient’?

A

(f(x + h) - f(x)) / h.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Ableitung von e**x (Exponentialfunktion)

A

Der Gradient ist wieder e**x (sie bleibt gleich).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Was ist die Ableitung einer Konstanten (Zahl ohne x)?

A

Der Gradient ist immer 0.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Wie berechnet man das neue Gewicht (Update)?

A

Neues Gewicht = Altes Gewicht - (Lernrate * grad).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Warum ist der Gradient von ‘a’ bei d = a + b gleich 1?

A

Weil eine Addition die Steigung der Kurve nicht verändert (nur verschiebt).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Was ist die ‘data’ in einem Value-Objekt?

A

Der aktuelle Zahlenwert (der Ist-Zustand).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Was beschreibt der ‘grad’ (Gradient)?

A

Die Empfindlichkeit: Wie stark ändert sich das Endergebnis, wenn ich diesen Wert minimal erhöhe?

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Was passiert mit dem Loss, wenn der grad negativ ist und ich den Wert erhöhe?

A

Der Loss wird kleiner (das Modell wird besser).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Warum addieren wir ‘h’ (0.0001) beim manuellen Ableiten?

A

Um die Steigung an einer winzigen Stelle zu messen (lokale Steigung).

17
Q

Formel: d = a * b. Wie gross ist der grad von a?

A

Der Wert von b.

18
Q

Formel: d = a + b. Wie gross ist der grad von a?

A

Immer 1 (da Addition nur verschiebt, nicht skaliert).

19
Q

Was macht die Funktion ‘backward()’?

A

Sie berechnet die Gradienten rückwärts vom Ende (Loss) zum Anfang (Inputs).

20
Q

Was ist die Kettenregel (Chain Rule) intuitiv?

A

Man multipliziert den lokalen Hebel mit dem Gradienten, der von “vorne” kommt.

21
Q

Warum nutzt Karpathy ‘set()’ für ‘_prev’?

A

Damit jeder Knoten bei der Ableitung nur einmal besucht wird (keine Duplikate).

22
Q

Was passiert mit dem grad bei einer Multiplikation mit 0?

A

Der Gradient wird 0 - die Verbindung ist “tot”, keine Information fliesst zurück.

23
Q

Was ist ein ‘Step’ im Training?

A

Man ändert die Gewichte leicht in die Gegenrichtung des Gradienten (Gewicht -= Lernrate * grad).

24
Q

Warum ist ‘grad’ am Anfang des Loss-Knotens immer 1.0?

A

Weil sich der Loss zu sich selbst exakt 1:1 verändert (Startpunkt).