Øving 1 Flashcards

(35 cards)

1
Q

Hvordan skal vi alltid representere X i maskinlæring?

A

Som en 2D-matrise med form (n_samples, n_features).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Hva betyr shape i Numpy?

A

Shape forteller dimensjonene på en array.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Hva betyr shape = (3,) i NumPy?

A

En 1D-array med 3 elementer, uten rader/kolonner (flat liste).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Hvordan ser en array med shape = (3,) ut?

A

[1 2 3]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Hva betyr shape = (3,1) i NumPy?

A

A: En 2D-array med 3 rader og 1 kolonne (kolonnevektor).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Hvordan skal vi alltid representere y i logistisk regresjon?

A

Som en 1D-array (radvektor) med form (n_samples,).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Hvordan ser en array med shape = (3,1) ut?

A

[1]
[2]
[3]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Hva betyr shape = (1,3) i NumPy?

A

En 2D-array med 1 rad og 3 kolonner (radvektor i 2D-form).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Hvordan ser en array med shape = (1,3) ut?

A

[1 2 3]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Hvorfor er shape = (3,) mindre tydelig enn (3,1) eller (1,3)?

A

Fordi (3,) bare er en flat vektor, ikke en matrise — det sier ikke om vi mener rader eller kolonner.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Hva betyr hver rad i X?

A

Ett datapunkt (ett sample).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Hva betyr hver kolonne i X?

A

Én feature (én forklaringsvariabel).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Hvorfor konverterer vi en 1D-array X = [1,2,3] til X.reshape(-1,1)?

A

For å gjøre det tydelig at vi har tre samples med én feature: form (3,1) i stedet for (3,).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Hva skjer hvis y er en kolonnevektor (n,1) i stedet for en radvektor (n,)?

A

Operasjoner som p - y gir shape-konflikt ((n,) vs (n,1)), og du får ValueError.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Hvorfor matcher X @ w naturlig med y når vi bruker riktige shapes?

A

Fordi X @ w gir en array (n,), som har samme shape som y (n,).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Eksempel: Hvis X har shape (3,2) og w har shape (2,), hva blir resultatet av X @ w?

A

En array med shape (3,), altså én prediksjon per sample.

17
Q

Hva er den pedagogiske tommelfingerregelen for shapes i logistisk regresjon?

A

X er alltid 2D (samples × features), y er alltid 1D (samples).

20
Q

Hva gjør .reshape(a, b) i NumPy?

A

Endrer formen (shape) på arrayen til å ha a rader og b kolonner uten å endre innholdet.

21
Q

Hva betyr -1 i .reshape(-1, 1)?

A

-1 lar NumPy automatisk beregne hvor mange rader det skal bli ut fra lengden på arrayen.

22
Q

Hva gjør X.reshape(-1,1) med en array X som har shape (3,)?

A

Den blir til shape (3,1), altså en kolonnevektor.

23
Q

Hva gjør y.reshape(-1) på en array med shape (3,1)?

A

Den flater den ut til shape (3,), en 1D-array.

24
Q

Hva gjør koden n_samples, n_features = X.shape når X er en 2D-array?

A

Den deler tuplen X.shape opp i to variabler: n_samples får antall rader (samples), og n_features får antall kolonner (features).

Eksempel: Hvis X.shape == (100, 3), da blir n_samples = 100 og n_features = 3.

25
Hva betyr y.shape = (n_samples,)?
Én label per sample (flat 1D-vektor).
26
Hvorfor gjør vi if X.ndim == 1: X = X.reshape(-1, 1)?
For å gjøre én feature om til en tydelig kolonne: (n,1) i stedet for (n,).
27
Hva gjør y = np.asarray(y, dtype=float).reshape(-1)?
Flater y til 1D (n,) uansett om den var (n,1) eller (n,) fra før.
28
Hva betyr @ i X @ w?
Matrise-vektor-produkt (lineær algebra). Gir form (n_samples,) når X er (n, d) og w er (d,).
29
Hva betyr X.T?
Transponering (bytter rader/kolonner): (n, d) → (d, n).
30
Hvorfor bruker vi X.T @ err i gradienten?
Det gir en gradient per feature: (d, n) @ (n,) → (d,), som matcher w.
31
Hva er predict_proba vs predict?
predict_proba: sannsynlighet σ(Xw + c) i [0,1]. predict: klasser (0/1) via terskel, f.eks. (proba >= 0.5).
32
Hvorfor initialiseres self.w i fit() og ikke i __init__?
Lengden på w avhenger av antall features (n_features), som vi først vet i fit().
33
Hva er induktiv bias i maskinlæring?
Induktiv bias er settet med antakelser en modell gjør om dataene for å kunne generalisere fra treningssettet til nye, usette eksempler. Uten slike antakelser kan ikke modellen velge én forklaring fremfor en annen. Eksempel: Logistisk regresjon antar at klassene kan skilles med en lineær grense.
34
Hva er den induktive biasen til beslutningstrær?
At data kan forklares ved å dele opp rommet i hierarkiske if–then-regler.
35