Hva er hovedmålet med gradient descent?
Å finne minimum til en funksjon ved å bevege seg trinnvis i retning av den negative gradienten.
Hva representerer gradienten i gradient descent?
Hellingen eller den bratteste retningen oppover for funksjonen i et punkt.
Hvorfor går vi i negativ gradient-retning?
Fordi gradienten peker oppover, mens den negative gradienten peker nedover mot minimum.
Hva skjer hvis læringsraten er for stor?
Algoritmen kan hoppe forbi minimum og aldri konvergere.
Hva skjer hvis læringsraten er for liten?
Algoritmen går veldig sakte og trenger mange steg for å nå minimum.
Hva er forskjellen på batch, stochastic og mini-batch gradient descent?
Hvorfor blir stegene mindre når vi nærmer oss minimum?
Fordi gradienten (hellingen) nærmer seg null.
Hva er gradienten i én dimensjon?
Da er gradienten det samme som den deriverte f’(x), altså hellingen i et punkt.
Hva er gradienten i flere dimensjoner?
Hva betyr gradienten geometrisk i flere dimensjoner?
Den peker i retningen der funksjonen øker mest (bratteste oppoverbakke).
Hvorfor bruker gradient descent negativ gradient?
Fordi vi vil gå nedover mot minimum, ikke oppover.
Hva er hyperparametere?
Hyperparametere er parametere som definerer læringsprosessen, men ikke modellen.