gradient_descent
ważne
Temat będzie się powtarzał w przyszłości, GD to ważny algorytm. Zrozum, jak działa algorytm spadku gradientu i do czego jest wykorzystywany w uczeniu maszynowym.
czym jest gradient descent?
- Algorytm optymalizacyjny używany do znajdowania minimum funkcji (np. błędu).
- W ML: służy do "uczenia" modeli przez minimalizację funkcji kosztu.
- Działa iteracyjnie: poprawia parametry modelu krok po kroku.
jak działa? ⭐
- Oblicz gradient (pochodną) funkcji kosztu względem parametrów.
- Zmień parametry w kierunku przeciwnym do gradientu ("w dół" zbocza).
- Powtarzaj aż do osiągnięcia minimum lub spełnienia warunku stopu.
przykładowy kod (Python, 1D)
# Minimalizacja f(x) = (x-3)^2
x = 0.0
learning_rate = 0.1
for i in range(20):
grad = 2 * (x - 3)
x = x - learning_rate * grad
print(f"Iteracja {i}: x = {x:.3f}")
praktyczne ćwiczenia
- Zaimplementuj gradient descent dla funkcji kwadratowej.
- Zmień learning rate i zobacz, jak wpływa na szybkość zbieżności.
- Przetestuj na funkcji z minimum globalnym i lokalnym.
dobre praktyki
- Dobierz odpowiedni learning rate (zbyt duży = niestabilność, zbyt mały = wolna zbieżność).
- Stosuj normalizację danych.
- Monitoruj wartość funkcji kosztu w trakcie uczenia.
polecane źródła
- Gradient Descent – Wikipedia
- Gradient Descent – 3Blue1Brown (YouTube)
- Gradient Descent – scikit-learn docs