Gradient descent – metoda gradientu prostego

Gradient to po prostu kierunek i wielkość największego wzrostu funkcji (jest to wektor). Czyli aby minimalizować przykładowo funkcję straty należy poruszać się w przeciwnym kierunku do gradientu. Dzięki temu można optymalizować parametry modelu (na przykład wagi w sztucznej sieci neuronowej) w dobrym kierunku.

Metoda gradientu prostego jest często wykorzystywaną metodą przy optymalizacji wag sztucznych sieci neuronowych.

Pod względem matematycznym jest obliczanie pochodnej funkcji względem parametru.

Pozostaw komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *