-
Running Gradient Descent | Supervised Machine Learning: Regression and ClassificationMachine Learning/Stanford ML Specialization 2023. 10. 27. 20:04
경사 하강법이 어떻게 동작하는지 알아보도록 하자. 맨 처음에는 아래 함수부터 시작한다.
$ F(x) = -0.1 + 900 $
여기서 Gradient Descent를 이용해서 점점 값을 줄여가면서 가장 작은 Cost, 2311을 찾아내었다.
https://youtu.be/tHDDbqYfflM 여기서 Gradient Descent를 계산할 때, 가지고 있는 모든 데이터 예제를 사용해서 계산하는 방식을 Batch Gradient Descent라고 한다.
https://youtu.be/tHDDbqYfflM 이렇게 모든 데이터를 사용해서 매번 계산하는것이 비효율적이기 때문에, subsets gradient descent와 같은 방법도 존재한다고 한다.
Reference
'Machine Learning > Stanford ML Specialization' 카테고리의 다른 글