분류 전체보기
-
Multiple Features | Supervised Machine Learning: Regression and ClassificationMachine Learning/Stanford ML Specialization 2023. 10. 28. 14:27
Coursera Machine Learning Specialization > Supervised Machine Learning: Regression and Classification > Regression with multiple input variables Multiple Features 이전까지 Linear Regression을 살펴볼 때, 우리는 아래와 같이 1가지의 feature만 가지고 모델을 구현하는 방법에 대해 알아보았다. $ f(x) = wx + b $ 하지만, 실제 상황은 이렇지 않다. 집값을 예측할 때, 집의 크기 이외에도 방의 갯수, 층의 갯수, 연식, 주변 인구들의 연봉등의 정보들은 모두 집값을 예측하는데 도움을 준다. 이 정보들을 숫자로 나타내면 어떨까? 이런 feature들을 모..
-
Running Gradient Descent | Supervised Machine Learning: Regression and ClassificationMachine Learning/Stanford ML Specialization 2023. 10. 27. 20:04
Coursera Machine Learning Specialization > Supervised Machine Learning: Regression and Classification > Introduction to Machine Learning 경사 하강법이 어떻게 동작하는지 알아보도록 하자. 맨 처음에는 아래 함수부터 시작한다. $ F(x) = -0.1 + 900 $ 여기서 Gradient Descent를 이용해서 점점 값을 줄여가면서 가장 작은 Cost, 2311을 찾아내었다. 여기서 Gradient Descent를 계산할 때, 가지고 있는 모든 데이터 예제를 사용해서 계산하는 방식을 Batch Gradient Descent라고 한다. 이렇게 모든 데이터를 사용해서 매번 계산하는것이 비효율적이기 때문..
-
공부하고싶은 ML 책 목록책읽기/Computer Programming 2023. 10. 27. 19:23
사서 읽고싶은 책 목록이다. 가격이 상당하고 시간적으로도 한번에 공부하지 못해서, 지금 공부하는것 마무리 하고 하나씩 사서 읽을 예정. [구매 완료] Introduction to Machine Learning with Python 꼭 공부해보고싶은 책이다. 얼마전 이 책을 드디어 구입해서 하루에 1-2장씩이라도 공부해나가고 있다. 블로그에 글로도 작성중이다. https://m.yes24.com/Goods/Detail/107680777 파이썬 라이브러리를 활용한 머신러닝 - 예스24 사이킷런 핵심 개발자에게 배우는 머신러닝 이론과 구현 현업에서 머신러닝을 연구하고 인공지능 서비스를 개발하기 위해 꼭 학위를 받을 필요는 없다. 사이킷런(scikit-learn)과 같은 훌륭한 머신 m.yes24.com Han..
-
Gradient Descent for Linear Regression (선형회귀를 위한 경사 하강법) | Supervised Machine Learning: Regression and ClassificationMachine Learning/Stanford ML Specialization 2023. 10. 27. 19:19
Coursera Machine Learning Specialization > Supervised Machine Learning: Regression and Classification > Introduction to Machine Learning 선형회귀와 Cost Function을 다시 살펴보자. Linear Regression모델은 다음과 같다. w와 b값을 바꿔가면서 최종적으로 가장 좋은 Performance를 보여주는 최종 값을 찾는것이다. 그런데 여기서 어떻게 이 모델이 좋은 모델이라고 판단할 수 있는가? 바로 Cost Function을 이용해서, 할 수 있었다. 실제 값과 모델이 추측한 값의 차이들을 비교해서 좋은 w, b값들을 찾아가는게 바로 학습의 과정이었다. 그렇다면 w와 b값은 어떤 방식..
-
Learning Rate (학습률, 알파) | Supervised Machine Learning: Regression and ClassificationMachine Learning/Stanford ML Specialization 2023. 10. 27. 18:58
Coursera Machine Learning Specialization > Supervised Machine Learning: Regression and Classification > Introduction to Machine Learning Learning Rate(학습률)이라는것이 있다. 지난 시간 Gradient Descent(경사 하강법)에 대해 공부할 때, w값을 바꾸어가면서 계산했는데, 새로운 w값을 찾을 때, 알파(a)값을 바꿔서 J(w)의 Derevitive 값을 곱해줬었다. 여기서 알파(a)가 바로 학습률, Learning Rate이다. 너무 작지도 크지도 않은 Learning Rate를 선택하는것은 아주 중요하다. Too Large or Small Learning Rate 만약, 알파..
-
Gradient Descent (경사 하강법) | Supervised Machine Learning: Regression and ClassificationMachine Learning/Stanford ML Specialization 2023. 10. 17. 22:54
Coursera Machine Learning Specialization > Supervised Machine Learning: Regression and Classification > Introduction to Machine Learning Gradient Descent 앞서서 우리는 Linear Regression에 대해서 알아보았고, Cost Function을 사용해서 가장 Minimum 오차값을 보이는 w, b를 찾아 아래 함수를 완성시켜, 가장 유력한 선을 그려내는 방법에 대해 배웠다. $ f(x) = wx + b $ 그런데, 이 값을 최소화 할 수 있는 방법이 있는데 Gradient Descent(경사 하강법)이라고 한다. 이 과정의 아웃라인은 간단하다. - 어떤 w, b 값부터 시작한다. ..
-
Cost Function (비용함수) | Supervised Machine Learning: Regression and ClassificationMachine Learning/Stanford ML Specialization 2023. 10. 17. 20:49
Coursera Machine Learning Specialization > Supervised Machine Learning: Regression and Classification > Introduction to Machine Learning 선형 회귀를 구현하려면 Cost Function(비용 함수)를 정의하는게 첫번째 단계이다. 비용함수를 이용해 이 모델이 얼마나 잘 동작하는지 알 수 있다. 예를 들어 다음과 같은 선형(Linear) Regression 모델이 있다고 가정해보자. $ Model: f(x) = wx + b $ 여기서 w와 b를 parameters인데, 머신러닝에서는 이 변수들을 변경해갈 수 있다. 머신러닝은 이 파라미터를 coefficients 또는 weights라고 부른다. 선형 함..
-
Linear Regression (선형 회귀) | Supervised Machine Learning: Regression and ClassificationMachine Learning/Stanford ML Specialization 2023. 10. 11. 21:01
Coursera Machine Learning Specialization > Supervised Machine Learning: Regression and Classification > Introduction to Machine Learning Supervised Learning(지도학습)에서 가장 많이 쓰이는 학습법중 하나는 Regression(회귀)이고, 그중에서도 Linear Regression(선형 회귀)는 가장 많이 쓰이는 학습법중 하나이다. 아래는 Linear Regression을 설명할 때 가장 많이 쓰이는 예시이다. 내가 부동산을 운영하고 있다고 하자. 이 부동산에는 올해 동네 집값을 모두 알고 있는 데이터가 엑셀로 저장되어 있는데, 그것을 차트에 그리면 위와 같이 X표시들이 여러개가 차트..