[머신러닝] 서포트 벡테 머신 SVM 이론 :: Decision Boundary, margin, Cost function


[머신러닝] 서포트 벡테 머신 SVM 이론 :: Decision Boundary, margin, Cost function

머신러닝 / 딥러닝 기초를 다지고자 coursera에서 Adrew Ng 교수가 진행하는 머신러닝 강의를 수강하게 되었다. 다음은 Support Vector Machines 강의 내용을 정리한 것이다. 서포트 벡터 머신(SVM)은 지도학습 알고리즘으로, 로지스틱 회귀보다 강력할 때가 있다. SVM :: 로지스틱 회귀 대체 알고리즘 우선, 로지스틱 회귀의 hypothesis function을 다시 떠올려보자. 즉, y=1 일 때, θTx ≫ 0 으로 만들어주고, y=0 일 때, θTx ≪ 0 으로 만들어주는 θ를 찾고자 했다. 한 개 training example에 해당하는 cost를 생각해보자. (로지스틱 회귀 cost function) 로지스틱 회귀는 log를 이용해서 cost function을 정의했다. 그러나 SVM은 이와 비슷하지만 piecewise-linear한 함수를 대신 사용한다. 이 함수를 hinge loss function이라고 부른다. **piecewise-linea...


#ai #코세라강의 #코세라 #지도학습 #이웃환영 #서포트벡터머신 #머신러닝 #딥러닝 #대학생 #기계학습 #공부블로그 #SVM #coursera #통계학과

원문링크 : [머신러닝] 서포트 벡테 머신 SVM 이론 :: Decision Boundary, margin, Cost function