[코세라 머신러닝] 확률적 경사하강법 Stochastic Gradient Descent VS. Batch Gradient Descent 차이점


[코세라 머신러닝] 확률적 경사하강법 Stochastic Gradient Descent VS. Batch Gradient Descent 차이점

머신러닝 / 딥러닝 기초를 다지고자 coursera에서 Adrew Ng 교수가 진행하는 머신러닝 강의를 수강하게 되었다. 다음은 Large Scale Machine Learning 강의 내용을 정리한 것이다. Learning With Large Datasets 대규모 data set으로 학습하기 최근 5년 또는 10년을 뒤돌아 볼 때, 머신러닝이 예전보다 훨씬 더잘 작동하는 이유는 알고리즘이 학습할 수 있는 엄청난 양의 데이터 때문이다. 이번 포스팅에서는 대규모 data set이 있을 때 처리하는 알고리즘을 공부해보고자 한다. 왜 우리는 대규모 data set을 사용할까? 고성능 머신러닝 시스템을 개발하는 가장 좋은 방법 중 하나는 편향이 적은 학습 알고리즘을 사용하여 많은 데이터를 학습하는 것이다. 예를 들면, 알고리즘은 "I ate ( ) eggs" 문장에서 'to','two','too' 중에서 들어갈 단어인 'two'를 많은 데이터를 학습할수록 정확하게 예측할 수 있다. 그렇기...


#Bigdata #통계학과 #코세라 #차이점 #이웃환영 #머신러닝 #대학생 #공부블로그 #경사하강법 #확률적경사하강법

원문링크 : [코세라 머신러닝] 확률적 경사하강법 Stochastic Gradient Descent VS. Batch Gradient Descent 차이점