[코세라 머신러닝] Mini-Batch Gradient Descent 미니 배치 경사하강법


[코세라 머신러닝] Mini-Batch Gradient Descent 미니 배치 경사하강법

머신러닝 / 딥러닝 기초를 다지고자 coursera에서 Adrew Ng 강사가 진행하는 머신러닝 강의를 수강하게 되었다. 다음은 Large Scale Machine Learning 강의 내용을 정리한 것이다. 저번 포스팅에서는 확률적 경사하강법의 동작방식과 경사하강법보다 확률적 경사하강법이 빠른이유, 두 하강법의 차이점에 대해 알아보았습니다. 이번 포스팅에서는 미니-배치 경사하강법(Mini-Batch Gradient Descent)에 대해 공부합니다. 미니 배치-경사하강법은 때로 확률적 경사하강법보다 조금 더 빠르게 작동할 수 있습니다. Mini-Batch Gradient Descent 미니-배치 경사하강법 우선, 지금까지 배운 알고리즘을 요약해보자. 배치 경사하강법은 각 스텝마다 모든 m개의 학습 예제를 사용한다. 확률적 경사하강법은 각 스텝마다 하나의 학습 예제만을 사용한다. 미니-배치 경사하강법은 두 알고리즘 사이 어딘가에 있다. 미니-배치 경사하강법은 각 스텝마다 b개의 예제...


#경사하강법 #통계학과 #코세라 #이웃환영 #병렬화계산 #벡터화 #미니배치경사하강법 #머신러닝 #딥러닝 #대학생 #공부블로그 #확률적경사하강법

원문링크 : [코세라 머신러닝] Mini-Batch Gradient Descent 미니 배치 경사하강법