DNN: 통계학과의 연관성


DNN: 통계학과의 연관성

우리가 흔히 알고 있는 Francis Galton의 회귀분석으로 부터 머신러닝까지 올 수 있었다. 이제부터는 실제로 머신러닝이 어떻게 작동되는지 파악해보도록 하겠다. 사실상 회귀분석에서 시작된 것이니, 회귀분석의 아이디어에 추가적인 아이디어를 붙여서 해석할 수 있게 된다. GLM에서 DNN까지 우리가 흔히 인공지능이라고 하면 위와같은 그림을 그리고, 찾을 수 있다. 사람들은 그림을 통해 많은 것을 설명하고자 하지만, 그림이나 말로만 하는 설명은 사실 체계적이지 못하고 신뢰도가 약하다는 문제가 있다. DNN도 이것을 수식화 하는 것이 쉽지 않다. 일반적으로 위 사진에서 h라고 써있는 하나의 열이 hidden layer라고 불리며 hidden layer가 하나면 NN, neural network라고 불리고, 두개 이상이면 DNN이라고 불린다. 이것과 GLM의 차이는 무엇인가? y의 평균을 μ라고 쓰고, μ에 함수를 걸어두고 설명하는 것이 GLM이며, 대표적인 함수가 로짓 함수이다. 또한...


#approximation #행렬 #통계학 #통계 #딥뉴럴네트워크 #universal #theorem #tanh #softmax #sigmoid #relu #NN #layer #hidden #gradient #DNN #활성함수

원문링크 : DNN: 통계학과의 연관성