Lecture 3 – Neural Networks


Lecture 3 – Neural Networks

Lecture 3 – Neural Networks 목차 è Softmax를 쓰든지 logistic regression을 쓰든지 상관없다. è 슬라이드에서도 나와있지만, 우리의 목표는 correct class y의 확률을 최대화 하거나, negative 로그확률을 최소화 하는 것이다. è Full dataset에서의 Cross entropy loss function è 우리는 d-차원 가중치의 열벡터를 가진다 왜냐하면 wi와 rd의 내적을 할 것이기 때문에. è 그래서 우리는 c 곱하기 d항목과 W 행렬을 가지고 그것들이 우리 모델의 매개변수가 된다. è 우리가 경사 하강법을 이용해 모델을 학습시키고자 한다면 gradiantW를 사용하고 그것을 바탕으로 loss function을 업데이트 해야한다. è 그렇다면 신경망에서는 분류화가 어떻게 다를까? Naïve Bayes models è High bias classfier라면 단지 하나의 선만 그릴 것이기 때문에 정확하지 못하다. è P...



원문링크 : Lecture 3 – Neural Networks