Pytorch Loss Functinon overview


Pytorch Loss Functinon overview

Loss 함수는 기본적으로 모든 모델에 들어가게 됩니다. 특정한 기준으로 실제 값과의 차이를 구하고, 해당 차이를 줄이는 방식으로 딥러닝 모델은 예측값의 범위를 줄여나가게 됩니다. Loss를 계산하는 방식에 따라서 실제 모델과 예측 모델의 차이에 대해 정의할 수 있으며 필요한 부분에 가중치를 두어서 훈련에 더 기여하는 식으로도 조절할 수 있습니다. 또한 출력이 어떻게 생겼는지에 따라 사용할 수 있는 Loss가 다르기 때문에 최대한 많은 Loss를 알아두고 적합한 사용처에 사용하는 것이 중요합니다. Loss는 Hard하게 인덱스 값과 data값을 비교하는 방식이 있으며, 입력 분포와 출력 분포간의 차이를 줄이는 방식도 존재합니다. 모델을 어떻게 설계하고, 값을 줄여나갈지는 모델을 만드는 사람에 전적으로 달려있으며, 사용하는 Loss 마다 필요한 값의 형태도 다르기 때문에 조심해서 사용하여야 합니다. 1. L1 loss 수식 : 파이토치 공식 설명 : 많이 사용되어지는 Loss 중 하나...


#activation #MSE #NLLL #overview #possion #pytorch #smoothL1 #torch #딥러닝 #modelloss #MAE #loss #BCE #BCEwithlogits #CE #criterion #CrossEntropy #KLdiv #L1 #L2 #파이토치

원문링크 : Pytorch Loss Functinon overview