[ML/DL] Sigmoid Function이란?


[ML/DL] Sigmoid Function이란?

AI를 만들려면, 학습시킬 데이터가 필요하고, 모델을 어떻게 만들지 전략이 필요합니다. 우선 우리가 사용하는 대부분의 작업은, 입력이 있고 출력이 있습니다. 우리가 원하는 것은 입력을 줬을 때, AI가 출력을 주길 원합니다. Activation function의 기본 목적은 입력값에 대한 출력값에 줄 영향치를 결정하는 것입니다. Activation function은 일종의 f(x)같은 함수입니다. 아래 식이 Sigmoid function의 예인데, 이 함수는 출력 값이 0~1으로 나오기 때문에, 이 함수를 쓰면, 입력값이 아무리 크든 작든 출력값이 간단해집니다. Activation function은 이진 분류, 다중 분류, 회귀 등 다양한 인공신경망 모델에서 사용됩니다. 다양한 활성화 함수가 있지만, 대표적인 함수로는 Sigmoid 함수, ReLU 함수, Tanh 함수, Softmax 함수 등이 있습니다. 이 activation function을 뭘 썼느냐에 따라, Model의 성능...


#AI #DL #ML #딥러닝 #머신러닝

원문링크 : [ML/DL] Sigmoid Function이란?