GAN 구현 - 학습 시 Loss에 관하여


GAN  구현 - 학습 시 Loss에 관하여

https://github.com/nh9k/pytorch-implementation#GAN구현시 직면했던 문제점:처음에 구현했을 때 모델이 epoch 1에서 바로 수렴해버렸다..그리고, Generator loss는 상승(increase)하고, Discriminator loss는 하강(decrease)해서 이상했다.여러가지 수정해보며 실험해본 결과 다음 3가지를 통해 문제를 해결할 수 있었다.아주아주 아주! 중요했던 문제의 해결책:1. 모델에 batch normalization 적용안함2. Discriminator layers 간소화해야함(너무 깊게 깊게 쌓지 말자)3. Model input,output에 image shape 맞춰주기Jason님 께 여쭤봤는데,GAN은 학습이 잘된다고 Loss가 계속 떨어지지 않는다고 한다.어느정도 떨어지다가 수렴(co..........



원문링크 : GAN 구현 - 학습 시 Loss에 관하여