WRN(2016) - Wide Residual Networks


WRN(2016) - Wide Residual Networks

#block #classification #residual #ResNet #wideresidualnetworks #wideresnet #WRN >>깊이를 늘리는 대신 넓이를 키웠더니 학습도 빠르고 정확도도 높음 >> residual block내의 conv layer 사이에 dropout을 적용 https://deep-learning-study.tistory.com/519?category=963091 [논문 읽기] WRN(2016) 리뷰, Wide Residual Networks 이번에 읽어볼 논문은 WRN, Wide Residual Networks 입니다. WRN은 residual netowrk의 넓이를 증가시키고 깊이를 감소시킨 모델입니다. 16 layer로 이루어진 WRN은 1000-layer ResNet 같은 깊은 신경망을 제.. deep-learning-study.tistory.com 이번에 읽어볼 논문은 WRN, Wide Residual Networks 입니다. WRN은 r...


#block #classification #residual #ResNet #wideresidualnetworks #wideresnet #WRN

원문링크 : WRN(2016) - Wide Residual Networks