[DL Basic] 8강 Transformer


[DL Basic] 8강 Transformer

 Transformer : RNN처럼 재귀적인 구조 없이, 오직 Attention을 이용하여 만들어진 구조이다. 여기서는 Self-Attention이라는 것이 Encoder와 Decoder에 이용이 되고, 핵심이다. Sequential한 데이터를 처리하고..

[DL Basic] 8강 Transformer 글에 대한 티스토리 블로그 포스트 내용이 없거나, 요약내용이 적습니다.

아래에 원문링크를 통해 [DL Basic] 8강 Transformer 글에 대한 상세내용을 확인해주시기 바랍니다.


원문링크 : [DL Basic] 8강 Transformer