[NLP] Attention Model


[NLP] Attention Model

Attention Model Seq2Seq 모델에서 시퀀스의 길이가 너무 길어져 버리면 상태 벡터에 충분한 정보를 담기 어려워지는 문제점 존재 Seq2Seq의 단점을 보완하기 위해 Attention 개념을 도입 Attention은 Seq2Seq..

[NLP] Attention Model 글에 대한 티스토리 블로그 포스트 내용이 없거나, 요약내용이 적습니다.

아래에 원문링크를 통해 [NLP] Attention Model 글에 대한 상세내용을 확인해주시기 바랍니다.


원문링크 : [NLP] Attention Model