Transformer - Harder, Better, Faster, Stronger


Transformer - Harder, Better, Faster, Stronger

#transformer 기존 구조에서는 문장을 “단어의 연속적인 배열”로 간주하였습니다. 그러나 Transformer에서 문장은 “단어간의 Attention들의 합”으로 나타납니다. 즉, 문장이라고 하는 구조는 마치 베틀처럼 Attention을 촘촘하게 엮은 형태로 나타낼 수 있는 것입니다. Transformer 구조체와 이 구조를 향상시키기 위한 기법들을 같이 알아봅시다. 이번 블로그에서는 2017년에 발표되어 자연어처리 분야의 한 획을 그었던 Transformer 구조와 이를 활용한 GPT / BERT 구조에 대해서 다룹니다. 아울러 어떠한 문제들이 있었고 연구자들이 어떻게 그 문제들을 풀려 노력했는지에 대해서 같이 알아보고자 합니다. 들어가며: Transformer 에 대해..........

Transformer - Harder, Better, Faster, Stronger에 대한 요약내용입니다.

자세한 내용은 아래에 원문링크를 확인해주시기 바랍니다.



원문링크 : Transformer - Harder, Better, Faster, Stronger