Abstract 이번 연구팀에서는 새로운 language representation 모델인 BERT에 대해 소개한다. 이 BERT는, Bidirectional Encoder Representations from Transformers를 의미한다. 최근의 language representation..
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding에 대한 요약내용입니다.
자세한 내용은 아래에 원문링크를 확인해주시기 바랍니다.
원문링크 : BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding