논문 제목: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding저자: Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova (Google AI Language)최초 게재일: 2018. 10. 11링크: https://arxiv.org/abs/1810.04805 파란색 글씨는 보충적인 설명을 위해 논문 외 자료에서 조사한 내용입니다. 초록 (Abstract)BERT(Bidirectional Encoder Representations from Transformers): 자연어 처리에서 양방향 사전 학습을 활용하는 새로운 언어 표현 모델로, 비지도 학습으로 사전 ..