허밍 lab

  • 홈
  • 태그
  • 방명록

Bert 1

[논문 리뷰] BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

논문 제목: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding저자: Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova (Google AI Language)최초 게재일: 2018. 10. 11링크: https://arxiv.org/abs/1810.04805 파란색 글씨는 보충적인 설명을 위해 논문 외 자료에서 조사한 내용입니다. 초록 (Abstract)BERT(Bidirectional Encoder Representations from Transformers): 자연어 처리에서 양방향 사전 학습을 활용하는 새로운 언어 표현 모델로, 비지도 학습으로 사전 ..

learning/MLDL 2024.12.09
이전
1
다음
더보기
프로필사진

허밍 lab

  • 분류 전체보기 (15)
    • thinking (0)
    • learning (15)
      • MLDL (6)
      • HCIAI (3)
      • Lectures (6)
      • Textbooks (0)
    • living (0)

Tag

Prompt Engineering, Zero shot, conversational AI, HCI, dl, Transformer, llm, Stanford, open ai, GPT, cs25, mldl, vlm, affective computing, ML, NLP, CHI, 논문리뷰, 인공지능, Ai,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/02   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28

방문자수Total

  • Today :
  • Yesterday :

Copyright © AXZ Corp. All rights reserved.

티스토리툴바