NLP 2

[논문 리뷰] Attention Is All You Need(Transformer) (2017)

논문 출처: https://arxiv.org/abs/1706.037620. Abstract오늘날 대부분의 시퀀스 변환 모델(sequence transduction models)은 인코더와 디코더를 포함하는 복잡한 RNN 또는 CNN 기법에 기반함본 논문은 attention 메커니즘에만 기반한 새로운 간단한 네트워크 아키텍쳐, Transformer를 제시함2가지 기계 번역 업무 실험 결과, 이 모델은 (1) 품질이 우수하고 (2) 병렬화 가능하여 훈련에 적은 시간 소요WMT 2014 영어-독일어 번역 작업에서 28.4 BLEU 달성 (over 2 BLEU)WMT 2014 영어-프랑스어 번역 과제에서 8개의 GPU에서 3.5일간 훈련한 후 SOTA 달성(기존에 비해 모델 훈련 비용 절감)Transformer..

learning/MLDL 2025.02.16

[논문 리뷰] (CHI '24) The Illusion of Empathy? Notes on Displays of Emotion in Human-Computer Interaction

논문 출처:https://dl.acm.org/doi/10.1145/3613904.3642336AbstractCA(Conversational Agent)는 공감(empathy)를 이끌어내거나 투사하도록 디자인 됨공감은 인간의 필요를 더 잘 충족할 수도 있으나, 기만적(deceptive)이고 잠재적으로 착취적(exploitative)일 수 있음연구 목표: (1) CA 상호작용에서의 공감 특징짓기(characterize) (2) 인간 vs CA 공감의 유발을 구별하는 것(distinguishing)의 중요성 강조연구 방법: 65개의 서로 다른 인간 정체성(identity)와 대화하며 공감 반응 보이도록 prompting → LLM이 공감 반응을 보이거나 모델링을 다르게 하는지 비교연구 결과특정 identity..

learning/HCIAI 2025.01.21