Prompt Engineering 2

[논문 리뷰] (NIPS '22) Chain-of-Thought Prompting Elicits Reasoning in Large Language Models

1. Introduction모델의 규모를 단순히 키우는 것만으로는 산술적 추론(arithmetic reasoning), 상식적 추론(commonsense reasoning), 기호적 추론(symbolic reasoning)과 같은 복잡한 논리적 문제를 해결하는 데 충분하지 않음대형 언어 모델의 추론 능력을 활성화할 수 있는 간단한 방법을 탐구. 이 방법은 두 가지 핵심 아이디어에서 출발산술적 추론 기술은 최종 정답을 도출하는 과정에서 자연어 기반의 논리적 사고 과정(natural language rationales)을 생성하는 방식에서 이점을 얻을 수 있음cf) 이전 연구에서는 모델이 자연어 기반의 중간 단계를 생성하도록 학습하는 방식을 제안한 바 있음. 예를 들어, 처음부터 모델을 학습하는 방법(Lin..

learning/MLDL 2025.03.16

[논문 리뷰] (CHI '24) The Illusion of Empathy? Notes on Displays of Emotion in Human-Computer Interaction

논문 출처:https://dl.acm.org/doi/10.1145/3613904.3642336AbstractCA(Conversational Agent)는 공감(empathy)를 이끌어내거나 투사하도록 디자인 됨공감은 인간의 필요를 더 잘 충족할 수도 있으나, 기만적(deceptive)이고 잠재적으로 착취적(exploitative)일 수 있음연구 목표: (1) CA 상호작용에서의 공감 특징짓기(characterize) (2) 인간 vs CA 공감의 유발을 구별하는 것(distinguishing)의 중요성 강조연구 방법: 65개의 서로 다른 인간 정체성(identity)와 대화하며 공감 반응 보이도록 prompting → LLM이 공감 반응을 보이거나 모델링을 다르게 하는지 비교연구 결과특정 identity..

learning/HCIAI 2025.01.21