![[Prompt Engineering] COT 스터디 : Chain-of-Thought Prompting Elicits Reasoning in Large Language Models [Prompt Engineering] COT 스터디 : Chain-of-Thought Prompting Elicits Reasoning in Large Language Models](https://blogimgs.pstatic.net/nblog/mylog/post/og_default_image_160610.png)
Chain-of-Thought (CoT) Prompting은 복잡한 문제를 단계적으로 해결하기 위해 단계별 추론을 강조하는 방법으로 자연어 처리 모델의 설명력과 문제 해결 능력을 향상시키기 위해 생겼다. COT 프롬프트 개념은 여러 연구를 통해 점진적으로 발전해왔지만 최근 몇 년 동안 크게 주목받기 시작했다.
(COT는 한국어로는 연쇄적 사고, 사고의 연쇄, 사고의 연계, 사고의 흐름, 사고의 사슬, 생각의 사슬, 단계적 사고, 논리적 사고 전개 등으로 표현될 수 있는데 나는 한국어를 사용할 때는 '연쇄적 사고'라는 표현으로 사용하겠다) 2022년 초에 발표된 "Chain-of-Thought Prompting Elicits Reasoning in Large Language Models" 논문을 스터디해보려고 한다. 이미 발표된지 오래되었고 많은 사람들이 COT 프롬프트 개념을 활용하고 있지만, 아직까지 이 논문을 자세히 읽어본 적이 없어서 정리해보려고 한다.
이 논문을 통해 다음과 ...
#COT
#Prompt
#PromptEngineering
#연쇄적사고프롬프트
#프롬프트
#프롬프트엔지니어링
#프롬프트원칙
#프롬프팅
원문링크 : [Prompt Engineering] COT 스터디 : Chain-of-Thought Prompting Elicits Reasoning in Large Language Models