사고 사슬
Chain-of-Thought(CoT, 사고 사슬)는 LLM이 최종 답을 출력하기 전에 '단계별 추론 과정'을 중간에 생성하도록 유도하는 프롬프트 기법입니다. 2022년 Google Research의 Wei et al. 논문에서 공식화된 이후, 복잡한 추론 과제에서 LLM의 정확도를 크게 끌어올리는 표준 기법이 되었습니다.
Chain-of-Thought(CoT, 사고 사슬)는 LLM이 최종 답을 출력하기 전에 '단계별 추론 과정'을 중간에 생성하도록 유도하는 프롬프트 기법입니다. 2022년 Google Research의 Wei et al. 논문에서 공식화된 이후, 복잡한 추론 과제에서 LLM의 정확도를 크게 끌어올리는 표준 기법이 되었습니다.
왜 중요한가
초기 LLM은 산술·논리·다단계 추론 과제에서 성능이 낮았습니다. Wei 연구팀의 실험에 따르면 GSM8K(초등 수학 문제) 벤치마크에서 PaLM 540B 모델의 정답률이 기본 프롬프트로는 17.9%였던 반면, Chain-of-Thought 프롬프트로는 56.9%까지 상승했습니다. 즉 같은 모델·같은 질문이라도 '생각할 시간'을 주는 것만으로 추론 품질이 2~3배 개선됩니다. 이후 Claude·GPT·Gemini 등 모든 대형 모델이 CoT를 기본 프롬프트 패턴으로 내재화했습니다.
작동 원리
CoT의 핵심은 LLM이 '즉답' 대신 '추론 과정을 먼저 글로 풀어내고 그 결론을 답변으로 제시'하게 만드는 것입니다. 트랜스포머 모델은 이전 토큰이 다음 토큰 생성에 조건으로 작용하기 때문에, 중간 추론 과정을 출력하면 그 내용이 컨텍스트에 쌓여 최종 답의 품질을 높입니다. '생각 토큰'이 많을수록 모델이 사용하는 '추론 공간'이 커진다고도 볼 수 있습니다.
CoT의 대표 변형
Zero-Shot CoT: 예시 없이 "단계별로 생각해봐(Let's think step by step)" 한 줄만 추가합니다. 2022년 Kojima et al. 논문에서 제안된 가장 단순하면서도 효과적인 방식.
Few-Shot CoT: 문제와 단계별 추론 과정을 2~3개 예시로 프롬프트에 포함해, 모델이 동일한 추론 구조를 모방하게 합니다.
Self-Consistency: 같은 질문에 대해 CoT로 여러 답변을 생성하고, 가장 자주 나타난 결론을 최종 답으로 선택합니다. 일종의 '추론 투표'로, 단일 CoT보다 정확도가 더 높습니다.
Tree of Thoughts(ToT): 추론 경로를 선형이 아니라 트리 구조로 탐색합니다. 여러 경로 중 평가 점수가 높은 분기만 확장하여 진행. 복잡한 계획·퍼즐 과제에 적합.
ReAct: Reasoning + Acting. CoT와 도구 호출을 결합해 '생각 → 행동 → 관찰 → 다음 생각' 루프를 만듭니다. AI 에이전트의 표준 프롬프트 패턴.
언제 효과적인가
CoT는 모든 과제에 유용한 것은 아닙니다.
매우 효과적: 수학, 논리 퍼즐, 다단계 추론, 의사결정이 복잡한 과제, 코드 디버깅.
덜 효과적: 단순 분류, 감정 분석, 요약, 번역처럼 '정답이 이미 바로 떠오르는' 단순 과제에서는 CoT가 오히려 지연만 더하고 품질 개선은 미미할 수 있습니다.
2026년 경향: 최신 모델들은 '추론 모드'를 내장해 사용자가 CoT 프롬프트를 명시하지 않아도 자동으로 추론 단계를 수행합니다(예: OpenAI o1, Claude Opus의 extended thinking). 이 경우 사용자는 CoT를 직접 작성할 필요 없이 '추론 품질을 높이는 다른 힌트'에 집중합니다.
GEO 관점의 시사점
CoT 자체는 콘텐츠 작성자가 직접 사용하는 기법은 아니지만, '어떻게 써야 LLM이 인용하기 쉬운가'에 영향을 줍니다. 복잡한 개념을 다루는 블로그 포스트를 단계별 논리로 구성하면, LLM이 해당 섹션을 추론 과정의 근거로 활용하기 쉬워집니다. 결론만 선언하는 짧은 문장보다 '왜 그렇게 되는가'를 단계별로 풀어 쓴 설명이 AI 검색의 인용률을 높입니다.
Sources:
- Chain-of-Thought Prompting - Wei et al., Google Research
- Large Language Models are Zero-Shot Reasoners - Kojima et al.
- Prompt Engineering Guide: CoT - Anthropic
관련 인블로그 게시물
inblog에서 활용하기
복잡한 주제를 다루는 블로그 포스트를 쓸 때 '결론 → 근거 → 단계별 설명 → 예시'의 구조를 사용하면 사람 독자와 LLM 모두에게 강한 콘텐츠가 됩니다. inblog 에디터에서 주요 주장마다 근거와 예시를 병행 배치하면, AI 검색이 해당 포스트를 추론 과제에 인용하는 빈도가 올라갑니다.