컨텍스트 윈도우
컨텍스트 윈도우(Context Window)는 LLM이 한 번의 요청에서 처리할 수 있는 입력·출력 토큰의 최대 길이입니다. 사용자 질문, 시스템 프롬프트, 이전 대화, RAG로 가져온 문서, 생성된 응답이 모두 이 한도 안에 들어가야 합니다.
컨텍스트 윈도우(Context Window)는 LLM이 한 번의 요청에서 처리할 수 있는 입력·출력 토큰의 최대 길이입니다. 사용자 질문, 시스템 프롬프트, 이전 대화, RAG로 가져온 문서, 생성된 응답이 모두 이 한도 안에 들어가야 합니다.
왜 중요한가
컨텍스트 윈도우는 LLM의 '단기 기억' 크기입니다. AI 검색 엔진이 사용자의 질문에 답할 때 얼마나 많은 웹 페이지를 한 번에 참고할 수 있는지, 어떤 긴 문서를 요약할 수 있는지를 결정합니다. 2023년만 해도 4K~8K 토큰이 표준이었지만, 2026년에는 100만 토큰 이상이 일반화되어 LLM이 활용하는 소스의 폭과 깊이가 근본적으로 달라졌습니다. GEO 관점에서는 AI 검색이 한 번에 '더 많은 경쟁 페이지를 비교해 인용할 페이지를 고른다'는 의미이며, 문서 구조와 섹션 품질이 인용 여부를 직접 결정합니다.
주요 모델별 컨텍스트 윈도우 (2026 기준)
| 모델 | 컨텍스트 윈도우 |
|---|---|
| Claude Opus 4.6 | 1M 토큰 |
| Gemini 3 | 1M~2M 토큰 |
| GPT-5 | 400K 토큰 |
| Llama 4 | 128K~1M 토큰 |
1M 토큰은 한국어 기준 약 60만 단어, 400~500페이지 분량의 책 한 권에 해당합니다.
토큰과 한글
컨텍스트 윈도우는 '단어'가 아닌 '토큰(token)' 단위로 측정됩니다. 영어는 보통 1단어 ≈ 1.3토큰이지만 한국어는 글자·자소 수준으로 쪼개져 1글자 ≈ 1.5~2토큰이 소비됩니다. 따라서 한국어 콘텐츠는 같은 크기의 컨텍스트 윈도우에서 영어보다 50% 가량 적은 분량만 처리할 수 있다는 점을 고려해야 합니다.
GEO 관점의 시사점
긴 문서도 통째로 처리됨: 과거에는 LLM이 상위 3~5개 스니펫만 봤지만, 이제는 전체 페이지를 한 번에 읽고 '가장 인용하기 좋은 섹션'을 고릅니다. 문서 전체의 구조적 명료성이 중요해졌습니다.
경쟁 페이지와의 직접 비교: 대용량 컨텍스트 윈도우는 같은 주제의 여러 웹 페이지를 한 번에 비교합니다. 단순히 '우리 페이지가 좋은 것'이 아닌 '경쟁 페이지 대비 더 인용하기 쉬운 구조'가 승부를 결정합니다.
상위 섹션의 중요성 증가: 입력이 길어질수록 LLM은 문서 앞부분에 더 가중치를 둡니다. 핵심 정의와 답변은 반드시 글의 도입부에 배치해야 합니다.
중간 지점의 'lost in the middle' 현상: 대형 컨텍스트 윈도우도 중간 부분의 정보를 놓치는 경향이 있습니다. 중요한 내용을 문서의 앞/뒤에 분산 배치하는 것이 유리합니다.
Sources:
- What is a context window? - Anthropic
- Context Windows in LLMs: Guide - Semrush
- Lost in the Middle: How Language Models Use Long Contexts - Stanford
관련 인블로그 게시물
inblog에서 활용하기
대형 컨텍스트 윈도우 시대의 GEO 전략은 '핵심 답변을 앞쪽에, 근거를 뒤쪽에' 배치하는 역피라미드 구조입니다. inblog 에디터로 포스트를 작성할 때 첫 문단에 한줄 정의와 핵심 결론을, 이후 섹션에 근거·예시·반론을 배치하면 LLM이 긴 페이지를 통째로 읽어도 문서 상단의 핵심 메시지가 인용 후보로 뽑힐 확률이 높아집니다.