GEO

쿼리 분해

쿼리 분해(Query Decomposition)는 복잡한 다중 요소 사용자 질문을 여러 개의 단순한 하위 질문으로 쪼개고, 각각에 대해 문맥을 검색한 뒤 최종 답변을 합성하는 RAG 기법입니다. "전부를 한 번에 답하는 구절을 찾아라" 대신 "좁은 질문들을 병렬로 던져라"로 전략을 바꿉니다.

쿼리 분해(Query Decomposition)는 복잡한 다중 요소 사용자 질문을 여러 개의 단순한 하위 질문으로 쪼개고, 각각에 대해 문맥을 검색한 뒤 최종 답변을 합성하는 RAG 기법입니다. "전부를 한 번에 답하는 구절을 찾아라" 대신 "좁은 질문들을 병렬로 던져라"로 전략을 바꿉니다.

왜 중요한가

실제 사용자는 지저분한 질문을 합니다: "LCPFCP의 차이가 뭐고, 2026년 모바일 SEO에서 어느 쪽이 더 중요해?" 벡터 검색기에 이 쿼리를 던지면 LCP 또는 FCP 또는 모바일 SEO 또는 2026 트렌드 구절이 반환되지 — 네 가지를 다 담은 단일 구절은 거의 없습니다. 쿼리 분해는 이 질문을 "LCP란?", "FCP란?", "LCP vs FCP", "2026 모바일 SEO Core Web Vitals"로 쪼개 따로 검색하고, 모델이 풍부한 문맥으로 최종 답을 짭니다. Perplexity·Glean·Anthropic의 프로덕션 RAG가 복잡 질문에 분해를 사용하며, LangChain의 2024 벤치마크는 멀티홉 QA에서 15~25% 정확도 개선을 보고합니다.

작동 원리

1. 분해기 LLM 호출: 작은 모델이 사용자 쿼리를 받아 2~5개의 하위 질문을 출력합니다. 프롬프트: "이 질문을 완전히 답하기 위한 최소 하위 질문으로 쪼개라."

2. 병렬 검색: 각 하위 질문이 독립적으로 검색기(벡터·하이브리드·키워드)를 통과합니다.

3. 문맥 집계: 모든 하위 질문의 검색 결과가 하나의 문맥 블록으로 합쳐집니다.

4. 최종 답변 생성: 메인 모델이 원 질문과 집계된 문맥을 보고 통합 답변을 씁니다.

5. 선택적 합성 단계: 멀티홉 질문의 경우, 최종 생성 전에 부분 답을 중간 단계에서 합성합니다.

변형

병렬 분해: 하위 질문들이 동시에 실행. 빠르며 부분들이 독립적인 질문에 적합.

순차 분해(멀티홉): 뒤의 하위 질문이 앞의 답에 의존. "inblog의 최대 경쟁사의 CEO는 누구인가?"는 먼저 "inblog의 최대 경쟁사는?"에 답하고 그 회사의 CEO를 찾아야 합니다.

Step-back Prompting: 분해 전에 LLM이 더 추상적인 버전의 질문을 먼저 물어 더 넓은 문맥을 끌어옵니다. 2024년 Google Research가 대중화.

HyDE(Hypothetical Document Embeddings): 가상 답변을 먼저 생성하고 그 답변을 임베딩해 검색 — 명시적 분해의 경량 대안.

쓰는 경우

비교 질문: "X vs Y", "Z에 어느 쪽이 나은가"

멀티홉 추론: "Figma를 인수한 회사의 창업자는 누구인가?"

복합 질문: 한 쿼리에 '어떻게와 왜'가 섞여 있을 때.

롱테일 특수성: 단일 소스 페이지가 없지만 여러 페이지가 부분씩 커버하는 드문 질문.

개념이 섞인 질문: "한국어 SaaS 블로그용 기술 SEO"

쓰지 않는 경우

단순 단일 사실 질문: "프랑스의 수도는?"에는 분해가 불필요 — 지연과 비용만 추가됩니다.

예산 제약: 분해는 검색 호출 수를 배수로 늘립니다. 고볼륨 챗의 비용 영향이 현실적입니다.

강한 단일 문서 답이 있는 도메인: 법률 계약·제품 매뉴얼 — 좋은 구절 하나가 평범한 구절 다섯 개를 이깁니다.

트레이드오프

지연: 하위 질문마다 왕복. 병렬 실행이 도움이 되지만 없애진 못합니다.

검색 비용: 벡터 검색 호출이 하위 질문 수에 선형 비례.

분해기 품질: 나쁜 분해는 나쁜 검색으로 직결. 분해기 프롬프트와 모델이 최종 생성기만큼 중요합니다.

중복 검색: 하위 질문이 종종 겹쳐 같은 구절을 반복해 뽑습니다. 중복 제거가 필요합니다.

흔한 실수

과도한 분해: 단순 질문을 10개 하위 질문으로 쪼개면 토큰 낭비와 최종 모델 혼란만 남습니다.

근거 없는 분해: 원본 구절 대신 하위 답변을 전달하면 홉을 거치며 할루시네이션이 누적됩니다.

의존성 무시: 두 번째 단계가 첫 단계에 의존하는데 병렬로 돌리면 틀린 답이 나옵니다.

평가 부재: 벤치마크 없이는 분해가 단일 샷 RAG보다 실제로 나은지 알 수 없습니다.

Sources:

관련 인블로그 게시물

inblog에서 활용하기

inblog 블로그가 AI 검색에 잘 인용되려면, 복합 질문의 하위 질문 각각에 독립적으로 답할 수 있는 구조가 유리합니다. 하나의 거대한 글보다, 개념마다 명확한 서브헤딩으로 쪼개진 글이 분해된 하위 질문마다 개별 구절로 뽑혀 최종 답변 조립에 사용될 확률이 훨씬 높습니다. 시맨틱 청킹과 같이 구조화된 글쓰기가 AI 가시성의 기본기입니다.