BERT 업데이트
BERT 업데이트는 구글이 2019년 10월에 BERT — 양방향 트랜스포머 언어 모델 — 를 검색 랭킹과 피처드 스니펫 선정에 도입한 롤아웃입니다. 5년 만에 가장 큰 알고리즘 변경이었고, 딥 트랜스포머 모델이 실시간 검색에 대규모로 닿은 첫 사례였습니다.
BERT 업데이트는 구글이 2019년 10월에 BERT — 양방향 트랜스포머 언어 모델 — 를 검색 랭킹과 피처드 스니펫 선정에 도입한 롤아웃입니다. 5년 만에 가장 큰 알고리즘 변경이었고, 딥 트랜스포머 모델이 실시간 검색에 대규모로 닿은 첫 사례였습니다.
왜 중요한가
BERT는 키워드 매칭 검색과 의미 기반 검색 사이의 다리였습니다. BERT 이전 구글은 단어를 단어로 이해할 수 있었지만 전치사·부정·어순에서 비틀거렸습니다. BERT 이후 "2019 brazil traveler to usa need a visa" 같은 쿼리를 정확히 이해했습니다 — 구글이 "to"가 중요하다는 것을 깨닫고, 이 쿼리가 미국으로 가는 브라질인에 대한 것이지 브라질로 가는 미국인이 아님을 알게 됐습니다. 이는 구글 트랜스포머 시대의 시작이었고, MUM(2021)·AI Overview(2024)·AI Mode(2025)로 직결됐습니다. BERT를 이해하면 "키워드가 아니라 독자를 위해 쓰기"가 슬로건이 아닌 진짜 SEO 전략이 된 이유를 알 수 있습니다.
BERT가 실제로 하는 일
BERT — Bidirectional Encoder Representations from Transformers — 는 2018년 구글 리서치 모델입니다. '양방향' 부분이 핵심입니다: 텍스트를 왼쪽에서 오른쪽으로 읽는 이전 모델과 달리, BERT는 문장의 모든 단어를 다른 모든 단어의 맥락에서 양방향으로 동시에 봅니다. 덕분에 다음을 이해합니다:
어순: "약을 누군가에게 약국에서 받을 수 있나" vs "누군가가 당신을 위해 약국에서 약을 받을 수 있나" — 다른 의미.
전치사: "to"·"from"·"for"·"with" — 쿼리 의도를 뒤집는 작은 단어.
부정: "do not" vs "do" — 키워드 모델이 쉽게 놓침.
다의어: 주변 단어로 "은행"(강) vs "은행"(금융) 결정.
구글이 BERT를 사용한 곳
쿼리 이해: 사용자가 실제로 무엇을 의미했는지 결정.
피처드 스니펫 선정: 매칭 키워드가 있는 구절이 아니라 진짜로 질문에 답하는 구절 선택.
랭킹 조정: 출시 시점 영어 검색 쿼리의 ~10%에 영향 — RankBrain(2015) 이후 가장 큰 변화.
다국어 확장: 몇 달 안에 한국어 포함 70+개 언어로 확장.
BERT가 하지 않은 일
백링크: BERT는 구글이 쿼리를 이해하는 방식을 바꿨지 링크를 평가하는 방식은 아닙니다.
콘텐츠 품질 감지: 그건 나중에 helpful-content 업데이트로 왔습니다.
사이트 권위: 도메인 권위 신호는 직접 영향받지 않았습니다.
모바일 친화성·Core Web Vitals: 별도 신호.
BERT는 검색의 언어 이해 계층에 특화돼 있었습니다.
BERT가 SEO 실무를 바꾼 방식
키워드 스터핑이 더욱 비효과적이 됨: "최고 블로그 SEO 플랫폼"을 30번 반복하는 것은 BERT가 "블로그 SEO에 가장 좋은 플랫폼은?"으로 이해하는 쿼리에 도움이 되기보단 해가 됐습니다.
롱테일 대화형 쿼리 타깃이 쉬워짐: 진짜 질문에 진짜 답변처럼 쓰인 페이지가 키워드 최적화된 리스트보다 잘 랭크되기 시작.
질문 기반 콘텐츠가 부상: "X란 무엇인가"·"Y는 어떻게 하는가"로 구조화된 페이지가 혜택을 받았습니다 — BERT가 구글에게 질문과 구절 답변을 매칭하는 능력을 줬기 때문.
자연스럽게 쓰는 사이트의 롱테일 트래픽 폭발: 특히 키워드 도구가 약한 비영어 시장에서.
알고리즘을 속이려 들지 마라: BERT는 "사람을 위해 쓰기"가 클리셰에서 정당한 전략으로 옮겨간 순간이었습니다 — 마침내 구글이 구분할 수 있게 됐기 때문.
BERT와 후속 모델
| 모델 | 연도 | 역할 | 언어 |
|---|---|---|---|
| RankBrain | 2015 | 검색의 첫 ML | 영어 |
| BERT | 2019 | 쿼리 이해를 위한 양방향 트랜스포머 | 영어 → 70+ |
| MUM | 2021 | 다국어·멀티태스크, BERT의 1000배 용량 | 75+ |
| Search Generative Experience·AI Overview | 2024 | 생성형 답변 합성 | 주요 언어 |
| AI Mode | 2025 | 챗 스타일 검색 인터페이스 | 확장 중 |
각 단계가 이전 단계 위에 쌓입니다. BERT는 여전히 기초이며, 새 모델들은 BERT의 쿼리 이해를 대체하기보단 확장합니다.
흔한 실수 (그때와 지금)
'BERT를 위한 최적화' 시도: BERT는 최적화하는 랭킹 요소가 아니라 자연어를 보상하는 쿼리 이해 시스템입니다.
BERT가 키워드를 완전히 죽였다고 가정: 키워드는 여전히 신호로 중요합니다. BERT는 기계적 스터핑을 처벌할 뿐.
2019년 BERT 조언을 2026년에 읽기: 대부분이 helpful-content 가이드와 AI 검색 현실로 대체됐습니다.
BERT와 helpful-content 혼동: BERT는 쿼리 이해, helpful-content는 페이지 품질 평가. 다른 계층입니다.
Sources:
- Understanding Searches Better Than Ever - Google Blog(2019)
- BERT in Search - Search Engine Land
- BERT Paper - Google Research
관련 인블로그 게시물
inblog에서 활용하기
inblog 에디터는 키워드 빈도가 아니라 '독자가 실제로 묻는 질문에 답하는' 구조 — 명확한 H2 질문 → 짧은 단락 답변 → 예시 → CTA — 를 기본 템플릿으로 제공합니다. 이는 BERT 이후 구글이 보상하는 방식과 정확히 일치하며, 동시에 AI Overview·Perplexity 같은 후속 모델에서도 인용되기 좋은 형태입니다. 키워드 도구가 아니라 질문 리스트로 콘텐츠를 기획하면 BERT 이후의 SEO에 자연스럽게 정렬됩니다.