생성형 검색 엔진(Generative Engine)이 대규모 언어 모델(LLM)을 활용해 웹사이트 인용이 포함된 AI 생성 요약을 제공하면서, 새로운 트래픽 확보 경로가 열리고 검색 엔진 최적화(SEO) 환경이 근본적으로 변화하고 있습니다. 이러한 기술적 진보는 웹사이트 가시성이 AI 생성 콘텐츠 요약 내 인용 빈도에 따라 결정되는 새로운 시대를 열었으며, '생성형 엔진 최적화(Generative Engine Optimization, GEO)'라는 새로운 산업의 등장을 촉발했습니다.
'When Content is Goliath and Algorithm is David: The Style and Semantic Effects of Generative Search Engine' 논문을 발표한 연구진은 구글의 생성형 검색 플랫폼과 기존 검색 플랫폼 간의 상호작용 데이터를 분석하여 생성형 검색 엔진의 독특한 특성을 탐구했습니다. 분석 결과, 생성형 검색 엔진은 LLM의 관점에서 예측 가능성이 높은 콘텐츠, 즉 낮은 혼잡도(Perplexity)를 가지며 선택된 소스들 간의 의미적 유사성(semantic similarity)이 높은 콘텐츠를 인용하는 경향을 보였습니다. 이러한 예측 가능성 측정은 기존 구글 검색 결과 순위에 미미한 영향만을 미쳤으며, 이는 알고리즘적 우선순위 부여 메커니즘의 근본적인 차이를 시사합니다. AI 개요(AI Overview)는 일관되고 통일된 응답을 생성하도록 설계되었기 때문에, 인용된 소스들은 높은 의미적 동질성(semantic homogeneity)을 나타냈습니다.
RAG(Retrieval Augmented Generation) API를 활용한 실험을 통해, 이러한 인용 선호도가 LLM의 생성적 표현 패턴에 순응하는 콘텐츠를 선호하는 LLM의 내재적 경향에서 비롯된다는 점이 입증되었습니다. 또한, RAG 시스템 내에서 소스 문서 내의 위치적 편향(positional bias)이 인용 확률에 영향을 미치는 것으로 확인되었습니다. 이는 웹사이트 소유자가 핵심 정보를 문서 초기에 배치하는 것이 유리함을 시사합니다.
LLM 기반 콘텐츠 다듬기(polishing) 프로세스는 콘텐츠의 예측 가능성을 높이는 자연스러운 최적화 전략이지만, 역설적으로 AI 요약 내 정보 다양성(information diversity)을 향상시키는 결과를 가져왔습니다. 이는 다듬기 작업이 이전에 예측 불가능했던 콘텐츠를 LLM이 더 쉽게 고려할 수 있는 형태로 변환하여, AI 요약이 더 넓은 범위의 외부 소스를 통합할 수 있도록 하기 때문입니다. 특히, AI 다듬기 프롬프트에 인용 최적화 목표를 명시적으로 통합할 경우 이러한 다양성 향상 효과는 크게 증폭되었습니다.

연구진은 Google의 Gemini 1.5 Flash 모델과 같은 LLM의 텍스트 생성 API를 사용하여 기존의 웹사이트 소스 자료를 자동화된 다듬기 절차(automated polishing procedures)를 통해 개선할 수 있다고 설명합니다. 여기서 LLM 기반 다듬기는 단순히 가독성이나 매력을 높이는 것을 넘어, 생성형 검색 엔진(GE)의 인용 메커니즘을 전략적으로 활용하기 위한 핵심 전략이라고 할 수 있습니다.
다듬기에 사용되는 일반적인 프롬프트는 다음과 같습니다. : "Here is an excerpt from a webpage: ’excerpt’. Please polish the excerpt so that it is clearer and more engaging. Try to keep the length roughly unchanged. Only return the polished excerpt itself."
무작위 통제 실험 결과, LLM 기반 콘텐츠 다듬기로 향상된 정보 다양성은 최종 사용자들의 업무 효율성과 정보 획득에 측정 가능한 개선을 가져왔습니다. 교육 수준에 따른 차별적인 처리 효과(differential treatment effects)도 관찰되었습니다. 고학력 사용자(대학원 학위 이상)는 최종 산출물의 정보 다양성에는 최소한의 변화를 보였으나, 원본 사이트가 다듬어졌을 때 작업 완료 시간이 현저하게 단축되는 이점을 누렸습니다. 반면, 저학력 사용자(학부 이하)는 주로 작업 결과물의 정보 밀도 향상을 통해 이점을 얻었으며, 작업 완료 시간은 실험 그룹 간에 유사하게 유지되었습니다.
이 연구는 생성형 검색 엔진에 특화된 새로운 콘텐츠 제공 기준을 제시하며 SEO 관련 문헌에 기여합니다. 또한, LLM 기반 콘텐츠 다듬기가 AI 요약 내에서 웹사이트 노출 확대와 의미적 다양성 향상이라는 '윈-윈(win-win)' 결과를 가져온다는 점을 입증했습니다. AI 요약 시스템이 정보의 양을 늘릴 때 사용자의 배경에 따라 작업 효율성과 정보 가치 면에서 차별적인 이점을 제공한다는 점에서 인간-AI 상호작용 문헌에 대한 이해를 높입니다. 실무적으로는 웹사이트 소유자가 RAG 시스템을 활용하여 웹사이트 배포 전 오프라인 최적화 테스트를 수행할 수 있으며, 사용자들은 AI 개요의 내재된 제약 조건, 즉 일관된 응답 생성 목표가 때때로 체계적으로 시야를 좁힐 수 있다는 점을 인지하는 것이 중요합니다.

다음은 이 논문을 토대로 유추한 GEO 전략 4가지입니다.
1. LLM 선호도에 따른 콘텐츠 스타일 및 언어 최적화
생성형 검색 엔진은 LLM의 관점에서 예측 가능성이 높은(낮은 혼잡도/Perplexity) 콘텐츠를 인용하는 경향이 있습니다. 이는 LLM이 토큰을 순차적으로 선택하여 자연어 응답을 생성하는 방식 때문입니다.
| 구체적인 팁 | 실행 방법 및 근거 | 
|---|---|
| 명확하고 일관된 문장 구조 사용 | 문법적으로 명확하고, 구문이 복잡하지 않으며, LLM이 다음 토큰을 예측하기 쉬운 언어 스타일을 유지해야 합니다 | 
| 의미적 통일성(Semantic Homogeneity) 강화 | 하나의 웹페이지 또는 콘텐츠 덩어리(Chunk) 내에서 일관성 있고 통일된 주제를 다루도록 작성해야 합니다. AI Overview는 분산된 정보를 단순히 모으기보다는 일관성 있는 응답을 합성하도록 설계되었기 때문에, 인용된 소스는 의미적 유사성이 높습니다 | 
| 전문 용어의 전략적 사용 | 비정형적이거나 지나치게 비유적인 언어 사용을 최소화하여 LLM이 콘텐츠의 내용을 예측하기 어렵게 만드는 요소(높은 혼잡도)를 제거합니다 | 
2. LLM 기반 다듬기(Polishing)를 활용한 인용 범위 확대
전략콘텐츠를 LLM 기반으로 다듬는 것은 콘텐츠의 예측 가능성을 높이는 (혼잡도를 낮추는) 자연스러운 최적화 전략이며, 이는 역설적으로 AI 요약 내 정보 다양성을 향상시켜 인용 범위를 확대합니다.
| 구체적인 팁 | 실행 방법 및 근거 | 
|---|---|
| LLM 다듬기 프로세스 표준화 | Gemini 또는 GPT-4o-mini와 같은 LLM을 사용하여 기존 웹 콘텐츠를 다듬는 프로세스를 도입합니다. 이는 콘텐츠를 LLM이 고려하기 더 쉬운 형태로 변환하여, 이전에 예측 불가능했던 콘텐츠까지도 인용 대상에 포함될 수 있도록 돕습니다 | 
| '인용 최적화' 목표 명시 | 콘텐츠 다듬기 프롬프트에 단순히 "명확하고 매력적으로 다듬으세요"라는 요청을 넘어, "Google AI Overview 기능에 의해 인용될 가능성을 높이도록 다듬으세요"와 같은 명시적인 인용 최적화 목표를 통합해야 합니다. 연구 결과, 이러한 명시적 목표 설정은 다양성 향상 효과를 크게 증폭시킵니다 (AI-to-AI 호환성) | 
| 다듬기 전후의 품질 점검 | 다듬기가 콘텐츠의 예측 가능성을 높여 인용을 유도하는 긍정적인 효과가 있지만, 범용적인 LLM 기반 콘텐츠 생성이 정보 생태계의 유사성(Homogenization)을 초래할 수 있다는 우려가 있으므로, 핵심 정보가 희석되지 않도록 다듬기 결과를 검토해야 합니다. | 
3. RAG 시스템의 구조적 편향(Positional Bias) 활용
생성형 검색 엔진의 기반이 되는 RAG 시스템은 소스 문서 내의 위치적 편향을 나타냅니다.
| 구체적인 팁 | 실행 방법 및 근거 | 
|---|---|
| 핵심 정보의 최상단 배치 | 웹사이트 운영사는 가장 중요한 주장, 핵심 정보, 결론 또는 주요 데이터 포인트를 웹사이트나 문서의 가장 앞부분에 전략적으로 배치해야 합니다. RAG 시스템은 문서의 시작 부분에 배치된 콘텐츠에 대한 선호도를 보여 인용 확률에 긍정적인 영향을 미칩니다 | 
| 문서 분할(Chunking) 전략 고려 | LLM이 웹사이트를 검색하여 인용할 때, 웹사이트는 청크(Chunk)로 분할되어 처리됩니다. 따라서 핵심 정보를 청크의 시작 부분에 배치하여, 해당 청크가 사용자의 질의에 가장 관련성이 높은 청크로 식별되도록 해야 합니다 | 
4. 오프라인 테스트를 통한 GEO 효과 검증
GEO 환경의 알고리즘적 불투명성에도 불구하고, RAG 시스템의 작동 방식을 이용해 콘텐츠의 인용 가능성을 배포 전에 테스트할 수 있습니다.
| 구체적인 팁 | 실행 방법 및 근거 | 
|---|---|
| 동일 모델 계열 기반 RAG 테스트 | 웹사이트 배포 전 오프라인에서 RAG 시스템을 구축하여 최적화 테스트를 수행합니다. 예를 들어, Google AI Overview의 기반 모델(Gemini)과 동일한 모델 계열을 기반으로 RAG 시스템을 구축하여, 운영사가 최적화한 콘텐츠를 입력했을 때 인용되는지(RAGCite)를 확인해야 합니다 | 
| 오픈 소스 모델 활용 | 비용 효율성과 테스트 속도를 높이기 위해, LLM의 내재적 경향을 공유하는 오픈 소스 변종(예: Gemma)을 활용하여 최적화 프로세스를 가속화할 수 있습니다 | 
| 인용 가능성 시뮬레이션 | RAG API에 쿼리와 함께 콘텐츠 덩어리(chunk)를 입력하고, LLM에게 Google AI Overview의 기능을 모방하여 답변을 생성하고 인용하도록 요청하여 콘텐츠의 인용 확률을 직접 측정합니다. 이 과정을 통해 LLM이 어떤 콘텐츠 덩어리(c)를 인용할 것인지 예측할 수 있습니다 | 
- 주의 사항: 연구 결과는 콘텐츠 다듬기가 AI 요약의 효율성을 높이고 다양한 사용자에게 이점을 제공하지만, 검색 엔진 운영자는 LLM과 AI Overview 시스템 간의 내재적 관계가 전략적 조작(strategic manipulation)에 취약성을 만들 수 있음을 인지하고 있다고 합니다.

 
         
            
     
     
            
          ![[블루닷 인텔리전스] 대시보드에 '가시성-인용 갭' 지표가 추가됩니다](https://cdn.media.bluedot.so/bluedot.mediasphere/2025/09/qqqx2g_202509260918.jpeg) 
            
          