AI.zip
  • AI 모델
  • 방법론
  • AI 서비스
  • 가격 비교
  • 블로그

AI.zip

AI 모델, 서비스, 방법론을 큐레이션하는 에디토리얼 플랫폼

탐색

  • AI 모델
  • AI 서비스
  • 방법론
  • 블로그

커뮤니티

  • 소개
  • 디스코드 참여
  • 문의

법적고지

  • 이용약관
  • 개인정보처리방침

© 2026 ai.zip. All rights reserved.

Discord 커뮤니티
방법론RAG (Retrieval-Augmented Generation)RAG Fusion

RAG Fusion

RAG (Retrieval-Augmented Generation)

쉽게 이해하기

같은 질문도 표현 방법은 여러 가지잖아요. "서울 맛집"이라고 검색하는 것과 "서울에서 밥 잘하는 곳", "서울 유명 식당"은 같은 뜻이지만 검색 결과가 다릅니다. 이 방식은 하나의 질문을 여러 가지 표현으로 바꿔서 각각 검색한 뒤, 결과를 합쳐서 가장 좋은 답을 찾아냅니다.

예를 들어 "갤럭시 배터리 오래 쓰는 법"이라고 물으면, "갤럭시 배터리 절약 팁", "삼성 폰 배터리 수명 연장"으로 바꿔서 검색해요. 각 검색 결과에서 공통으로 상위에 뜨는 자료가 가장 믿을 만한 자료일 가능성이 높겠죠.

쿠팡이나 네이버 쇼핑에서 상품 검색할 때를 생각해보세요. "운동화"로만 검색하면 놓치는 결과가, "러닝화", "조깅 신발"로도 검색하면 더 잘 찾아지는 것과 같아요. 기업 내부 문서 검색에서도 같은 내용을 부서마다 다른 용어로 작성하는 경우가 많아서 이 방식이 효과가 큽니다.

기술 심층 분석

📚 선수학습: 이 내용을 이해하려면 RAG (Retrieval-Augmented Generation)를 먼저 읽으면 좋습니다.

핵심 아키텍처

RAG Fusion은 단일 질의로 한 번 검색하는 대신, LLM을 활용해 다양한 관점의 질의를 여러 개 생성한 뒤, 각 질의의 검색 결과를 Reciprocal Rank Fusion(RRF)1으로 통합하는 기법이다. 2023년 Raudaschl이 제안했으며, 핵심 아이디어는 "하나의 질문을 여러 방식으로 물어보면 더 나은 답을 찾을 수 있다"는 것이다.

전체 파이프라인:

원본 질의 q
    │
    ▼
LLM 질의 생성 (n개)
    │
    ├─ q₁: "RAG의 핵심 구성요소는?"
    ├─ q₂: "검색 증강 생성 아키텍처 설명"
    ├─ q₃: "RAG에서 retriever와 generator의 역할"
    └─ q₄: "RAG 시스템의 데이터 흐름"
    │
    ▼ (각각 독립적으로 검색)
┌──────┬──────┬──────┬──────┐
│결과₁  │결과₂  │결과₃  │결과₄  │
└──┬───┴──┬───┴──┬───┴──┬───┘
   │      │      │      │
   └──────┴──────┴──────┘
              │
              ▼
        RRF 통합 + 재순위
              │
              ▼
        LLM 생성 → 답변

Reciprocal Rank Fusion(RRF) 공식은 각 문서의 순위 역수를 합산한다:

RRF(d)=∑i=1n1k+ranki(d)\text{RRF}(d) = \sum_{i=1}^{n} \frac{1}{k + \text{rank}_i(d)}RRF(d)=∑i=1n​k+ranki​(d)1​

여기서 nnn은 생성된 질의 수, ranki(d)\text{rank}_i(d)ranki​(d)는 iii번째 질의에서 문서 ddd의 순위, kkk는 상수(보통 k=60k = 60k=60)다. kkk값은 상위 문서와 하위 문서 간의 점수 차이를 조절하는 감쇠 파라미터2 역할을 한다.

RRF의 핵심 장점은 점수 정규화가 불필요하다는 것이다. 서로 다른 검색 시스템의 결과도 순위만 있으면 바로 결합할 수 있어, 이종 검색 엔진 통합에 이상적이다.

성능 및 비교

RAG Fusion의 효과는 질의 다양성에서 비롯된다. 원본 질의 하나로는 놓칠 수 있는 관련 문서를 다각도 질의로 포착한다:

지표단일 질의 RAGRAG Fusion (n=4)향상
Recall@100.720.86+19.4%
MRR@100.580.67+15.5%
답변 포괄성보통높음체감 ↑↑

질의 수 nnn에 따른 수확 체감 법칙: n=3∼5n=3 \sim 5n=3∼5에서 가성비가 최적이며, n>7n > 7n>7이면 중복 질의가 늘어 효과가 감소한다.

장점과 한계

장점:

  • 구현 단순: LLM 질의 생성 + RRF 합산만으로 구현 가능
  • 검색 재현율(recall) 대폭 향상: 다각도 질의로 정보 누락 최소화
  • 점수 정규화 불필요: 이종 검색 시스템 결합에 적합

한계:

  • nnn배의 검색 호출 → 레이턴시와 비용 증가 (질의 생성 LLM 호출 포함)
  • 생성된 질의의 품질이 원본 질의 해석에 의존
  • 단순한 사실 확인 질의에는 오버킬 — 복합 질의에서 진가 발휘

실무 적용 가이드

  1. 질의 생성 프롬프트: "다음 질문을 4가지 다른 관점에서 재작성하세요"로 간단 구현
  2. 병렬 검색: 생성된 질의들을 **비동기(async)**로 동시에 검색하면 레이턴시 최소화
  3. kkk 값 튜닝: k=60k = 60k=60이 일반적이나, 검색 결과가 적을 때는 k=20∼30k = 20 \sim 30k=20∼30으로 낮춤
  4. 하이브리드 적용: RAG Fusion의 각 질의에 대해 Dense + Sparse 하이브리드 검색을 적용하면 효과 극대화
  5. 캐싱: 유사 질의 패턴의 생성 결과를 캐싱하여 반복 비용 절감

Footnotes

  1. Reciprocal Rank Fusion(RRF)은 Cormack et al. (2009)이 제안한 순위 결합 알고리즘으로, 여러 검색 결과를 점수 정규화 없이 통합할 수 있다. ↩

  2. 감쇠 파라미터(damping parameter) kkk는 순위 차이에 따른 점수 변화폭을 조절한다. kkk가 클수록 순위 간 점수 차이가 줄어든다. ↩

이전글

QLoRA

다음글

RAG (Retrieval-Augmented Generation)

댓글

0개

댓글을 작성하려면

로그인

해주세요

방법론 정보

상위 카테고리

RAG (Retrieval-Augmented Generation)

관련 게시글

1개

사용 서비스

0개

관련 게시글

RAG 완전 정복: 개념부터 프로덕션 배포까지 (2025)

GUIDE

관련 방법론

Advanced RAG

Agentic RAG

Corrective RAG (CRAG)

Graph RAG

Hypothetical Document Embeddings (HyDE)

Modular RAG

Naive RAG

Self RAG