생물.컴퓨터.통계

🔥 최신 RAG 모델 비교! 어떤 방식이 가장 효율적일까?

프로페서 H 2025. 2. 11. 11:49

 

 

🔥 최신 RAG 모델 비교! 어떤 방식이 가장 효율적일까?

📌 RAG(Retrieval-Augmented Generation) 모델은 대규모 언어 모델(LLM)과 검색 시스템을 결합하여 더 정확하고 효율적인 정보를 제공하는 기술입니다. LightRAG과 비교되는 대표적인 최신 RAG 기법들을 정리해봤습니다!


1️⃣ Naive RAG (기본형 RAG) [Gao et al., 2023]

 기본 원리:

  • 텍스트를 작은 조각(Chunk)으로 나누고 벡터 데이터베이스에 저장
  • 사용자가 질문하면 유사도가 가장 높은 텍스트 조각을 검색하여 답변 생성

⚠️ 한계점:

  • 질문이 모호할 경우 정확한 정보 검색이 어려움
  • 단순 벡터 기반 매칭이라 문맥을 깊이 이해하는 능력이 부족

2️⃣ RQ-RAG (질문 세분화 RAG) [Chan et al., 2024]

 기본 원리:

  • 질문을 단순 검색하는 것이 아니라, LLM이 질문을 여러 개의 하위 질문(Sub-queries)으로 분해
  • 각 하위 질문을 통해 검색 정확도를 향상시키는 방식

🔍 핵심 기술:

  • 질문 재작성(Rewriting)
  • 복잡한 질문 분해(Decomposition)
  • 모호성 제거(Disambiguation)

🚀 장점:

  • 질문이 복잡할수록 더 강력한 성능 발휘
  • 명확한 검색어를 자동 생성하여 검색 정확도 개선

3️⃣ HyDE (가설 문서 생성 RAG) [Gao et al., 2022]

 기본 원리:

  • LLM이 입력된 질문을 기반으로 가상의 문서(Hypothetical Document)를 생성
  • 생성된 문서를 활용해 관련 텍스트를 검색 → 최종 답변을 도출

🔍 핵심 아이디어:

  • 단순 키워드 매칭이 아니라, LLM이 먼저 "답변이 될 법한 문서"를 예측
  • 그런 다음 해당 문서와 유사한 데이터 검색 → 최적의 답변 생성

⚠️ 한계점:

  • LLM이 만든 가상의 문서가 실제 데이터와 다를 가능성
  • 데이터 기반 검색보다 모델 생성 능력에 의존

4️⃣ GraphRAG (그래프 기반 RAG) [Edge et al., 2024]

 기본 원리:

  • 텍스트에서 개체(Entity)와 관계(Relationship)를 추출하여 그래프(Node-Edge) 구조로 변환
  • 그래프를 통해 정보를 더욱 조직적이고 맥락적으로 정리
  • 하위 노드(엔티티)를 커뮤니티로 그룹화하여 고차원적인 검색 가능

🔍 핵심 기술:

  • 지식 그래프 구축
  • 엔티티 간 관계 정의
  • 커뮤니티 보고서(Community Report) 생성

🚀 장점:

  • 단순한 키워드 검색을 넘어서 문맥과 개념을 연결하여 더 깊이 있는 정보 제공
  • 고차원적인 질의(Query)에 강함 (예: "이 분야에서 가장 중요한 연구는?")

⚡ 어떤 RAG 모델을 선택할까?

모델핵심 특징장점한계

Naive RAG 단순 벡터 검색 빠르고 효율적 문맥 이해 부족
RQ-RAG 질문을 세분화하여 검색 검색 정확도 향상 다단계 과정 필요
HyDE LLM이 가상의 문서 생성 후 검색 문맥 기반 검색 가능 생성된 문서가 실제와 다를 수 있음
GraphRAG 지식 그래프 기반 검색 개념 간 연결 강력 복잡한 데이터 구조 필요

📌 정리하자면?

  • 빠른 검색이 필요하다  Naive RAG
  • 질문이 복잡하고 명확성이 필요하다  RQ-RAG
  • 문맥을 고려한 검색이 필요하다  HyDE
  • 고차원적인 개념 연결이 중요하다  GraphRAG

🚀 최신 RAG 기술이 궁금하다면? LightRAG vs. 최신 RAG 모델 비교 연구를 살펴보는 것도 좋은 선택! 🔍

 


1️⃣ 기존 RAG(Naive RAG)의 한계

  • 데이터 구조가 단순(Flat Representation) 하여 복잡한 관계를 반영하지 못함
  • 연결된 정보를 통합하는 능력이 부족하여 조각난 정보 제공
  • 대규모 데이터에서 확장성(Scalability) 문제 발생
    → 데이터가 증가할수록 검색 품질이 급격히 저하됨

2️⃣ GraphRAG의 개선점

  • 그래프 구조를 도입하여 데이터 간 관계를 보다 명확히 정리
  • 커뮤니티 기반 탐색(Community-Based Traversal) 으로 문맥적 이해도 향상
  • 다단계 맵-리듀스(Map-Reduce) 방식을 활용하여 질의에 대한 전역적인(global) 답변 제공

3️⃣ LightRAG의 차별점

 LightRAG의 특징

  1. Graph 기반 텍스트 인덱싱 → 문서 내에서 Entity & 관계(Edge) 추출하여 Graph로 저장
  2. Dual-Level Retrieval
    • Low-Level Retrieval → 개별 entity 및 관계 정보 검색
    • High-Level Retrieval → 개념적/주제적 키워드를 기반으로 broader topic 검색
  3. Incremental Update Algorithm  전체 인덱스를 재구성하지 않고, 변경된 정보만 추가 반영
  4. Graph와 벡터 기반 검색 결합  Graph의 구조적 정보 + 벡터 기반 유사도 검색 통합

 

LightRAG는 GraphRAG의 문제를 해결하기 위해 2가지 핵심 요소를 개선했다.

   
개선요소 LightRAG의 접근 방식
인덱싱 속도 개선 커뮤니티 기반 탐색 대신 빠른 검색 알고리즘 적용
데이터 업데이트 유연성 기존 데이터 전체 재구성 없이 특정 요소만 업데이트 가능

결과적으로, LightRAG는 GraphRAG보다

  • 빠르게 응답 가능
  • 더 낮은 비용으로 운영 가능
  • 새로운 데이터 추가가 용이함

🛠 LightRAG의 핵심 아키텍처

그래프 기반 텍스트 인덱싱

LightRAG는 문서를 작은 의미 단위(Chunk)로 세분화하고, 각 Chunk에서 핵심 개체(Entity) 및 관계(Relationships)를 추출하여
지식 그래프(Knowledge Graph, KG)를 구축한다.

 

1️⃣ LightRAG의 핵심 데이터 처리 과정

📌 Step 1: 개체 및 관계 추출 (Entity & Relationship Extraction)

  • 문서를 의미 단위(Chunk)로 세분화하고, LLM을 이용해 개체(Entity) 및 관계(Relationship) 추출
  • 예제 문장 분석을 통해 노드(Entity)와 엣지(Relationship) 추출
  • 예제 문장 분석 결과
[문장] "Elon Musk envisions SpaceX’s Mechazilla tower enhancing booster reusability"

🔹 추출된 개체 (Nodes)

  • Elon Musk
  • SpaceX
  • Mechazilla tower
  • Booster reusability
  • Sustainable space exploration

🔹 추출된 관계 (Edges)

  • Elon Musk → envisions → Mechazilla tower
  • Mechazilla tower → enhances → Booster reusability
  • Booster reusability → supports → Sustainable space exploration
  • SpaceX → operates → Mechazilla tower

이렇게 LLM을 활용해 주요 개체와 관계를 파악하고, 이를 기반으로 Knowledge Graph(KG)를 구축한다.

 

📌 Step 2: LLM 프로파일링을 통한 Key-Value Pair 생성

LightRAG는 개체(Entity)와 관계(Relation)에 대해 Key-Value(KV) 쌍을 생성하여 구조화된 정보 저장 방식을 사용한다.

  • Key(K): 개체 또는 관계의 짧은 요약 (e.g., "Elon Musk")
  • Value(V): 개체 또는 관계에 대한 자세한 설명 (e.g., "CEO of SpaceX and Tesla, leading sustainable space exploration.")

💡 예제 KV Pair

Key(K)Value(V)
Elon Musk "CEO of SpaceX and Tesla, envisions using Mechazilla tower to enhance booster reusability."
Mechazilla tower → enhances → Booster reusability "Mechazilla improves booster reusability, reducing costs and supporting sustainable space travel."

📌 이러한 Key-Value 구조 덕분에 검색 시 더 정교하고 연관성 높은 정보 제공 가능!
 GraphRAG보다 검색 속도와 정확도 향상!


📌 Step 3: 벡터 변환 (Embedding for Vectorization)

LightRAG는 Key-Value 쌍을 벡터 임베딩(Vector Embedding)으로 변환하여 검색 효율을 높인다.

 처리 과정

  1. Value(V)를 임베딩 모델에 입력 → 벡터 변환 수행
  2. 생성된 벡터를 저장하여 향후 빠른 검색 지원
  3. Vectorized Knowledge Graph 생성 (텍스트 + 그래프 기반 검색 가능)

📌 그래프 기반 인덱싱 + 임베딩 검색 병행 → 빠르고 정확한 검색 최적화!


📌 Step 4: 중복 제거 (Deduplication & Optimization)

  • 같은 개체(Entity) 및 관계(Relationship)가 반복될 경우 병합하여 저장 공간과 연산 비용 절감
  • 예:
    • "SpaceX" 노드가 여러 번 등장 → 하나의 SpaceX 노드로 병합
    • "Mechazilla enhances Booster Reusability" 관계가 여러 번 등장 → 하나의 엣지로 정리

📌 중복 제거 후 최적화된 Knowledge Graph(KG) 구축 → 데이터 처리 속도 향상!


2️⃣ LightRAG의 듀얼 레벨 검색 시스템 (Dual-Level Retrieval)

LightRAG는 2단계 검색 구조를 활용하여
질문 유형에 따라 로컬(Local) 또는 글로벌(Global) 검색을 수행한다.

검색 수준목적예제 질문
🔹 로컬(Local) 검색 특정 개체/세부 정보 검색 "Mechazilla란 무엇인가?"
🔹 글로벌(Global) 검색 개체 간 관계/연결성 분석 "Elon Musk의 지속 가능성 전략은?"

 처리 과정 1️⃣ 질문 분석(Query Processing) → 로컬 vs. 글로벌 키워드 구분
2️⃣ 벡터 데이터베이스(Vector Database) 검색 → 가장 연관성 높은 개체 및 관계 선택
3️⃣ 이웃 노드(Neighboring Nodes) 탐색 → 문맥 확장
4️⃣ 최종 컨텍스트 구성 후 LLM이 응답 생성

📌 그래프 기반 검색 + 벡터 검색을 병행 → 빠르고 정밀한 질의 응답 가능!

 

💰 LightRAG vs. GraphRAG 토큰 비용 비교

📌 왜 토큰 비용이 중요한가?
RAG 시스템에서 토큰 비용은 모델의 성능과 경제성을 결정하는 핵심 요소입니다. 특히 대량의 데이터 검색 및 업데이트가 필요한 경우, 토큰 사용량이 많아질수록 API 호출 비용도 급격히 증가하게 됩니다.

LightRAG GraphRAG의 토큰 사용량을 색인(Indexing) & 검색(Retrieval), 그리고 데이터 업데이트(Incremental Update) 단계에서 비교해봤습니다.


1️⃣ 검색(Retrieval) 단계 비용 비교

GraphRAG
🔍 토큰 사용량

  • 1,399개의 커뮤니티(community) 생성
  • 610개의 커뮤니티에서 정보를 검색
  • 각 커뮤니티 리포트가 평균 1,000 토큰 사용 → 총 610,000 토큰 소모
  • 각 커뮤니티를 개별적으로 탐색해야 하므로 API 호출 수백 번 발생

⚠️ 비효율성의 원인

  • 데이터가 많아질수록 검색해야 하는 커뮤니티 수도 증가  토큰 소모 폭발적 증가
  • API 호출 비용도 급증

LightRAG
 최적화된 토큰 사용

  • 키워드 기반 검색 최적화
  • 100 토큰 이하로 검색 & 단 1번의 API 호출로 검색 완료

🚀 효율적인 이유

  • 그래프 구조와 벡터화된 표현을 결합해 필요한 정보만 빠르게 추출
  • 대량 데이터를 미리 처리할 필요 없음 → 불필요한 토큰 소모 최소화

2️⃣ 데이터 업데이트(Incremental Update) 비용 비교

📌 데이터가 실시간으로 변하는 환경에서는 얼마나 효율적인가?

GraphRAG
⚠️ 비효율적인 업데이트 구조

  • 새 데이터가 추가될 경우, 기존 커뮤니티 구조를 완전히 재구성해야 함
  • 각 커뮤니티 리포트를 다시 생성하는 데 약 5,000 토큰 소모
  • 1,399개의 커뮤니티 × 2(기존+신규) × 5,000 토큰 = 약 1,400만 토큰 소비 🤯

💸 결과:
데이터가 업데이트될 때마다 엄청난 토큰 비용과 API 호출이 발생

LightRAG
 가볍고 유연한 업데이트 방식

  • 기존 그래프에 새로운 엔티티(Entity)와 관계(Relationship)를 바로 추가
  • 전체 구조를 재구성할 필요 없음 → 토큰 소비 대폭 감소

💡 결과:

  • 기존 구조를 유지하면서 새로운 정보만 추가  극도로 낮은 업데이트 비용
  • 데이터 변화가 잦은 환경에서도 비용 효율적

🔥 최종 비교: 어떤 모델이 더 경제적인가?

구분GraphRAGLightRAG

검색 토큰 비용 610,000+ 토큰 100 토큰 이하
검색 API 호출 수백 번 호출 필요 1번 호출
업데이트 토큰 비용 약 1,400만 토큰 (완전 재구성) 소량 (추가된 데이터만 반영)
업데이트 효율성 데이터 변경 시 전체 재구성 필요 기존 구조 유지 & 증분 업데이트
전체 비용 📈 비용 폭발적 증가 🏆 저비용 & 최적화

📌 결론!
🚀 LightRAG이 압도적으로 비용 효율적

  • 최소한의 토큰 사용으로 검색 및 업데이트 진행
  • API 호출 횟수 감소 → 운영 비용 절감
  • 변동성이 높은 환경에서도 최적의 성능 유지

💡 데이터가 많아질수록 차이가 더 커짐! GraphRAG은 시간이 지날수록 비용이 폭발적으로 증가하지만, LightRAG은 저렴한 비용으로 지속적인 운영 가능 🎯

 

🚀 RAG-LLM 최신 연구 정리

📌 RAG(Retrieval-Augmented Generation) + LLM 연구는 어떻게 발전하고 있을까?
🔍 LLM이 신뢰할 수 있는 정보를 활용할 수 있도록 RAG 시스템이 검색 + 생성 최적화하는 최신 연구들을 정리해봤다!


1️⃣ RAG-LLM: 검색 최적화 연구 🔍

 기본 원리

  • RAG 시스템은 외부 데이터를 검색하여 LLM의 입력을 보강
  • 정확한 도메인 지식을 활용해 더 신뢰할 수 있는 응답 생성
  • 기존 RAG 기법(Gao et al., 2022; Chan et al., 2024)은 벡터 임베딩 기반 검색을 사용

⚠️ 기존 RAG의 한계
1️⃣ 파편화된 텍스트 조각(Chunking)

  • 검색된 데이터가 단편적 → 전체 문맥을 반영하기 어려움
  • 보통 상위 K개 문서만 가져와 제한적 정보 제공

2️⃣ 지식 그래프(Graph) 업데이트 어려움

  • 최신 연구(Edge et al., 2024)는 그래프 기반 지식 표현을 도입했지만,
  • 동적으로 새로운 정보를 반영하는 기능 부족

2️⃣ LightRAG: 기존 RAG의 한계를 해결하는 접근법 🚀

🔍 LightRAG의 핵심 혁신
 빠른 정보 업데이트 가능 → 새로운 데이터가 추가되어도 지식 그래프를 재구성할 필요 없음!
 검색 최적화 (Dual-Level Retrieval)  그래프 + 벡터 검색 결합해 검색 속도 & 정확도 극대화
 토큰 비용 절감  단순 브루트포스 검색이 아니라, 최적화된 검색 방식 적용


3️⃣ LLM과 그래프(Graph) 연구의 융합 📊

📌 LLM이 그래프 데이터를 다루는 방식은 크게 3가지!

📌 ① GNNs as Prefix (GNN을 전처리기로 활용)

  • 그래프 신경망(GNN)이 그래프 데이터의 구조를 학습하고, 이를 LLM이 사용할 토큰으로 변환
  • 대표 연구: GraphGPT (Tang et al., 2024), LLaGA (Chen et al., 2024)
  • 🔹 특징: 그래프의 구조적 정보를 유지하면서, LLM이 보다 정교한 추론 가능

📌 ② LLMs as Prefix (LLM이 그래프를 이해하는 방식 개선)

  • 그래프 데이터를 텍스트 정보로 변환하여 LLM이 직접 학습하도록 설계
  • GNN의 훈련을 도와주는 역할
  • 대표 연구: GALM (Xie et al., 2023), OFA (Liu et al., 2024)
  • 🔹 특징: 그래프의 노드(Node)와 엣지(Edge) 정보를 활용해 더 나은 임베딩 생성

📌 ③ LLM-Graph Integration (완전한 통합)

  • LLM과 그래프가 유기적으로 연결
  • GNN 정렬, Fusion Training 등 다양한 기술 적용
  • LLM이 그래프 정보를 직접 활용할 수 있도록 설계된 에이전트 기반 접근
  • 대표 연구: Li et al. (2023), Brannon et al. (2023)
  • 🔹 특징: LLM이 그래프 구조를 직접 해석하고 활용할 수 있는 단계로 발전

🔥 최신 연구 트렌드 & 방향

 RAG-LLM 최적화

  • 텍스트 검색 한계를 넘어서, 그래프 기반 검색으로 발전 중!
  • LightRAG처럼 지식 그래프를 동적으로 반영하는 모델이 각광받는 중
  •  

 LLM과 그래프의 융합 심화

  • GNN이 LLM을 보조하는 방식 → LLM이 그래프를 직접 해석하는 방향으로 발전
  • RAG + Graph Fusion 기술이 연구 중 (예: LLM 기반 그래프 에이전트)

📌 결론!
RAG-LLM 연구는 검색 최적화뿐만 아니라, 그래프와의 융합으로 더 정밀한 정보 활용 가능성을 넓히는 방향으로 발전 중이다! 🚀