본문 바로가기

논문 리뷰/Language Model

RAFT: Adapting Language Model to Domain Specific RAG

Abstract

요약: Test domain을 알고 있다면 모델을 도메인에 특화하여 retriever가 가져온 문서를 스스로 필터링하도록 훈련할 수 있다.

 

[Page]

[arXiv](2024/03/15 version v1)

 

 

Introduction

LLM을 전문 도메인에 적용할 때 Retrieval Augmented Generation (RAG)와 fine-tuning을 고려할 수 있다.

하지만

  • RAG는 고정된 도메인,  early access의 이점을 활용하지 못한다.
  • Fine-tuning은 문서에 대한 접근 자체가 불가능하다.

 

 

LLMs for Open-Book Exam

Closed-Book Exam

Fine-tuning은 외부 문서에 접근하지 못하는 closed-book exam과 같다.

 

Open Book Exam

RAG는 open-book exam과 같이 외부 문서에 접근할 수 있다.

 

Domain Specific Open-Book Exam

Domain Specific Open-Book Exam은 기업 문서, 조직의 코드 저장소 등 test domain을 미리 알고 있으며 추론 시에 활용할 수 있는 경우를 말한다.

 

 

 

RAFT

다음과 같은 훈련 데이터를 준비한다.

Q: 질문 (query)

A*: 문서 D*에서 생성된 CoT 스타일의 답변

D: 문서 중 답변과 관련 있는 'oracle' 문서 D*와 관련 없는 'distractor’ 문서 Di를 구분한다.

 

SFT 시에 q와 함께 D*, Di가 포함된 문서 집합을 모델에 제공하여 더 나은 RAG를 수행하도록 모델을 훈련한다.

또한 (1 - P)의 확률로 D*을 제거하여 검색에 의존하지 않고 답변을 기억하도록 강제한다.

 

CoT 형식의 답변을 생성하고 참조 문서를 명확하게 인용하도록 하면 품질을 향상시킬 수 있다.

 

 

 

Evaluation

 

우리의 직관으로는 당연히 검색된 문서 중에 정답이 있어야 할 것 같지만 RAFT에서는 데이터셋에 따라 일부 그렇지 않은 상황이 있을 때 오히려 성능이 좋은 경우도 있었다.