Sign In
해봄의 아카이브

SELF-RAG: 언어 모델의 한계를 넘어서

Haebom
언어 모델이 계속 발전하면서 다양한 실험들이 계속 되고 있습니다. 그 중에서도 Retrieval Augmented Generation(RAG)은 언어 모델이 다양한 문맥을 이해하고 생성할 수 있게 하는 기술로 주목받고 있습니다. 하지만 RAG에도 한계가 있습니다. 이러한 한계를 극복하기 위한 새로운 연구가 등장했는데, 바로 워싱턴 대학교와 IBM 연구팀이 발표한 'Self-Reflective Retrieval-Augmented Generation (SELF-RAG)'입니다.

RAG(Retrieval Augmented Generation)이란?

RAG는 Retrieval Augmented Generation의 약자로, 언어 모델이 특정 질문이나 요청에 대한 답을 생성할 때 외부의 데이터베이스나 문서 등을 참조하여 더 정확하고 풍부한 답변을 생성하는 기술입니다.

식당 예시로 이해하기

예를 들어, 고객이 "이 식당에서 가장 인기 있는 메뉴는 무엇인가요?"라고 물었을 때, 일반적인 언어 모델은 이전에 학습한 데이터를 기반으로 대답할 뿐 실시간 정보를 제공할 수 없습니다.
그러나 RAG를 사용한 언어 모델은 실시간으로 식당의 리뷰나 메뉴 데이터를 참조하여 "현재 이 식당에서 가장 인기 있는 메뉴는 '스테이크'입니다"라고 답할 수 있습니다.

RAG의 한계

무분별한 정보 검색: RAG는 외부 데이터를 참조하긴 하지만, 그 정보가 얼마나 정확하고 신뢰할 수 있는지 판단하는 능력이 부족합니다.
범용성 제한: RAG는 특정 분야나 상황에 최적화된 정보를 제공하기 어렵습니다. 즉, 너무 일반적인 정보만을 제공할 가능성이 있습니다.

식당 예시로 이해하기

무분별한 정보 검색: RAG가 식당 리뷰를 참조하여 인기 메뉴를 알려줄 때, 그 리뷰가 얼마나 최신이고, 신뢰할 수 있는지를 판단하지 못합니다. 예를 들어, 몇 년 전의 리뷰를 참조해 오래된 인기 메뉴를 추천할 수 있습니다.
범용성 제한: 고객이 "저는 채식주의자인데, 이 식당에서 먹을 만한 메뉴 추천해주세요"라고 했을 때, RAG는 일반적인 인기 메뉴만을 추천하고 채식주의자에게 적합한지 여부를 고려하지 않을 수 있습니다.
이러한 한계를 극복하기 위해 SELF-RAG 같은 새로운 기술들이 연구되고 있습니다. 이는 언어 모델이 자신의 답변을 '자가 반영'하여 더 정확하고 상황에 맞는 답변을 생성할 수 있게 도와줍니다.

SELF-RAG의 특징과 작동 원리

SELF-RAG(Self-Reflective Retrieval-Augmented Generation)은 기존의 RAG의 한계를 극복하기 위해 개발된 기술입니다. 이 모델은 "반영 토큰(reflection tokens)"이라는 특별한 토큰을 사용하여 자신이 생성한 텍스트의 질을 평가합니다. 이 토큰은 생성된 텍스트가 얼마나 사실적이고 관련성이 있는지, 그리고 전반적인 품질이 어떤지를 평가하는 역할을 합니다. 또한, 이 모델은 생성된 답변에 출처를 함께 제공하여 신뢰성을 높입니다.

Reflection Tokens이란?

"Reflection Tokens"은 SELF-RAG 모델에서 도입된 특별한 토큰입니다. 이 토큰은 모델이 생성한 텍스트의 질을 자동으로 평가하는 역할을 합니다. 즉, 생성된 텍스트가 얼마나 사실적이고, 관련성이 있는지, 그리고 전반적인 품질이 어떤지를 평가합니다. 이를 통해 모델은 더 정확하고 신뢰할 수 있는 정보를 제공할 수 있습니다.

식당 예시로 이해하기

메뉴 추천: 가령, 고객이 "이 식당에서 가장 인기 있는 메뉴는 뭐에요?"라고 물었다고 가정해봅시다. 일반적인 RAG 모델은 다양한 리뷰나 메뉴 데이터를 참고하여 답을 생성할 것입니다. 하지만 이때, 어떤 정보가 더 정확한지, 혹은 최신인지를 판단하기 어렵습니다.
Reflection Tokens의 역할: SELF-RAG 모델은 "Reflection Tokens"을 사용하여 생성한 답변의 품질을 평가합니다. 예를 들어, "이 식당의 가장 인기 있는 메뉴는 스테이크입니다. (출처: 식당 리뷰, 2023년 10월)"와 같이 답변을 생성할 수 있습니다. 여기서 "출처: 식당 리뷰, 2023년 10월" 부분이 Reflection Token에 의해 추가된 정보입니다.
알레르기 정보: 고객이 "이 메뉴에 견과류가 들어 있나요?"라고 물으면, SELF-RAG 모델은 견과류 알레르기에 대한 정보를 찾아 "이 메뉴에는 견과류가 들어있습니다. 알레르기가 있으시면 주의하세요. (출처: 식당 메뉴 정보)"라고 답할 수 있습니다. 여기서도 "출처: 식당 메뉴 정보"는 Reflection Token에 의해 생성된 것입니다.

식당 예시로 이해하기

정확한 정보 제공: SELF-RAG는 인기 메뉴를 추천할 때, 여러 리뷰나 데이터를 참고하여 "반영 토큰"을 통해 그 정보의 신뢰성을 평가합니다. 예를 들어, 오래된 리뷰나 별점이 낮은 리뷰는 무시하고, 최신이면서도 높은 별점을 받은 리뷰를 기반으로 메뉴를 추천할 수 있습니다.
상황에 맞는 답변: 고객이 채식주의자라고 말했을 때, SELF-RAG는 이 정보를 반영하여 채식 메뉴만을 추천하고, 그 추천의 근거가 되는 출처까지 제공할 수 있습니다.

성능 지표

SELF-RAG는 여러 성능 지표에서 기존의 RAG나 다른 언어 모델들을 뛰어넘는 성능을 보여줍니다. 특히 Open-domain QA 데이터셋과 긴 형태의 QA 데이터셋(ASQA)에서 뛰어난 결과를 보여주었습니다.
Subscribe to 'haebom'
Subscribe to my site to be the first to receive notifications and emails about the latest updates, including new posts.
Join Slashpage and subscribe to 'haebom'!
Subscribe