/
/
RAGとEmbedding ModelとVectorDBのコンビネーション
Sign In
RAGとEmbedding ModelとVectorDBのコンビネーション
ネイバーウェブトゥーン、ヤン・ヨンスン『デンマ』
まさに3つの技術が組み合わさったコンビネーションだとツッコミたくなる構成です。もしこのガイドをきちんと読んでくださったなら、
検索拡張生成
RAG(Retrieval-Augmented Generation)についても覚えているはずです。そうすると、自然と疑問が湧いてきませんか? え、RAGも既存の情報を参考にしてより豊かな回答をするっていうけど、それならEmbedding ModelとVectorDBの役割って何?って思うかもしれません。もし気にならなかったらごめんなさい。でも、私は気になったんです。
•
Embeddingモデルは、単語や文をコンピュータが理解できる数値の配列、つまりベクトルに変換する役割を担います。これはコンピュータに言語を教えるのと似ており、このベクトルを通じてコンピュータは文や単語の意味を把握できるようになります。
•
VectorDBは、このように変換されたベクトルを保存し管理するデータベースです。いわば、コンピュータが覚えた言語の“単語帳”のようなものとも言えます。ここにはたくさんの単語や文がベクトルの形で整理されていて、必要なときに素早く検索できます。
•
RAGは、質問に答える際に、既に保存された情報(たとえばVectorDBに保存されている情報)を探し、それを基に答えを作り出すAIモデルです。例えるなら、試験問題を解くために勉強したことを思い出す学生と似ています。RAGは既存の情報を参考にして、より正確で役に立つ答えを作り出します。
つまり、
VectorDBはRAGモデルが参考にできる情報のストレージとなり得ます。
もちろん、他のデータベースでも同様です。RAGは特定の質問に対する答えを生成するため、VectorDBに保存されたベクトル情報を検索して、その情報を活用し新しい答えを生み出します。この過程でRAGはVectorDB内の情報を「理解」し、それを基に自身の答えを組み立てます。
LLM 시각화(Visualization) | GeekNews
GPT-2, nano-gpt, GPT-3 등 대형 언어 모델의 작동 원리를 시각적으로 설명하는 가이드목차: 소개 및 예비 지식, 임베딩, 레이어 정규화, 셀프 어텐션, 프로젝션, MLP, 트랜스포머, Softmax, 출력전체 소개 부분 요약'nano-gpt' 의 경우 85,000개의 매개변수를 가지고 있음주어진 여섯 글자의 문자열을 알파벳 순으로 정렬하는
news.hada.io
このような仕組みにより、RAGは既存の知識を活用して、より豊かで正確な情報を提供します。
ただ、RAGが注目される理由は、AIが単にあらかじめ決まった答えを返すのではなく、保存された知識をもとに新たな答えを生み出すという点が革新的だからです。
ⓒ 2023. Haebom, all rights reserved.
出典を表⽰し、著作権者の許可の下で営利目的で使用できます。
使用されている画像は理解を助けるために用いられており、画像のすべての権利は出典に明記された原作者に帰属します。
Made with Slashpage