/
/
RAGとEmbedding ModelとVectorDBのコンビネーション
Share
Sign In
RAGとEmbedding ModelとVectorDBのコンビネーション
ネイバーウェブトゥーン、ヤンヨンスン≪デンマ>
ちょうど3つの技術が入ったコンビネーションというドリップを打ちたくなる組み合わせです。もしあなたがこのガイドを無くすことなく読んだならば、
検索拡張の生成
RAG(Retrieval-Augmented Generation)について覚えておきます。では、自然に気になることがあります。いいえRAGも既存の情報を参照してより豊富な回答をしますか?では、Embedding ModelとVectorDBの役割は何ですか?と言います。ご迷惑をおかけして申し訳ありません。しかし、私は気になりました。
•
埋め込みモデルは、単語や文をコンピュータが理解できる数値の配列、つまりベクトルに変換する役割を果たします。これはコンピュータに言語を教えるのと似ており、コンピュータはこのベクトルを介して文や単語の意味を把握することができます。
•
VectorDBは、このように変換されたベクトルを保存および管理するデータベースです。つまり、コンピュータが学習した言語の「単語帳」と同じだと言えます。これには多くの単語や文章がベクトルの形でまとめられており、必要に応じてすばやく検索できます。
•
RAG)は、質問に回答するときに、既存に保存された情報(例えばVectorDBに保存された情報)を見つけてそれに基づいて答えを生成する方法の人工知能モデルです。まるで試験問題を解くために勉強した内容を思い出す学生に似ています。 RAGは、既存の情報を参照して、より正確で有用な回答を作成します。
つまり、
VectorDBはRAGモデルが参照できる情報のリポジトリになることができます。
もちろん、他のデータベースも同じです。 RAGは、特定の質問に対する回答を生成するためにVectorDBに格納されているベクトル情報を検索し、その情報を活用して新しい回答を作成します。このプロセスでは、RAGはVectorDBの情報を「理解」し、それに基づいて自分の答えを構成します。
LLM 시각화(Visualization) | GeekNews
GPT-2, nano-gpt, GPT-3 등 대형 언어 모델의 작동 원리를 시각적으로 설명하는 가이드목차: 소개 및 예비 지식, 임베딩, 레이어 정규화, 셀프 어텐션, 프로젝션, MLP, 트랜스포머, Softmax, 출력전체 소개 부분 요약'nano-gpt' 의 경우 85,000개의 매개변수를 가지고 있음주어진 여섯 글자의 문자열을 알파벳 순으로 정렬하는
news.hada.io
このように、RAGは既存の知識を活用してより豊富で正確な情報を提供します。
ただし、RAGが注目される理由は、人工知能が単純にあらかじめ定められた答えをするのではなく、保存された知識に基づいて新しい答えを創造するという点で革新的です。
ⓒ 2023. Haebom, all rights reserved.
ソースを表示し、著作権者の許可の下で営利目的で使用することができます。
使用される画像は理解を助けるために使用されたものであり、画像のすべての権限はソースに記載されている原作者にあります。
Made with Slashpage