/
/
言語モデルでサービスを作成する
Share
Sign In
言語モデルでサービスを作成する
GPT-3.5やGPT-4などのGPTモデルとの相互作用を簡素化するためにプロンプトが大きな役割を果たします。今後人工知能が発展するほど、ファンデーションモデルとのコミュニケーションを簡素化し、さまざまなアプリケーションで簡単かつ効率的に使用できるようにしてくれると思います。
人工知能が普遍化するにつれて、以前に企画者がAPI、SDKの概念について勉強していた時期が浮かび上がります。必ず知る必要はありませんが、知れば良いそんな領域のものです。実際、人工知能関連サービスを作る方々、作られるようになる方々が知る必要があるのは構造のようです。一番気楽なのはOpenAIのようなのでAPIで撮影すればそれを受けて入力して出力してくれれば良いのですが…急速に市場をリードするためならば分からなくてもね。代表的なのが国内クラウドストレージ事業なのに、結局自体的にIDCやデータセンターを構築すれば、運営コスト自体は50%以上減るが、構築するのにコストも容易ではなく、適切に設計することも容易ではないからです。
Emerging Architectures for LLM Applications | Andreessen Horowitz
A reference architecture for the LLM app stack. It shows the most common systems, tools, and design patterns used by AI startups and tech companies.
a16z.com
個人的に誰かが人工知能関連サービスを企画したり夢を見ているなら、直軍関係なく一度上記の情報を読んでみてください。実際には、3つの概念だけを明確に理解することをお勧めします。それは
Foundation Model、Embedding Model、VectorDB
です。
Emerging Architectures for LLM Applications from Matt Bornstein and Rajko Radovanovic
•
Foundationモデルはこの図書館の司書と同じです。本(情報)について非常に知っていて、あなたが望む本を見つけることができる役割です。あなたが「コンピュータについて教えてください」と尋ねると、コンピュータに関する本をお勧めします。
•
埋め込みモデルは、各本を簡単に見つけることができるコードに変換する作業です。書籍ごとに独自のバーコードを貼るのと同じですが、こうすることで、好きな本をすばやく見つけることができます。
•
VectorDBはバーコードを利用して本を整理しておく大きな書家といえます。この書籍は、本をテーマ別に、またはあなたが望む方法で並べ替えて保管します。それで、あなたが「このトピックに関する本を見たい」と言えば、関連する本をすぐに取り出せるようにするのです。
人工知能サービスを作ってみると、人々が人工知能に聞くのが思ったより分類可能でよく聞く分野が明確にあるということです。これを理解していれば、VectorDBとEmbeddingモデルを適切に設計することで、コストを大幅に削減できます。
ⓒ 2023. Haebom, all rights reserved.
ソースを表示し、著作権者の許可の下で営利目的で使用することができます。
Made with Slashpage