Share
Sign In
⛓️

Chain-of-Thought (CoT)

ゼロショットについて定義したJason Weiが2022年に発表したChain-of-Thoughtという名前のテクニックがあります。名前からわかると、これは連鎖プロンプトに関連付けられています。いくつかの違いがある場合、これは中間推論ステップを意図的に入れてより良い結果をもたらすことです。これは、詳細な思考プロセスを必要とする複雑な作業に特に効果的です。
ChainofThought Prompting Elicits Reasoning in Large Language Models.pdf870.87KB

CoT Promptingの利点

多段階問題の分解:CoTは、モデルが多段階の問題を中間段階に分解することを可能にします。
モデル行動の解釈可能性:CoTは、モデルが特定の回答にどのように到達するかについての解釈可能なウィンドウを提供し、推論パスが間違った場所をデバッグする機会を提供します。
さまざまなタスクの適用性:CoT推論は、数学の問題、常識的推論、象徴的な操作などのタスクに使用でき、原則として、人間が言語で解決できるすべてのタスクに適用できます。
大規模な言語モデルでの簡単な導出:十分に大きな規模の既存の言語モデルにCoTシーケンスの例を含めるだけで、簡単にCoT推論を導くことができます。
例を挙げましょうか? これは議論の一部で示された例です。
Prompt : 242,343,232,12,1,423,3,2,433,42,21,51,26 를 홀수와 짝수로 구별한 다음 홀수 인 숫자를 모두 더하시오. 이를 순서대로 진행해 주세요.
💡
与えられた数字を奇数と偶数で区別し、奇数を順番に追加します。
奇数:343、1、423、3、433、21、51
奇数加算: 343 + 1 + 423 + 3 + 433 + 21 + 51 = 1275
したがって、指定された数字のうち奇数の数字をすべて加算すると、1275になります。
ここで「奇数と偶数で区別し、奇数の数字をすべて加算します。これを順番に進めてください。」という部分が連鎖的に作業を分けて指示したものです。以前は、この方法が最初の注目を集めたときにさえ、「段階的に」。 「順番に」とStep-by-stepを要求することでより良い結果を出すという言葉が出てきました。
もちろん、CoT法も限界は明確です。簡単に表現すれば、頭の中に多くのモデルでしかきちんと効果が見られるということです。つまり、sLMというパラメータの数が小さいモデルでは、CoTはまったく性能を発揮できません。このとき、Few-shotまたはOne-shot方式がより良い結果を示しています。

CoTの限界

モデル規模に依存:CoT Promptingは、主に大規模モデル(約70Bパラメータ)でのみ肯定的なパフォーマンス向上を示します。小規模なモデルでは、CoT は効果がないか、標準プロンプトよりもパフォーマンスが低い可能性があります。
制限:CoTが人間の推論者の思考プロセスを模倣していますが、これがニューラルネットワークが実際に「推論」しているかどうかはまだ未知数です。さらに、手作業で例をCoTに拡張するコストは少ないかもしれませんが、微調整のための注釈コストは大幅に増加する可能性があります。 CoTは正しい推論経路を保証せず、実際のアプリケーションで大きなモデルを使用するためのコストが高いことも考慮する必要があります
それにもかかわらず、CoT Promptingは、言語モデルを活用したさまざまなタスクで推論能力を向上させる効果的な方法です。もともと私たちのユーザーにサービスされるモデルが現在はほぼ100B内外となっているので、この方法が有意に食べられます。
🙌
🧊
ⓒ 2023. Haebom, all rights reserved.
ソースを表示し、著作権者の許可の下で営利目的で使用することができます。
👍