Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Is Your LLM Overcharging You? Tokenization, Transparency, and Incentives

Created by
  • Haebom

作者

Ander Artola Velasco, Stratis Tsirtsis, Nastaran Okati, Manuel Gomez-Rodriguez

概要

本稿では、大規模言語モデル(LLM)のクラウドベースのサービスで使用されるトークンあたりの価格設定メカニズムの脆弱性を分析します。現在のトークンベースの価格設定は、サービスプロバイダがモデルが生成する出力に使用されたトークンの数を誤って報告して利益を最大化する誘引を提供し、ユーザーはこれを検証する方法がありません。論文はこれらの問題を証明し、サービスプロバイダが疑わずに課金する効率的なヒューリスティックアルゴリズムを提示します。また、これらの誘引を排除するためには、トークンの文字数に直線的に価格を設定する必要があることを示し、これにより平均利益を維持する方法を提案します。 Llama、Gemma、Ministralシリーズの複数のLLMとLMSYS Chatbot Arenaプラットフォームのプロンプトを使用した実験結果によって、理論的結果を補完します。

Takeaways、Limitations

Takeaways:
現在のトークンあたりの価格設定メカニズムは、LLMサービスプロバイダの課金操作に対する脆弱性を公開しています。
トークンの文字数に直線的に価格を設定することは、課金操作誘引を排除する効果的な方法であることを示唆しています。
プロバイダが既存の利益を維持しながらインセンティブ互換性のある価格設定メカニズムを採用する方法を提案します。
Limitations:
提示されたヒューリスティックアルゴリズムは、課金操作を完全に防止することはできず、プロバイダの戦略的行為に対する完全な解決策ではありません。
実験は特定のLLMとプロンプトに限定されており、一般化の可能性に関するさらなる研究が必要です。
トークンの文字数に直線的に価格を設定する方法がすべての状況で実用的であるかどうかをさらに検討する必要があります。
👍