Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

How Can I Publish My LLM Benchmark Without Giving the True Answers Away?

Created by
  • Haebom

作者

石田高志、タナワット・ロッドカウ、イクコヤマネ

概要

本論文は、インターネットに公開されている大規模言語モデル(LLM)ベンチマークが将来のLLMの学習や選択に意図せず(または意図的に)使用され、モデル汚染を引き起こす危険性を提起する。既存の解決策であるベンチマークの非公開および参加者のモデル/予測提出方式は、特定の機関に対する信頼に依存し、繰り返しの問合せによる過適合の可能性を残す。本論文は、正解を完全に開示することなくLLMを公的に評価できるようにベンチマークを公開する方法を提案する。重要なアイデアは、複数の論理的に正確な回答を準備し、そのうちの1つだけを正解として含めることで、回答にランダム性を注入することです。これは、ベンチマークのベイズ精度を下げて正解を保護し、データ汚染を検出するためのテストを提供します。完璧なモデルでさえベイズの精度を超えることはできないので、それを超えるとデータ汚染の強力な信号と見なすことができます。実験結果は、本方法が様々なベンチマーク、モデル、学習方法においてデータ汚染を正確に検出できることを示す。

Takeaways、Limitations

Takeaways:
インターネット上のLLMベンチマーク開示によるモデル汚染問題に対する効果的な解決策を提示します。
ベンチマーク正解を完全に開示することなくLLMを公的に評価できる新しい方法提案。
ベイズ精度を活用したデータ汚染検知技術の提示
様々なベンチマーク、モデル、学習方法におけるデータ汚染検出性能の検証
Limitations:
提案された方法の効果は、ベンチマークの設計と回答の多様性によって異なります。
ベイズの精度を超えたすべてのケースをデータ汚染で決定することはできません。他の原因によっても発生可能性存在。
実験結果は特定のデータセットとモデルに限定することができ、一般化の可能性に関するさらなる研究が必要です。
👍