従来のK-重複交差検証では、各インスタンスを(k-1)回のトレーニングに、1回のテストに使用して重複を発生させ、多くのインスタンスが学習段階に不均衡に影響する問題があります。この論文では、新しい方法である非重複k-重複交差検証を紹介します。この方法は、完全な検証手順で、各インスタンスが正確に1回のトレーニングとテストに使用されることを保証します。これにより、データセットのバランスの取れた使用を保証し、インスタンスの反復による過適合を軽減し、比較的モデル分析でより明確な違いを可能にします。この方法は、階層化を維持し、モデルとは無関係であり、さまざまなデータセットで既存のk重複交差検証と同様の性能推定値を提供しながら、トレーニングパーティションが重複しないため、より低い分散推定値を提供し、全体的な計算コストを大幅に削減することを実験結果を通じて示しています。