La validation croisée k-fold conventionnelle présente le problème d'utiliser chaque instance pour l'entraînement (k-1) et de la tester une seule fois, ce qui entraîne une redondance et un impact disproportionné sur le processus d'apprentissage en raison de la multiplicité des instances. Dans cet article, nous présentons une nouvelle méthode, la validation croisée k-fold non redondante, qui garantit que chaque instance est utilisée une seule fois pour l'entraînement et le test tout au long du processus de validation. Cela garantit une utilisation équilibrée des ensembles de données, atténue le surapprentissage dû à la répétition des instances et permet des différences plus nettes dans l'analyse des modèles. Les résultats expérimentaux démontrent que cette méthode maintient des performances hiérarchiques et indépendantes du modèle sur divers ensembles de données, tout en fournissant des estimations de variance plus faibles et en réduisant considérablement les coûts de calcul globaux grâce à l'absence de chevauchement des partitions d'entraînement.