Bien que les réseaux interprétables de type Kolmogorov-Arnold (KAN) possèdent une forte expressivité théorique, ils sont confrontés à des problèmes d'explosion de paramètres et de capture de caractéristiques haute fréquence dans les tâches de grande dimension. Pour relever ces défis, cet article propose un réseau de Kolmogorov-Arnold-Fourier (KAF) qui intègre efficacement des caractéristiques aléatoires de Fourier (RFF) apprenables et un nouveau mécanisme d'activation hybride GELU-Fourier afin d'équilibrer l'efficacité des paramètres et les capacités de représentation spectrale. Nos principales contributions comprennent : (1) la réduction significative des paramètres en fusionnant la structure matricielle duale des KAN avec la propriété de couplage matriciel ; (2) l'introduction d'une stratégie d'initialisation RFF apprenable pour éliminer la distorsion spectrale dans les tâches d'approximation de grande dimension ; et (3) la mise en œuvre d'une fonction d'activation hybride adaptative qui améliore progressivement la représentation fréquentielle pendant l'apprentissage. Des expériences approfondies démontrent la supériorité du KAF dans divers domaines, notamment la vision, le traitement du langage naturel (TALN), le traitement audio et la résolution d'équations différentielles, alliant efficacement interprétabilité théorique, pragmatisme et efficacité de calcul.