Este artículo aborda el control de robots cuadrúpedos guiados por visión mediante aprendizaje por refuerzo (RL), haciendo hincapié en la integración esencial de la propiocepción y la visión para un control robusto. Proponemos QuadKAN, una política intermodal parametrizada por splines que utiliza redes de Kolmogorov-Arnold (KAN). QuadKAN integra un codificador de splines para la propiocepción y un cabezal de fusión de splines para la información propioceptiva-visual. Esta clase estructurada de funciones alinea la asignación de estado-acción con la suavidad de la marcha por partes, mejorando la eficiencia de la muestra, reduciendo el temblor de acción y el consumo de energía, y proporcionando una sensibilidad interpretable entre la postura y la acción. Empleamos la aleatorización de retardo multimodal (MMDR) y realizamos aprendizaje de extremo a extremo con optimización de política proximal (PPO). Los resultados de la evaluación en diversos terrenos, incluyendo superficies uniformes e irregulares y escenarios con obstáculos estáticos y dinámicos, demuestran que QuadKAN logra consistentemente mayores retornos, mayores distancias de recorrido y menos colisiones que los modelos de referencia de última generación (SOTA). Estos resultados demuestran que las políticas parametrizadas por splines son una alternativa simple, efectiva e interpretable para una caminata robusta guiada por visión.