Este artículo propone la Destilación de Características para el Aprendizaje Federado de Modelos Heterogéneos (FedFD), un método novedoso para mejorar la agregación de conocimiento en el aprendizaje federado de modelos heterogéneos (Hetero-FL). El Hetero-FL existente utiliza técnicas de destilación de conjuntos para mejorar el rendimiento de un modelo global mediante destilación logit, pero presenta la limitación de no poder compensar los sesgos de conocimiento derivados de los modelos heterogéneos. Para abordar este problema, FedFD propone un paradigma de destilación de conocimiento federado de conjuntos basado en características que mejora la integración del conocimiento entre modelos heterogéneos mediante la alineación de la información de características mediante proyecciones ortogonales. El modelo global del servidor mantiene capas de proyección para cada arquitectura de modelo cliente para alinear las características individualmente, y se utilizan técnicas ortogonales para repararmetrizar las capas de proyección con el fin de mitigar los sesgos de conocimiento y maximizar el conocimiento destilado. Los resultados experimentales demuestran que FedFD supera a los métodos de vanguardia existentes.