Cet article aborde la vulnérabilité des attaques ciblées par retournement d'étiquettes (TLFA) dans les systèmes de classification de l'état des routes (RCC) pour véhicules autonomes basés sur l'apprentissage fédéré (FL). Nous soulignons la gravité des attaques TLFA, où un véhicule malveillant modifie intentionnellement les étiquettes des données d'entraînement afin de dégrader les performances d'inférence d'un modèle entraîné, et présentons une nouvelle mesure permettant de quantifier le risque de sécurité de ces attaques. De plus, nous proposons FLARE, un mécanisme de défense qui atténue l'impact des TLFA en exploitant l'analyse neuronale dans la couche de sortie des réseaux neuronaux. À travers diverses expériences, nous démontrons la gravité des TLFA et l'efficacité de FLARE dans le système FL-RCC.