Cet article présente une approche simple pour intégrer la sécurité dans l'apprentissage par imitation (IL), où le respect des contraintes est complexe, notamment en cas de fonctionnement proche des limites opérationnelles du système. Les méthodes d'apprentissage par imitation existantes, telles que la réplication comportementale (BC), peinent à appliquer les contraintes, ce qui entraîne souvent des performances sous-optimales dans les tâches de haute précision. Dans cet article, nous validons expérimentalement l'approche proposée par des simulations sur une tâche de course automobile autonome utilisant à la fois le retour d'état complet et le retour d'image, démontrant ainsi une meilleure conformité aux contraintes et une meilleure cohérence des performances par rapport à la BC.