Cet article présente un modèle de classification des sexes utilisant des images couleur de la région périoculaire, indépendantes de facteurs tels que le maquillage ou le déguisement. Le modèle CNN proposé a été évalué sur deux ensembles de données oculaires : CVBL et (Femme et Homme). Il a atteint une précision élevée de 99 % sur l'ensemble de données CVBL et de 96 % sur l'ensemble de données (Femme et Homme). Cet objectif a été atteint grâce à un petit nombre de paramètres apprenables (7 235 089). Les performances du modèle ont été évaluées à l'aide de diverses mesures et comparées aux techniques de pointe existantes, démontrant son efficacité et suggérant des applications pratiques dans des domaines tels que la sécurité et la surveillance.