Création d'un modèle de Deep Learning pour la détection d'émotions sur des images de visages, utilisant un réseau de neurones convolutifs (CNN) et le dataset CK+.
- Utilisation du dataset CK+ contenant des séquences d'images d'expressions faciales
- Création d'un modèle CNN avec Keras pour classifier 7 émotions : colère, dégoût, peur, joie, neutralité, tristesse et surprise
- Implémentation de techniques d'augmentation de données pour améliorer la robustesse du modèle
- Utilisation d'OpenCV pour la détection de visages sur des images arbitraires
- Python
- TensorFlow et Keras pour la création et l'entraînement du modèle CNN
- NumPy et Pandas pour la manipulation des données
- Matplotlib pour la visualisation
- OpenCV pour la détection de visages
Le modèle CNN utilisé comprend plusieurs couches de convolution, de batch normalization, et de pooling. Voici un aperçu de l'architecture :
- Le modèle atteint une précision maximale d'environ 64% sur les données de validation
- Comparaison avec d'autres modèles : VGG-16 (80%), Transformer (75%), InceptionV3 (60%), ResNet (55%)
- Capacité à détecter et classifier les émotions sur des images arbitraires contenant des visages
Évolution de la précision et de la perte durant l'entraînement :
Voici quelques exemples de prédictions réalisées par le modèle :
Le modèle montre une bonne précision sur certaines images, mais peut parfois manquer de précision selon les visages.
Le modèle montre des performances variables selon les visages. Des améliorations potentielles incluent l'augmentation du nombre de données d'entraînement et l'optimisation de l'architecture du réseau pour améliorer la précision globale.