Please use this identifier to cite or link to this item: http://dspace.univ-bouira.dz:8080/jspui/handle/123456789/15472
Title: Utilisation de Deep Learning pour la reconnaissance et classification des émotions faciales
Authors: HAKOUM, Smail
SKANDER, Mustapha
Keywords: émotions, expressions faciale, deep learning, réseaux de neurones, CNN, FER2013
Issue Date: 2023
Publisher: Université Akli Mohand Oulhadj - Bouira
Abstract: Les expressions faciales sont l'un des moyens les plus efficaces et les plus naturels dont dispose l'être humain pour exprimer ses émotions et ses intentions. La reconnaissance des émotions est une tâche importante dans l'interaction homme-machine, où l'objectif est d'identifier et de comprendre les états émotionnels des individus à travers diverses modalités telles que les expressions faciales. L'objectif de cette étude est d'utiliser l'apprentissage profond, en particulier les réseaux de neurones convolutifs. Les CNN sont généralement utilisés pour les modalités basées sur l'image, telles que la reconnaissance des expressions faciales. Pour entraîner un réseau neuronal à la reconnaissance des émotions, il faut disposer d'un ensemble de données d'expressions émotionnelles étiquetées, en utilisant la base de données FER2013, Elle est utilisée pour entraîner le réseau à apprendre les caractéristiques et les modèles associés aux différentes émotions. Une fois le réseau formé, il peut être utilisé pour reconnaître des émotions dans de nouvelles données non vues. Dans l'ensemble, les approches basées sur l'apprentissage profond ont montré des résultats prometteurs dans la reconnaissance des émotions et ont le potentiel d'améliorer diverses applications telles que l'interaction homme-robot et la surveillance de la santé mentale.
URI: http://dspace.univ-bouira.dz:8080/jspui/handle/123456789/15472
Appears in Collections:Mémoires Master

Files in This Item:
File Description SizeFormat 
PFE_ESE_Reconnaissance des émotions avec deep learning_HAKOUM_SKANDER.pdf4,44 MBUnknownView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.