Veuillez utiliser cette adresse pour citer ce document :
http://dspace.univ-bouira.dz:8080/jspui/handle/123456789/14077
Affichage complet
Élément Dublin Core | Valeur | Langue |
---|---|---|
dc.contributor.author | Silem, Amira | - |
dc.contributor.author | Daoui, Hibatellah | - |
dc.date.accessioned | 2023-01-19T12:53:49Z | - |
dc.date.available | 2023-01-19T12:53:49Z | - |
dc.date.issued | 2022 | - |
dc.identifier.uri | http://dspace.univ-bouira.dz:8080/jspui/handle/123456789/14077 | - |
dc.description.abstract | La parole est l’un des moyens linguistiques les plus couramment utilisés par les humains pour transmettre les états émotionnels internes. Par conséquent, un système capable de la reconnaissance automatiquement des émotions humaines serait intéressant. Notre mémoire vise, donc, à concevoir un système de reconnaissance émotionnelle par la voix. Le système consiste à utiliser les trois paramètres spectraux MFCC, LPCC, PLP ainsi que les paramètres prosodiques ; énergie, formants et pitch. Chaque type d'émotion sera modélisé par deux techniques : le modèle GMM-UBM et DTW. Plusieurs tests ont été effectués afin de trouver le meilleur taux de reconnaissance correct. En termes de paramètre, la technique PLP a réalisé le meilleur résultat avec 87.50%. Une amélioration additionnelle des performances du système a été obtenue par la fusion entre les paramètres prosodiques et spectraux qui correspond à un taux de 89,58%. | en_US |
dc.language.iso | fr | en_US |
dc.publisher | université akli mohand oulhadj-bouira | en_US |
dc.subject | paramètres prosodiques ; paramètres spectraux | en_US |
dc.subject | les émotions vocales ; reconnaissance émotionnelle | en_US |
dc.title | Reconnaissance automatique des émotions par la voix | en_US |
dc.type | Thesis | en_US |
Collection(s) : | Mémoires Master |
Fichier(s) constituant ce document :
Fichier | Description | Taille | Format | |
---|---|---|---|---|
memoire corrigé.pdf | 1,62 MB | Adobe PDF | Voir/Ouvrir |
Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.