Please use this identifier to cite or link to this item: http://dspace.univ-bouira.dz:8080/jspui/handle/123456789/15418
Title: Un dataset pour la reconnaissance de la parole arabe pour les locuteurs Tamazight pour le projet : Fabrication de systèmes de reconnaissance vocale arabe pour les locuteurs Tamazight
Authors: CHABI, Tiziri
SARI, Tilelli
Keywords: Réseaux de neurones Récurrents, Apprentissage profond, Reconnaissance automatique de la parole, Jeu de données, Reconnaissance vocale.
Issue Date: 2023
Publisher: Université Akli Mohand Oulhadj - Bouira
Abstract: La reconnaissance automatique de la parole RAP est un domaine de recherche très actif qui a produit des technologies adoptées dans de nombreux domaines comme la santé, les services publiques et les interfaces homme machine, notamment avec l’émergence des réseaux de neurones et des techniques d’apprentissage profond. Ce projet de fin d’étude souligne l’importance de l’évolution des systèmes de Reconnaissance Automatique de la Parole (RAP) et des techniques modernes dans ce domaine. Il souligne également l’importance de fournir des ensembles de données arabes de haute qualité pour soutenir les applications de reconnaissance vocale sur les appareils intelligents en langue arabe. L’objectif principal de ce travail est de collecter un nouvel ensemble de données spécialement conçu pour la reconnaissance de la parole arabe par des locuteurs amazighs, ce qui renforce la diversité linguistique des données disponibles. Ce processus inclut un contrôle de la qualité des données, ce qui contribue à améliorer la précision des modèles de reconnaissance de la parole arabe. À l’aide de ce nouvel ensemble de données, les systèmes de RAP arabe conçus spécifiquement pour les locuteurs amazighs peuvent être formés et évalués.
URI: http://dspace.univ-bouira.dz:8080/jspui/handle/123456789/15418
Appears in Collections:Mémoires Master

Files in This Item:
File Description SizeFormat 
PFC08_CHABI_Tiziri_SARI_Tilelli (2).pdf2,01 MBUnknownView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.