Veuillez utiliser cette adresse pour citer ce document : http://dspace.univ-bouira.dz:8080/jspui/handle/123456789/17942
Titre: Visual Question Answering using Deep Learning
Auteur(s): Moulai, Azeddine
Date de publication: 2024
Editeur: Université de bouira AKLI MOHAND OULHADJ
Référence bibliographique: SCIENCE EXACTE
Résumé: Le Visual Question Answering (VQA) dans le domaine de l’intelligence artificielle (IA) intègre la vision par ordinateur et le traitement du langage naturel pour développer des systèmes capables de répondre à des questions basées sur du contenu visuel. Les pro grès rapides de la recherche en IA ont considérablement élargi la complexité et la variété des données disponibles pour l’entraînement des modèles VQA. Ce volume croissant de données visuelles et la nature diverse des questions posées nécessitent des techniques so phistiquées pour atteindre des performances élevées. Les systèmes VQA ont un potentiel immense dans les applications réelles telles que l’assistance aux personnes malvoyantes, l’amélioration de l’interaction homme-machine et l’amélioration du support client au tomatisé. Cependant, développer des systèmes VQA efficaces reste un défi en raison de la nécessité d’une compréhension et d’une intégration précises des informations vi suelles et textuelles. Les architectures basées sur les transformateurs, avec leurs mécan ismes d’attention, ont révolutionné le traitement du langage naturel et font désormais des avancées significatives dans la vision par ordinateur. Ces modèles excellent à capturer les dépendances et les relations au sein des données, ce qui les rend bien adaptés aux tâches nécessitant une compréhension des images et du texte.
URI/URL: http://dspace.univ-bouira.dz:8080/jspui/handle/123456789/17942
Collection(s) :Mémoires Master

Fichier(s) constituant ce document :
Fichier Description TailleFormat 
039 GSI.pdf6,21 MBAdobe PDFVoir/Ouvrir


Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.