Annotation des images par une méthode d’apprentissage profond.

dc.contributor.author KERDOUD Fateh
dc.date.accessioned 2025-11-12T14:03:49Z
dc.date.available 2025-11-12T14:03:49Z
dc.date.issued 2024
dc.description.abstract Historiquement, les personnes souffrant de déficiences auditives ont été négligées, ne disposant pas des outils nécessaires pour faciliter une communication efficace. Cependant, les progrès de la technologie moderne ont ouvert la voie au développement de divers outils et logiciels visant à améliorer la qualité de vie des personnes malentendantes. Ce document de recherche présente une étude complète utilisant deux modèles distincts d'apprentissage profond pour reconnaître les gestes de la main pour l'alphabet de la langue des signes américaine (ASL). L'objectif principal de cette étude était de tirer parti de la technologie contemporaine pour combler le fossé de la communication entre les personnes malentendantes et les personnes non malentendantes. Les modèles utilisés dans cette recherche (RESASL et ASLCNN), ont été entraînés et testés à l'aide d'un dataset comprenant plus de 87 000 images de gestes de la main pour l'alphabet ASL. Les résultats expérimentaux de notre étude ont révélé que les deux modèles atteignant un taux de précision exceptionnel de (99,71% pour RESASL et 99,50% pour ASLCNN). soulignant ainsi leur fiabilité. Historically, people with hearing impairments have been neglected, lacking the necessary tools to facilitate effective communication. However, advances in modern technology have paved the way for the development of various tools and software to improve the quality of life of people with hearing loss. This research paper presents a comprehensive study using two distinct deep learning models to recognise hand gestures for the American Sign Language (ASL) alphabet. The main objective of this study was to leverage contemporary technology to bridge the communication gap between people with and without hearing loss. The models used in this research (RESASL and ASLCNN) were trained and tested using a dataset containing over 87,000 images of hand gestures for the ASL alphabet. The experimental results of our study revealed that both models achieved an exceptional accuracy rate of (99.71% for RESASL and 99.50% for ASLCNN), underlining their reliability.
dc.identifier.uri http://depotucbet.univ-eltarf.dz:4000/handle/123456789/2332
dc.language.iso fr
dc.publisher université chadli ben djedid eltarf
dc.title Annotation des images par une méthode d’apprentissage profond.
dc.type Thesis
dspace.entity.type
Files
Original bundle
Now showing 1 - 1 of 1
No Thumbnail Available
Name:
Memoire_V3finale.pdf
Size:
9.98 MB
Format:
Adobe Portable Document Format
Description:
License bundle
Now showing 1 - 1 of 1
No Thumbnail Available
Name:
license.txt
Size:
1.71 KB
Format:
Item-specific license agreed to upon submission
Description:
Collections