Annotation des images par une méthode d’apprentissage profond.
Annotation des images par une méthode d’apprentissage profond.
No Thumbnail Available
Date
2024
Authors
KERDOUD Fateh
Journal Title
Journal ISSN
Volume Title
Publisher
université chadli ben djedid eltarf
Abstract
Historiquement, les personnes souffrant de déficiences auditives ont été négligées, ne
disposant pas des outils nécessaires pour faciliter une communication efficace.
Cependant, les progrès de la technologie moderne ont ouvert la voie au développement de
divers outils et logiciels visant à améliorer la qualité de vie des personnes
malentendantes. Ce document de recherche présente une étude complète utilisant deux
modèles distincts d'apprentissage profond pour reconnaître les gestes de la main pour
l'alphabet de la langue des signes américaine (ASL).
L'objectif principal de cette étude était de tirer parti de la technologie contemporaine
pour combler le fossé de la communication entre les personnes malentendantes et les
personnes non malentendantes. Les modèles utilisés dans cette recherche (RESASL et
ASLCNN), ont été entraînés et testés à l'aide d'un dataset comprenant plus de 87 000
images de gestes de la main pour l'alphabet ASL.
Les résultats expérimentaux de notre étude ont révélé que les deux modèles atteignant
un taux de précision exceptionnel de (99,71% pour RESASL et 99,50% pour ASLCNN).
soulignant ainsi leur fiabilité.
Historically, people with hearing impairments have been neglected, lacking the necessary
tools to facilitate effective communication. However, advances in modern technology have
paved the way for the development of various tools and software to improve the quality of
life of people with hearing loss. This research paper presents a comprehensive study
using two distinct deep learning models to recognise hand gestures for the American
Sign Language (ASL) alphabet.
The main objective of this study was to leverage contemporary technology to bridge the
communication gap between people with and without hearing loss. The models used in this
research (RESASL and ASLCNN) were trained and tested using a dataset containing over
87,000 images of hand gestures for the ASL alphabet.
The experimental results of our study revealed that both models achieved an exceptional
accuracy rate of (99.71% for RESASL and 99.50% for ASLCNN), underlining their
reliability.