Chanane, Hassen (2022). Classification des sons respiratoires par réseaux de neurones à apprentissage profond. Mémoire. Rimouski, Université du Québec à Rimouski, Département de mathématiques, informatique et génie, 100 p.
Prévisualisation |
PDF
Télécharger (6MB) | Prévisualisation |
Résumé
RÉSUMÉ : L'auscultation des sons respiratoires à l'aide d'un stéthoscope reste essentielle pour l'examen clinique pulmonaire en raison de sa nature non invasive. Bien que son efficacité et sa simplicité fournissent des informations essentielles aux médecins, cette technique demeure limitée par certains inconvénients, notamment par sa subjectivité qui dépendra toujours de la perception auditive des médecins, de leur expérience et de leur capacité à différencier les caractéristiques des différents sons. Selon l'organisation mondiale de la santé (OMS), les maladies respiratoires représentent la troisième cause de décès dans le monde. La détection de sons adventices tels que des crépitants ou des sibilants pendant l'auscultation est un aspect essentiel de l'examen médical pour diagnostiquer les maladies respiratoires. Dans ce projet de recherche, nous avons développé un système basé sur l'apprentissage profond pour la classification des sons pulmonaires adventices qui peut être intégré dans un outil de diagnostic médical intelligent. Une méthodologie en trois phases est adoptée pour atteindre l'objectif de cette étude. La première consiste à réaliser une étude comparative pour évaluer l'impact de plusieurs types de représentations temps-fréquence sur les performances de classification de sons respiratoires. Cette étude se base sur l'hypothèse selon laquelle les représentations temps-fréquence sont riches en caractéristiques temporelles et fréquentielles servant à différencier chaque classe de sons respiratoires. La deuxième phase consiste à trouver une architecture optimale d'un réseau de neurones convolutif (CNN) qui tienne compte du compromis entre les contraintes de mémoire et les performances de classification de sons respiratoires. Pour ces raisons, nous avons développé notre propre modèle. À partir des résultats obtenus, nous avons pu constater deux points essentiels. Premièrement, un modèle avec plus de couches sera capable d'apprendre plus de caractéristiques abstraites. Cependant, ce modèle sera également plus vulnérable au surapprentissage, car la nature de nos images n'est pas complexe en termes de caractéristiques, mais très sensible en raison de la présence de bruit de fond. Deuxièmement, étant donné le nombre limité d'échantillons de l'apprentissage dans certaines classes de données, le processus de classification devient plus compliqué. Enfin, la troisième étape explore l'influence de l'ajustement des hyperparamètres de réseau CNN, de l'augmentation des données et des techniques de régularisation des données sur la diminution des erreurs de généralisation afin d'éviter le surapprentissage. Pour comparer les résultats des différentes expériences, nous avons adopté l'usage de la matrice de confusion comme critère spécifique requis par le défi ICBHI 2017 pour évaluer les performances de la classification. Les résultats expérimentaux montrent que notre approche surpasse les méthodes concurrentes dans la tâche de classification de sons respiratoires en quatre classes. -- Mot(s) clé(s) en français : Apprentissage profond, Réseau CNN, Sons respiratoires, Classification des sons respiratoires, Sibilants, Crépitants, Représentations temps-fréquence, Décomposition en modes empiriques. --
ABSTRACT : Auscultation of lung sounds using a stethoscope remains vital for clinical assessment due to its non-invasive nature. Nevertheless, its efficiency and simplicity provide essential information for physicians, yet it still has some drawbacks since this subjective method will always depend on the auditory perception among physicians, experience, and ability to differentiate sound patterns. According to the world health organization (WHO), respiratory diseases represent the third globally leading cause of death. The detection of abnormal sounds such as crackles or wheezes during auscultation is an essential aspect of the medical examination to diagnose respiratory diseases. In this research project, we have developed a deep learning-based system for abnormal lung sounds classification that may contribute to designing an advanced medical-assistance system to diagnose lung sounds. A three-phase methodology is adopted to achieve this objective. The first phase consists of a comparative study to evaluate the impact of several types of time-frequency representations on the classification performances of respiratory sounds. This study is based on the hypothesis that the time-frequency representations are rich in both frequency and temporal features serving to differentiate each class of breath sounds. The second phase involves finding a suitable convolutional neural network (CNN) architecture that considers the trade-off between memory constraints and classification performance. For those reasons, we have developed our proper model. From the obtained results, we were able to identify two key points. Firstly, a model with more layers will be able to learn more abstract features. However, such a model is likely to become vulnerable to overfitting since the nature of our data is not complex in terms of features, but very sensitive due to the presence of background noise. Secondly, given the limited number of training samples in some data classes, the classification process becomes more complicated. Finally, the third step explores the influence of CNN network's hyper-parameters, data augmentation, and data regularization techniques on decreasing generalization errors to prevent overfitting. To compare the results of the different experiments, we have adopted the use of the confusion matrix as specific criteria required by the ICBHI 2017 challenge to evaluate the classification performances. The experimental results show that our approach outperforms competing methods in the task of classifying breath sounds into four classes. -- Mot(s) clé(s) en anglais : Deep Learning, CNN network, Respiratory sounds, Classification of respiratory sounds, Wheezes, Crackles, Time Frequency Representations, Empirical Mode Decomposition.
Type de document : | Thèse ou mémoire de l'UQAR (Mémoire) |
---|---|
Directeur(trice) de mémoire/thèse : | Bahoura, Mohammed |
Information complémentaire : | Mémoire présenté dans le cadre du programme de maîtrise en ingénierie en vue de l'obtention du grade de maître ès sciences appliquées (M. Sc. A.). |
Mots-clés : | Appareil respiratoire; Bruits; Sons; Classification; Auscultation; Sibilances; Cépitants; Apprentissage profond; Réseaux neuronaux (Informatique); Diagnostic. |
Départements et unités départementales : | Département de mathématiques, informatique et génie > Génie |
Déposé par : | DIUQAR UQAR |
Date de dépôt : | 06 mars 2023 18:22 |
Dernière modification : | 06 mars 2023 18:22 |
URI : | https://semaphore.uqar.ca/id/eprint/2092 |
Actions (administrateurs uniquement)
Éditer la notice |