La vitrine de diffusion des mémoires et thèses de l'ÉTS
RECHERCHER

Normalisation réaliste d’images médicales pour de la segmentation multi-domaine

Téléchargements

Téléchargements par mois depuis la dernière année

Delisle, Pierre-Luc (2021). Normalisation réaliste d’images médicales pour de la segmentation multi-domaine. Mémoire de maîtrise électronique, Montréal, École de technologie supérieure.

[thumbnail of DELISLE_Pierre_Luc.pdf]
Prévisualisation
PDF
Télécharger (4MB) | Prévisualisation

Résumé

Les réseaux de neurones profonds sont au cœur de l’actualité scientifique depuis maintenant plusieurs années. Les progrès accomplis dans le domaine de la recherche fondamentale se sont transposés dans des applications dans le domaine médical. La classification automatique des voxels dans une image médicale à l’aide d’un réseau de neurones convolutif permet entre autres de suivre le développement d’un organe ou l’évolution d’une maladie.

L’accessibilité des données d’imagerie médicale à des fins d’entraînement d’algorithmes d’apprentissage automatique est une principale limitation inhérente au domaine. En raison du coût et de l’expertise requis afin d’annoter des ensembles de données, ces derniers ne sont généralement composés que de quelques images. Cela a un impact direct sur la capacité de généralisation des algorithmes d’apprentissage. Un des moyens de remédier à cette disponibilité limitée se trouve dans la normalisation d’ensembles de données issus de plusieurs domaines d’imagerie. Un domaine d’imagerie peut être un site où l’image est acquise, un protocole d’imagerie ou encore le type d’équipement servant à l’acquisition de l’image médicale. Les approches conventionnelles de normalisation couramment utilisées sont basées sur la normalisation en fonction d’un seul ensemble de données. Toutefois, cette stratégie ne peut exploiter l’information structurelle et l’information intrinsèque des échelles d’intensités aux images issues de plusieurs ensembles de données. Par conséquent, ignorer ces informations entraine une performance suboptimale pour un algorithme de segmentation. La correction des intensités des images par un processus de normalisation intelligent qui aligne les distributions des tissus sur une échelle commune entre les ensembles de données permettrait l’apprentissage d’une tâche à partir de plusieurs ensembles de données différents. Cela aurait pour conséquences d’améliorer la disponibilité des données et la capacite de généralisation des algorithmes d’apprentissage.

Ce travail propose une nouvelle méthode de normalisation conjointe a la segmentation. Cette méthode est apprise à l’aide d’une architecture orientée à la fois par les données et par une tâche. Dans notre méthode, trois réseaux s’entraînent simultanément afin d’apprendre la relation entre une image d’entrée issue d’un domaine d’imagerie quelconque et une sortie normalisée. La fonction de transfert optimale liant les distributions d’intensités des images à travers les différents jeux de données est ainsi apprise. Elle a pour but de produire non seulement une carte de segmentation précise, mais également des images intermédiaires normalisées médicalement réalistes et interprétables. Les images sont dites réalistes puisque les changements apportés à l’image n’affectent ni les structures ni sa capacite à être interprétée par un clinicien. Ces caractéristiques importantes recherchées entre autres afin de rendre compréhensible l’image intermédiaire produite, sont rendues possibles par une architecture antagoniste pourvue d’un générateur d’images normalisées et un discriminateur de domaines. Il s’agit d’une architecture simple et évolutive en fonction du nombre de domaines d’imagerie.

La performance de notre méthode est évaluée à l’aide de trois ensembles de données composés de sujets enfants et adultes, soit iSEG, MRBrainS et ABIDE. Les résultats révèlent le potentiel de notre méthode de normalisation pour une tâche de segmentation avec une amélioration de l’indice Dice allant jusqu’à 57,5% par rapport à nos résultats de base consistant en l’apprentissage et le test d’un algorithme de segmentation sur des ensembles de données issus de domaines différents. Notre méthode permet de s’attaquer directement au problème de disponibilité des données en permettant l’apprentissage simultané sur plusieurs domaines d’imagerie différents.

Titre traduit

Realistic image normalization for multi-domain segmentation

Résumé traduit

Deep neural networks have repeatedly made the headlines of scientific news in recent years. The progress made in fundamental research in the last decades have now been transposed into applications in the medical domain. The automatic classification of voxels in medical images using Convolutional Neural Networks (CNNs) allows, among other things, to follow the development of an organ or the evolution of a disease.

Availability of medical imaging data for training learning algorithms have been an inherent limitation of the domain. The high cost and expertise required to annotate images to produce the segmentation ground truth are facts making datasets small, often composed of only a few images. This directly impacts the generalization capability of learning algorithms. A way to alleviate this limited availability is in image normalization accross multiple imaging domains. An imaging domain can be the site where the image is acquired, an imaging protocol or the type of machinery used to acquire the image. Conventional approaches are customarily utilized on a per-dataset basis. This strategy, however, prevents the current normalization algorithms from fully exploiting the intrinsic joint structual information and intensity scales available across multiple datasets. Consequently, ignoring such joint information has a direct impact on the performance of segmentation algorithms. The correction of the image’s intensities by an intelligent normalization process that aligns the tissues’ distributions on a common scale could allow the learning of a specific task over many different datasets. This could have for consquence to improve the data availability and the generalization capacity of learning algorithms.

This paper proposes to revisit the conventional image normalization approach by instead learning a common normalizing function across multiple datasets. Jointly normalizing multiple datasets is shown to yield consistent normalized images as well as an improved image segmentation. In our method, three networks are trained simultaneously to learn the relation between an image of any domain and a normalized output. The optimal transfer function binding the image intensities across the different datasets is learned. This function has for goal to output a precise segmentation map and realistic normalized intermediate image. The images are said realistic because the changes made by the function doesn’t affect neither the structures nor the capacity of the image to be interpreted by a clinician. These important characteristics sought in order to make the intermediate image produced understandable are made possible by using an adversarial architecture. It’s a simple, yet scalable architecture which complexity doesn’t increase when increasing the number of imaging domains.

We evaluated the performance of our normalizer on both infant and adult brain images from the iSEG, MRBrainS and ABIDE datasets. Results reveal the potential of our normalization approach for segmentation, with Dice improvements of up to 57.5% over our baseline which consists of training and testing a segmentation algorithm using different datasets. Our method can also enhance data availability by increasing the number of samples available when learning from multiple imaging domains.

Type de document: Mémoire ou thèse (Mémoire de maîtrise électronique)
Renseignements supplémentaires: "Mémoire présenté à l’École de technologie supérieure comme exigence partielle à l’obtention de la maîtrise avec mémoire en concentration génie des technologies de l’information". Comprend des références bibliographiques (pages 83-90).
Mots-clés libres: IRM 3D, segmentation du cerveau, réseau de neurones antagonistes, normalisation d’intensités
Directeur de mémoire/thèse:
Directeur de mémoire/thèse
Lombaert, Hervé
Codirecteur:
Codirecteur
Desrosiers, Christian
Programme: Maîtrise en ingénierie > Génie des technologies de l'information
Date de dépôt: 05 nov. 2021 16:59
Dernière modification: 05 nov. 2021 16:59
URI: https://espace.etsmtl.ca/id/eprint/2777

Gestion Actions (Identification requise)

Dernière vérification avant le dépôt Dernière vérification avant le dépôt