Olivier Petit
Segmentation sémantique d'images médicales 3D par deep learning Le deep learning a récemment connu des succès opérationnels historiques pour la reconnaissance visuelle, notamment à travers les performances spectaculaires obtenues par les réseaux de neurones convolutifs (ConvNets) au challenge ImageNet 2012. Les méthodes de deep learning ont ainsi redéfini l'état de l'art sur l'ensemble des problématiques liées à la reconnaissance visuelle. Naturellement, l'analyse d'images médicales s'est tournée vers ces méthodes pour toute sorte de tâche dont la segmentation sémantique. L'objectif de cette thèse est la recherche d'algorithmes basés sur l'apprentissage profond (deep learning) pour la segmentation automatique d'images médicales 3D, ce qui consiste à assigner un label (e.g. foie, estomac, pancréas, tumeur, fond) à chaque voxel d'un volume. Le but est de mettre en place des méthodes suffisamment générales pour traiter différents types d'organes tout en gardant des performances permettant un déploiement automatique ou semi-automatique. La rapidité de traitement (temps réel) des volumes est un aspect important du projet.
2022
Articles de revue
- 3D Spatial Priors for Semi-Supervised Organ Segmentation with Deep Convolutional Neural Networks. In International Journal of Computer Assisted Radiology and Surgery, 17 (1): 129-139, 2022. doi www
2021
Articles de revue
- Iterative Confidence Relabeling with Deep ConvNets for Organ Segmentation with Partial Labels. In Computerized Medical Imaging and Graphics: 101938, 2021. doi www
Articles de conférence
- U-Net Transformer: Self and Cross Attention for Medical Image Segmentation. In MICCAI workshop MLMI, Strasbourg (virtuel), France, 2021. www
2018
Articles de conférence
- Handling Missing Annotations for Semantic Segmentation with Deep ConvNets. In DLMIA 2018, ML-CDS 2018: Deep Learning in Medical Image Analysis and Multimodal Learning for Clinical Decision Support, pages 20-28, Springer, Grenade, Spain, Lecture Notes in Computer Science book series (LNIP,volume 11045) , 2018. doi www