Perla Doubinsky

Doctorant
Site web :
Bureau : 33.1.21

Cette thèse porte sur le contrôle des modèles génératifs pour les scènes visuelles et est supervisée par Michel Crucianu et Nicolas Auderbert du CNAM et par Hervé Le Borgne du CEA-LIST. Une des avancées récentes les plus significatives dans le domaine de l’apprentissage profond concerne les modèles génératifs. Ces modèles sont aujourd’hui capables de synthétiser des images photo-réalistes haute résolution. Jusqu’à présent les travaux autour des modèles génératifs se sont principalement concentrés sur l’extension à la génération d’autres types de données et sur l’amélioration de la qualité et diversité des images générées. Cependant, pour la plupart des applications, les utilisateurs devrait avoir un contrôle significatif sur le contenu généré. La génération conditionnelle tente d’offrir une solution générale à ce problème en permettant aux utilisateurs de fournir une entrée supplémentaire au modèle génératif. D’autres travaux récents proposent de chercher des directions sémantiques dans l’espace latent des modèles génératifs. Ces méthodes fournissent des moyens de contrôler la synthèse d’images mais échouent encore à donner suffisamment de contrôle sur un ensemble vaste de propriétés. Le but de cette thèse sera de définir de nouveaux moyens pour obtenir un contrôle fin sur les images générées sur des propriétés à la fois continues, discrètes ou sur une variable structurée décrivant l’image.

Haut