Mémoires (HDR, thèse et DEA)

J'ai soutenu en octobre 2018 à l'Université Bourgogne Franche-Comté une HDR intitulée On the use of neural networks to solve problems. From multilayer perceptron to deep learning and reservoir computing, dont voici le résumé :

Depuis l'introduction du perceptron à la fin des années 1950, les réseaux de neurones ont alterné des périodes d'avancée et de stagnation, devenant aujourd'hui l'approche de référence pour la résolution de très nombreux problèmes de classification ou de prédiction. L'algorithme de rétropropagation du gradient donna ainsi lieu à l'âge des réseaux de neurones multicouches. Plus récemment, il y a eu une renaissance avec l'avènement de la famille des réseaux de neurones profonds plus communément connue sous le terme de deep learning. Les travaux de recherche décrits dans ce manuscrit reflètent, d'une part ces évolutions architecturales et d'autre part la grande capacité des réseaux de neurones à résoudre des problèmes dans des domaines variés. Dans une première partie nous montrons qu'un perceptron multicouche est une architecture permettant de simuler le mouvement pulmonaire, en étant capable de prédire la trajectoire d'un ensemble de points caractéristiques, de remplacer un programme de calcul de la mécanique des fluides pour le contrôle actif de flux d'air, et enfin de construire des réseaux de neurones chaotiques. Dans la seconde partie, nous exploitons des réseaux de neurones convolutionnels (une architecture phare du deep learning) afin de détecter si une image embarque ou non un message caché, l'approche de stéganalyse obtenue était lors de sa publication la plus performante. Nous proposons ensuite un réseau complètement convolutionnel pour le débruitage d'images, à savoir un encodeur-décodeur capable de traiter plusieurs types de bruits. Pour finir, dans le cadre des travaux sur le paradigme du Reservoir Computing menés au sein de notre institut de recherche, nous étudions l'application des Echo State Networks, une architecture récurrente, sur un problème de reconnaissance de chiffres manuscrits (le problème benchmark du MNIST).

J'ai soutenu en décembre 2001 à l'Université Louis Pasteur de Strasbourg une thèse intitulée Etude de la parallélisation de méthodes heuristiques d'optimisation combinatoire. Application au recalage d'images médicales, sous la direction des Professeurs Guy-René Perrin et Fabrice Heitz. Dans cette thèse, je me suis intéressé plus particulièrement au modèle de programmation data-parallèle. Deux mises en oeuvre suivant ce modèle furent proposées pour deux algorithmes d'optimisation: l'évolution différentielle et l'équation de la diffusion. L'évolution différentielle a été elle utilisée pour résoudre le problème du recalage rigide, tandis que l'équation de la diffusion était focalisé sur le recalage déformable. Les images considérées étaient des IRM 3D ayant une résolution de 128 ou 256 voxels.

Lors du stage de DEA j'ai étudié le schéma des algorithmes classiques de compression par ondelettes (transformation en ondelettes pour décorréler les pixels, puis quantification et codage entropique des coefficients), ainsi que deux algorithmes qui utilisent une stratégie de quantification par approximations successives permettant notamment de faire de la transmission progressive d'images. J'ai plus particulièrement implanté une version data-parallèle de l'algorithme pyramidal de calcul rapide de la transformée en ondelettes.