Vous êtes ici : Accueil > Directeurs de thèse > Carré Philippe

Carré Philippe

Les thèses encadrées par "Carré Philippe"

Pour être informé de la mise en ligne des nouvelles thèses correspondant à la recherche effectuée, abonnez-vous au flux RSS : rss

accès internet    accès intranet    confidentialité
10 ressources ont été trouvées. Voici les résultats 1 à 10
Tri :   Date Auteur Titre thèses par page
  • Face analysis using polynomials    - Bordei Cristina  -  03 mars 2016

    Voir le résumé
    Voir le résumé
    Considéré comme l'un des sujets de recherche les plus actifs et visibles de la vision par ordinateur, de la reconnaissance des formes et de la biométrie, l'analyse faciale a fait l'objet d'études approfondies au cours des deux dernières décennies. Le travail de cette thèse a pour objectif de proposer de nouvelles techniques d'utilisation de représentations de texture basées polynômes pour l'analyse faciale.
    La première partie de cette thèse est dédiée à l'intégration de bases de polynômes dans les modèles actifs d'apparence. Nous proposons premièrement une manière d'utiliser les coefficients polynomiaux dans la modélisation de l'apparence. Ensuite, afin de réduire la complexité du modèle nous proposons de choisir et d'utiliser les meilleurs coefficients en tant que représentation de texture. Enfin, nous montrons comment ces derniers peuvent être utilisés dans un algorithme de descente de gradient.
    La deuxième partie de la thèse porte sur l'utilisation des bases polynomiales pour la détection des points/zones d'intérêt et comme descripteur pour la reconnaissance des expressions faciales. Inspirés par des techniques de détection des singularités dans des champ de vecteurs, nous commençons par présenter un algorithme utilisé pour l'extraction des points d'intérêt dans une image. Puis nous montrons comment les bases polynomiales peuvent être utilisées pour extraire des informations sur les expressions faciales. Puisque les coefficients polynomiaux fournissent une analyse précise multi-échelles et multi-orientation et traitent le problème de redondance efficacement ils sont utilisés en tant que descripteurs dans un algorithme de classification d'expression faciale.

  • Graph-based registration for biomedical images    - Pham Hong Nhung  -  11 février 2019

    Voir le résumé
    Voir le résumé
    Le contexte de cette thèse est le recalage d'images endomicroscopiques. Le microendoscope multiphotonique fournit différentes trajectoires de balayage que nous considérons dans ce travail. Nous proposons d'abord une méthode de recalage non rigide dont l'estimation du mouvement est transformée en un problème d'appariement d'attributs dans le cadre des Log-Demons et d'ondelettes sur graphes. Nous étudions les ondelettes de graphe spectral (SGW) pour capturer les formes des images, en effet, la représentation des données sur les graphes est plus adaptée aux données avec des structures complexes. Nos expériences sur des images endomicroscopiques montrent que cette méthode est supérieure aux techniques de recalage d'images non rigides existantes. Nous proposons ensuite une nouvelle stratégie de recalage d'images pour les images endomicroscopiques acquises sur des grilles irrégulières. La transformée en ondelettes sur graphe est flexible et peut être appliquée à différents types de données, quelles que soient la densité de points et la complexité de la structure de données. Nous montrons également comment le cadre des Log-Demons peut être adapté à l'optimisation de la fonction objective définie pour les images acquises avec un échantillonnage irrégulier.

  • Parametric and Stochastic Characterization of Color Textures    - Kaseb Mohamed  -  14 décembre 2021

    Voir le résumé
    Voir le résumé
    La thématique générale de cette thèse était la caractérisation paramétrique et stochastique de textures couleur. En traitement d'image, le terme « texture » renvoie de façon générale à toutes les propriétés structurelles d'une image, sa régularité, ses motifs, sa granulosité etc. L'objectif de l'analyse de texture est de caractériser numériquement ces propriétés, notamment à l'aide de modélisations déterministes ou stochastiques. Actuellement, on a souvent recours aux statistiques du second ordre pour caractériser les textures, mais celles-ci se révèlent souvent insuffisantes pour décrire leur structure locale. L'objectif de la thèse était donc une caractérisation plus précise des textures, en s’appuyant sur des techniques issues du traitement du signal, des probabilités et de l’identification des systèmes. Une attention particulière a été portée au traitement de la couleur. Un premier axe de recherche a consisté en l’utilisation d’algorithmes d’identification de modèle afin de reconstruire les parties manquantes de textures couleur structurellement homogènes. Les paramètres du modèle étaient extraits des zones connues de la texture, puis un morceau de texture d’aspect similaire mais non directement copié des données disponibles était généré à partir de cette estimation afin de combler la zone masquée. Un des atouts essentiels du modèle utilisé était son traitement des trois canaux couleur de l’image comme un vecteur dynamique et non trois signaux scalaires indépendants. En effet, nos résultats ont montré que cette approche vectorielle avait un impact direct sur la qualité de la reconstruction de la couleur. Si cette approche a fourni des résultats pertinents dans la complétion de texture, elle ne parvenait qu’à capter la dynamique générale de l’image et échouait à en extraire sa structure locale. C’est ce qui a motivé l’utilisation de l’outil monogène, dont les mesures d’énergie, structure et orientation locales avaient déjà fait leurs preuves dans des domaines tels l’interférométrie, la démodulation d’hologramme ou l’imagerie médicale. Avant d’être appliqué à la couleur, le signal monogène a d’abord été étudié dans le cas scalaire, en particulier l’estimation locale de phase et d’orientation qu’il fournit. Nos travaux ont ainsi établi des résultats théoriques garantissant la fiabilité de l’extraction de ces grandeurs, aussi bien dans le cas de textures déterministes que de champs aléatoires. Le modèle utilisé pour générer des champs aléatoires était le bruit de Gabor, choisi pour le contrôle direct du contenu fréquentiel de la texture qu’il fournit. Dans les deux cas, déterministe et stochastique, l’application à des textures réelles confirmait les attentes de la théorie, à savoir la qualité de la caractérisation monogène de la structure locale dans le cas de textures contenant des motifs d’oscillation clairs. Après avoir illustré la pertinence de l’outil monogène dans la caractérisation de la structure locale de textures grises, nous avons généralisé ces résultats à des textures couleur. Pour cela, nous avons utilisé l’approche elliptique des signaux oscillants multivariés, qui a pour avantage de fournir un lien direct entre ses paramètres et le contenu couleur de la texture générée. Un premier objectif était de définir proprement un modèle de synthèse de texture couleur aléatoire, ce qui a été possible en fusionnant l’approche elliptique et les bruits de Gabor. Il en résultait un contrôle du contenu fréquentiel de l’image générée, mais aussi des couleurs présentes. L’outil monogène a ensuite été appliqué dans un but à la fois d’analyse et d’évaluation de la synthèse. Nous avons alors montré que le signal monogène fournissait un moyen fiable de caractériser la richesse du contenu couleur d’une texture stochastique. Par ailleurs, dans le cadre de la synthèse de texture, la mesure de phase local a permis de définir un critère de qualité de la texture couleur générée, notamment grâce à sa capacité à détecter les artéfacts.

  • Quality strategy and method for transmission : application to image    - Xie Xinwen  -  10 janvier 2019

    Voir le résumé
    Voir le résumé
    Cette thèse porte sur l’étude des stratégies d’amélioration de la qualité d’image dans les systèmes de communication sans fil et sur la conception de nouvelles métriques d’évaluation de la qualité. Tout d'abord, une nouvelle métrique de qualité d'image à référence réduite, basée sur un modèle statistique dans le domaine des ondelettes complexes, a été proposée. Les informations d’amplitude et de phase relatives des coefficients issues de la transformée en ondelettes complexes sont modélisées à l'aide de fonctions de densité de probabilité. Les paramètres associés à ces fonctions constituent la référence réduite qui sera transmise au récepteur. Ensuite, une approche basée sur les réseaux de neurones à régression généralisée est exploitée pour construire la relation de cartographie entre les caractéristiques de la référence réduite et le score objectif. Deuxièmement, avec la nouvelle métrique, une nouvelle stratégie de décodage est proposée pour la transmission d’image sur un canal de transmission sans fil réaliste. Ainsi, la qualité d’expérience (QoE) est améliorée tout en garantissant une bonne qualité de service (QoS). Pour cela, une nouvelle base d’images a été construite et des tests d’évaluation subjective de la qualité de ces images ont été effectués pour collecter les préférences visuelles des personnes lorsqu’elles sélectionnent les images avec différentes configurations de décodage. Un classificateur basé sur les algorithmes SVM et des k plus proches voisins sont utilisés pour la sélection automatique de la meilleure configuration de décodage. Enfin, une amélioration de la métrique a été proposée permettant de mieux prendre en compte les spécificités de la distorsion et la préférence des utilisateurs. Pour cela, nous avons combiné les caractéristiques globales et locales de l’image conduisant ainsi à une amélioration de la stratégie de décodage. Les résultats expérimentaux valident l'efficacité des métriques de qualité d'image et des stratégies de transmission d’images proposées.

  • Détection de points d'intérêts dans une image multi ou hyperspectral par acquisition compressée    - Rousseau Sylvain  -  02 juillet 2013

    Voir le résumé
    Voir le résumé
    Les capteurs multi- et hyper-spectraux génèrent un énorme flot de données. Un moyen de contourner cette difficulté est de pratiquer une acquisition compressée de l'objet multi- et hyper-spectral. Les données sont alors directement compressées et l'objet est reconstruit lorsqu'on en a besoin. L'étape suivante consiste à éviter cette reconstruction et à travailler directement avec les données compressées pour réaliser un traitement classique sur un objet de cette nature. Après avoir introduit une première approche qui utilise des outils riemanniens pour effectuer une détection de contours dans une image multispectrale, nous présentons les principes de l'acquisition compressée et différents algorithmes utilisés pour résoudre les problèmes qu'elle pose. Ensuite, nous consacrons un chapitre entier à l'étude détaillée de l'un d'entre eux, les algorithmes de type Bregman qui, par leur flexibilité et leur efficacité vont nous permettre de résoudre les minimisations rencontrées plus tard. On s'intéresse ensuite à la détection de signatures dans une image multispectrale et plus particulièrement à un algorithme original du Guo et Osher reposant sur une minimisation L1. Cet algorithme est généralisé dans le cadre de l'acquisition compressée. Une seconde généralisation va permettre de réaliser de la détection de motifs dans une image multispectrale. Et enfin, nous introduirons de nouvelles matrices de mesures qui simplifie énormément les calculs tout en gardant de bonnes qualités de mesures.

  • Évaluation du contenu d'une image couleur par mesure basée pixel et classification par la théorie des fonctions de croyance    - Guettari Nadjib  -  10 juillet 2017

    Voir le résumé
    Voir le résumé
    De nos jours, il est devenu de plus en plus simple pour qui que ce soit de prendre des photos avec des appareils photo numériques, de télécharger ces images sur l'ordinateur et d'utiliser différents logiciels de traitement d'image pour appliquer des modification sur ces images (compression, débruitage, transmission, etc.). Cependant, ces traitements entraînent des dégradations qui influent sur la qualité visuelle de l'image. De plus, avec la généralisation de l'internet et la croissance de la messagerie électronique, des logiciels sophistiqués de retouche d'images se sont démocratisés permettant de falsifier des images à des fins légitimes ou malveillantes pour des communications confidentielles ou secrètes. Dans ce contexte, la stéganographie constitue une méthode de choix pour dissimuler et transmettre de l'information. Dans ce manuscrit, nous avons abordé deux problèmes : l'évaluation de la qualité d'image et la détection d'une modification ou la présence d'informations cachées dans une image. L'objectif dans un premier temps est de développer une mesure sans référence permettant d'évaluer de manière automatique la qualité d'une image en corrélation avec l'appréciation visuelle humaine. Ensuite proposer un outil de stéganalyse permettant de détecter, avec la meilleure fiabilité possible, la présence d'informations cachées dans des images naturelles. Dans le cadre de cette thèse, l'enjeu est de prendre en compte l'imperfection des données manipulées provenant de différentes sources d'information avec différents degrés de précision. Dans ce contexte, afin de profiter entièrement de l'ensemble de ces informations, nous proposons d'utiliser la théorie des fonctions de croyance. Cette théorie permet de représenter les connaissances d'une manière relativement naturelle sous la forme d'une structure de croyances. Nous avons proposé une nouvelle mesure sans référence d'évaluation de la qualité d'image capable d'estimer la qualité des images dégradées avec de multiple types de distorsion. Cette approche appelée wms-EVreg2 est basée sur la fusion de différentes caractéristiques statistiques, extraites de l'image, en fonction de la fiabilité de chaque ensemble de caractéristiques estimée à travers la matrice de confusion. À partir des différentes expérimentations, nous avons constaté que wms-EVreg2 présente une bonne corrélation avec les scores de qualité subjectifs et fournit des performances de prédiction de qualité compétitives par rapport aux mesures avec référence. Pour le deuxième problème abordé, nous avons proposé un schéma de stéganalyse basé sur la théorie des fonctions de croyance construit sur des sous-espaces aléatoires des caractéristiques. La performance de la méthode proposée a été évaluée sur différents algorithmes de dissimulation dans le domaine de transformé JPEG ainsi que dans le domaine spatial. Ces tests expérimentaux ont montré l'efficacité de la méthode proposée dans certains cadres d'applications. Cependant, il reste de nombreuses configurations qui résident indétectables.

  • Extension de l'analyse multi-résolution aux images couleurs par transformées sur graphes    - Malek Mohamed  -  10 décembre 2015

    Voir le résumé
    Voir le résumé
    Dans ce manuscrit, nous avons étudié l’extension de l’analyse multi-résolution aux images couleurs par des transformées sur graphe. Dans ce cadre, nous avons déployé trois stratégies d’analyse différentes. En premier lieu, nous avons défini une transformée basée sur l’utilisation d’un graphe perceptuel dans l’analyse à travers la transformé en ondelettes spectrale sur graphe. L’application en débruitage d’image met en évidence l’utilisation du SVH dans l’analyse des images couleurs. La deuxième stratégie consiste à proposer une nouvelle méthode d’inpainting pour des images couleurs. Pour cela, nous avons proposé un schéma de régularisation à travers les coefficients d’ondelettes de la TOSG, l’estimation de la structure manquante se fait par la construction d’un graphe des patchs couleurs à partir des moyenne non locales. Les résultats obtenus sont très encourageants et mettent en évidence l’importance de la prise en compte du SVH. Dans la troisième stratégie, nous proposons une nouvelle approche de décomposition d’un signal défini sur un graphe complet. Cette méthode est basée sur l’utilisation des propriétés de la matrice laplacienne associée au graphe complet. Dans le contexte des images couleurs, la prise en compte de la dimension couleur est indispensable pour pouvoir identifier les singularités liées à l’image. Cette dernière offre de nouvelles perspectives pour une étude approfondie de son comportement.

  • Indexation bio-inspirée pour la recherche d'images par similarité    - Michaud Dorian  -  16 octobre 2018

    Voir le résumé
    Voir le résumé
    La recherche d'images basée sur le contenu visuel est un domaine très actif de la vision par ordinateur, car le nombre de bases d'images disponibles ne cesse d'augmenter. L’objectif de ce type d’approche est de retourner les images les plus proches d'une requête donnée en terme de contenu visuel. Notre travail s'inscrit dans un contexte applicatif spécifique qui consiste à indexer des petites bases d'images expertes sur lesquelles nous n'avons aucune connaissance a priori. L’une de nos contributions pour palier ce problème consiste à choisir un ensemble de descripteurs visuels et de les placer en compétition directe. Nous utilisons deux stratégies pour combiner ces caractéristiques : la première, est pyschovisuelle, et la seconde, est statistique. Dans ce contexte, nous proposons une approche adaptative non supervisée, basée sur les sacs de mots et phrases visuels, dont le principe est de sélectionner les caractéristiques pertinentes pour chaque point d'intérêt dans le but de renforcer la représentation de l'image. Les tests effectués montrent l'intérêt d'utiliser ce type de méthodes malgré la domination des méthodes basées réseaux de neurones convolutifs dans la littérature. Nous proposons également une étude, ainsi que les résultats de nos premiers tests concernant le renforcement de la recherche en utilisant des méthodes semi-interactives basées sur l’expertise de l'utilisateur.

  • Ondelettes analytiques et monogènes pour la représentation des images couleur    - Soulard Raphaël  -  19 novembre 2012

    Voir le résumé
    Voir le résumé
    De nombreux algorithmes de traitement d'image numérique (compression, restauration, analyse) sont basés sur une représentation en ondelettes. Les outils mathématiques disponibles étant souvent pensés pour des signaux 1D à valeurs scalaires (comme le son), ils sont mal adaptés aux signaux 2D vectoriels comme les images couleur. Les méthodes les plus répandues utilisent ces outils indépendamment sur chaque ligne et chaque colonne (méthodes « séparables »), de chaque plan couleur (méthode « marginale ») de l'image. Ces techniques trop simples ne donnent pas accès aux informations visuelles élémentaires, aboutissant à des traitements qui risquent d'introduire des artefacts rectangulaires et de fausses couleurs. Notre axe de recherche se situe autour des représentations analytiques qui utilisent un modèle oscillatoire des signaux. Ces outils de traitement du signal sont connus pour être bien adaptés à la perception humaine (auditive et visuelle), et leur extension à des dimensions supérieures est un sujet encore très actif, qui révèle des propriétés intéressantes pour l'analyse de la géométrie locale. Dans cette thèse, nous faisons une revue des ondelettes analytiques existantes pour l'image en niveaux de gris (dites complexes, quaternioniques et monogènes), et nous proposons des expérimentations qui valident leur intérêt pratique. Nous définissons ensuite une extension vectorielle qui permet de manipuler facilement le contenu géométrique d'une image couleur, ce que nous validons à travers des expérimentations en codage et analyse d'image.

  • Protection des contenus multimédias pour la certification des données    - Lefèvre Pascal  -  15 juin 2018

    Voir le résumé
    Voir le résumé
    Depuis plus de vingt ans, l'accès à la technologie est devenu très facile étant donné son omniprésence dans le quotidien de chacun et son faible coût. Cet accès aux technologies du numérique permet à toute personne équipée d'un ordinateur ou d'un smartphone de visualiser et de modifier des contenus digitaux. Avec les progrès en matière de stockage en ligne, la quantité de contenus digitaux tels que le son, l'image ou la vidéo sur internet a explosé et continue d'augmenter. Savoir identifier la source d'une image et certifier si celle-ci a été modifiée ou non sont des informations nécessaires pour authentifier une image et ainsi protéger la propriété intellectuelle et les droits d’auteur par exemple. Une des approches pour résoudre ces problèmes est le tatouage numérique. Il consiste à insérer une marque dans une image qui permettra de l'authentifier. Dans cette thèse, nous étudions premièrement le tatouage numérique dans le but de proposer des méthodes plus robustes aux modifications d'image grâce aux codes correcteurs. En étudiant la structure des erreurs produites par la modification d’une image marquée, un code correcteur sera plus efficace qu’un autre. Nous proposons aussi d’intégrer de nouveaux codes correcteurs appelés codes en métrique rang pour le tatouage. Ensuite, nous proposons d’améliorer l'invisibilité des méthodes de tatouage pour les images couleur. A l’insertion d’une marque, les dégradations de l’image sont perçues différemment par le système visuel humain en fonction de la couleur. Nous proposons un modèle biologique de la perception des couleurs qui nous permet de minimiser les distorsions psychovisuelles de l’image à l’insertion. Toutes ces techniques sont testées sur des images naturelles dans un contexte d’insertion d’information.

|< << 1 >> >| thèses par page

Haut de page


  • Avec le service Ubib.fr, posez votre question par chat à un bibliothécaire dans la fenêtre ci-dessous :


    ou par messagerie électronique 7j/7 - 24h/24h, une réponse vous sera adressée sous 48h.
    Accédez au formulaire...
 
 

Université de Poitiers - 15, rue de l'Hôtel Dieu - 86034 POITIERS Cedex - France - Tél : (33) (0)5 49 45 30 00 - Fax : (33) (0)5 49 45 30 50
these@support.univ-poitiers.fr - Crédits et mentions légales