Vous êtes ici : Accueil > Directeurs de thèse > Fernandez-Maloigne Christine

Fernandez-Maloigne Christine

Les thèses encadrées par "Fernandez-Maloigne Christine"

Pour être informé de la mise en ligne des nouvelles thèses correspondant à la recherche effectuée, abonnez-vous au flux RSS : rss

accès internet    accès intranet    confidentialité
18 ressources ont été trouvées. Voici les résultats 1 à 10
Tri :   Date Auteur Titre thèses par page
  • Hyperspectral texture metrology    - Chu Rui Jian  -  07 juillet 2022

    Voir le résumé
    Voir le résumé
    Soixante ans après les conjectures de Julesz, de nombreuses méthodes d'extraction de caractéristiques de l’aspect texturé ont été publiées. Mais, peu l’ont été à des fins métrologiques. Selon la science de la mesure, une caractéristique doit être développée en conjonction avec la mesure de distance/similarité associée. Dans nos travaux sur la texture hyperspectrale, cela nécessite que la fonctionnalité soit indépendante de la technologie du capteur et donc du nombre de bandes spectrales, de la gamme de longueurs d'onde, etc. La fonctionnalité développée doit donc être générale avec des résultats strictement dépendants du contenu de la texture. Dans ce manuscrit de thèse, nous avons commencé par définir la texture comme la distribution conjointe des propriétés spectrales et spatiales. Alors que la première partie dicte la diversité spectrale ou la distribution des pixels, la second fait référence à la disposition spatiale ou à l'interaction entre les valeurs multivaluées des pixels. En conséquence, nous avons développé une analyse spectrale automatique adaptée à la nature continue du spectre. En travaillant dans l'espace métrique, le besoin de réduction de la dimensionnalité, par ex. l'analyse en composantes principales (ACP), est supprimée. De plus, la sélection de la référence spectrale est entièrement automatisée grâce à la maximisation de l'entropie. Une analogie entre notre approche et l'ACP est établie, la première se révélant plus robuste et fidèle à la physique du spectre. En nous inspirant de la matrice de cooccurrence de niveaux de gris (GLCM) et du motif binaire local (LBP), nous avons ensuite développé une analyse spatiale adaptée aux images d'un nombre quelconque de bandes spectrales. Nous avons combiné la précision des caractéristiques GLCM et l'efficacité de la mesure de similarité LBP pour proposer l'histogramme de différences de voisinage. Nous avons ensuite mis en relation la différence de voisinage avec la notion de gradient d'image pour poursuivre une approche sans paramètre. En rappelant les règles de base des dérivées, nous avons mis en évidence une décomposition mathématique du gradient spectral en parties chromatiques et achromatiques. Considérant la théorie de l'espace d'échelle, nous avons également développé une sélection automatique d'échelle afin de refléter la taille de la structure locale. Pour valider notre approche, nous avons soumis nos caractéristiques à des tâches de classification, de récupération et de segmentation de texture. Les résultats montrent que nos fonctionnalités fonctionnent à un niveau comparable à l'état de l'art. Plus important encore, nous démontrons l'interprétabilité physique de nos caractéristiques face à une multitude de diversité spectrale et spatiale. En adhérant à la métrologie, nous avons témoigné de l'efficacité d'une paire adaptée de caractéristique et de mesure de similarité sans avoir besoin de techniques sophistiquées d'apprentissage automatique ou profond.

  • Improving image representation using image saliency and information gain    - Le Huu Ton  -  23 novembre 2015

    Voir le résumé
    Voir le résumé
    De nos jours, avec le développement des nouvelles technologies multimédia, la recherche d’images basée sur le contenu visuel est un sujet de recherche en plein essor avec de nombreux domaines d'application: indexation et recherche d’images, la graphologie, la détection et le suivi d’objets... Un des modèles les plus utilisés dans ce domaine est le sac de mots visuels qui tire son inspiration de la recherche d’information dans des documents textuels. Dans ce modèle, les images sont représentées par des histogrammes de mots visuels à partir d'un dictionnaire visuel de référence. La signature d’une image joue un rôle important car elle détermine la précision des résultats retournés par le système de recherche. Dans cette thèse, nous étudions les différentes approches concernant la représentation des images. Notre première contribution est de proposer une nouvelle méthodologie pour la construction du vocabulaire visuel en utilisant le gain d'information extrait des mots visuels. Ce gain d’information est la combinaison d’un modèle de recherche d’information avec un modèle d'attention visuelle. Ensuite, nous utilisons un modèle d'attention visuelle pour améliorer la performance de notre modèle de sacs de mots visuels. Cette étude de la saillance des descripteurs locaux souligne l’importance d’utiliser un modèle d’attention visuelle pour la description d’une image. La dernière contribution de cette thèse au domaine de la recherche d’information multimédia démontre comment notre méthodologie améliore le modèle des sacs de phrases visuelles. Finalement, une technique d’expansion de requêtes est utilisée pour augmenter la performance de la recherche par les deux modèles étudiés.

  • Perceptual content and tone adaptation for HDR display technologies    - Abebe Mekides Assefa  -  07 octobre 2016

    Voir le résumé
    Voir le résumé
    Les technologies de capture et d'affichage d'images ont fait un grand pas durant la dernière décennie en termes de capacités de reproduction de la couleur, de gamme de dynamique et de détails des scènes réelles. Les caméras et les écrans à large gamme de dynamique (HDR: high dynamic range) sont d'ores et déjà disponibles, offrant ainsi plus de flexibilité pour les créateurs de contenus afin de produire des scènes plus réalistes. Dans le même temps, à cause des limitations des appareils conventionnels, il existe un gap important en terme de reproduction de contenu et d'apparence colorée entre les deux technologies. Cela a accentué le besoin pour des algorithmes prenant en compte ces considérations et assurant aux créateurs de contenus une reproduction cross-média fidèle. Dans cette thèse, nous focalisons sur l'adaptation et la reproduction des contenus à gamme de dynamique standard sur des dispositifs HDR. Tout d'abord, les modèles d'apparence colorée ainsi que les opérateurs de mappage tonal inverse ont été étudiés subjectivement quant à leur fidélité couleur lors de l'expansion de contenus antérieurs. Par la suite, les attributs perceptuels de clarté, chroma et saturation ont été analysés pour des stimuli émissifs ayant des niveaux de luminance de plus hautes gammes et ce en menant une étude psychophysique basée sur la méthode de mise à l'échelle de partitions. Les résultats expérimentaux ont permis de mener à la définition d'un nouvel espace couleur HDR efficace et précis, optimisé pour les applications d'adaptation de la gamme de dynamique. Enfin, dans l'optique de récupérer les détails perdus lors de captures d'images standard et d'améliorer la qualité perçue du contenu antérieur avant d'être visualisé sur un dispositif HDR, deux approches de correction des zones surexposées ou ayant subi un écrêtage couleur ont été proposées. Les modèles et algorithmes proposés ont été évalués en comparaison avec une vérité terrain HDR, menant à la conclusion que les résultats obtenus sont plus proches des scènes réelles que les autres approches de la littérature.

  • Quality assessment of stereoscopic 3D content based on binocular perception    - Fan Yu  -  03 mai 2019

    Voir le résumé
    Voir le résumé
    La grande avancée des technologies stéréoscopiques/3D conduit à une croissance remarquable des contenus 3D dans diverses applications grâce aux effets immersifs qu’ils offrent. Cependant, ces technologies ont également créé de enjeux concernant l’évaluation de la qualité et la compression, en raison des processus complexes de la vision binocu laire. Visant à évaluer et à optimiser les performances des systèmes d’imagerie 3D quant à leur capacité de stockage et leur qualité d’expérience (QoE), cette thèse porte sur deux parties principales: 1- les seuils de visibilité spatiale du système visuel humain (SVH) et 2- l’évaluation de la qualité des images stéréoscopiques. Il est bien connu que le SVH ne peut détecter les modifications dans une image compressée si ces dernières sont inférieures au seuil JND (Just Noticeable Difference). Par conséquent, une étude approfondie basée sur une analyse objective et subjective a été menée sur les modèles 3D-JND existants. En outre, un nouveau modèle 3D-JND basé sur des expériences psychophysiques visant à mesurer l’effet de la disparité binoculaire et du masquage spatial sur les seuils visuels a été proposé. Dans la deuxième partie, nous avons exploré la mesure de la qualité 3D. Ainsi, nous avons développé un modèle avec référence prenant en compte à la fois la qualité monoculaire et cyclopéenne. Nous avons ensuite proposé une nouvelle métrique de qualité sans référence reposant sur la combinaison de statistiques locales de contraste de la paire stéréo. Les deux modèles reposent sur les propriétés de fusion et de rivalité binoculaire du SVH afin de simuler avec précision le jugement humain de la qualité 3D.

  • Towards spectral mathematical morphology    - Deborah Hilda  -  21 décembre 2016

    Voir le résumé
    Voir le résumé
    En fournissant en plus de l'information spatiale une mesure spectrale en fonction des longueurs d'ondes, l'imagerie hyperspectrale s'enorgueillie d'atteindre une précision bien plus importante que l'imagerie couleur. Grâce à cela, elle a été utilisée en contrôle qualité, inspection de matériaux,… Cependant, pour exploiter pleinement ce potentiel, il est important de traiter la donnée spectrale comme une mesure, d'où la nécessité de la métrologie, pour laquelle exactitude, incertitude et biais doivent être maitrisés à tous les niveaux de traitement. Face à cet objectif, nous avons choisi de développer une approche non-linéaire, basée sur la morphologie mathématique et de l'étendre au domaine spectral par le biais d'une relation d'ordre spectral basée sur les fonctions de distance. Une nouvelle fonction de distance spectrale et une nouvelle relation d'ordonnancement sont ainsi proposées. De plus, un nouvel outil d'analyse du basé sur les histogrammes de différences spectrales a été développé. Afin d'assurer la validité des opérateurs, une validation théorique rigoureuse et une évaluation métrologique ont été mises en œuvre à chaque étage de développement. Des protocoles d'évaluation de la qualité des traitements morphologiques sont proposés, exploitant des jeux de données artificielles pour la validation théorique, des ensembles de données dont certaines caractéristiques sont connues pour évaluer la robustesse et la stabilité et des jeux de données de cas réel pour prouver l'intérêt des approches en contexte applicatif. Les applications sont développées dans le contexte du patrimoine culturel pour l'analyse de peintures et pigments.

  • Analyse de données RMN multimodales par intelligence artificielle pour la discrimination binaire du grade du gliome    - Dequidt Paul  -  05 février 2021

    Voir le résumé
    Voir le résumé
    Les gliomes sont des tumeurs cérébrales dont l'évolution de bas grade à haut grade signe un diagnostic sombre pour le patient. Le grade du gliome est connu via des techniques invasives : analyse de pièce chirurgicale ou biopsie. Le CHU de Poitiers propose une alternative non-invasive via un bilan d'imagerie par résonance magnétique multimodal, regroupant des données anatomiques, de diffusion, de perfusion et de spectroscopie. Dans ce travail de thèse, nous proposons d'implémenter des outils de classification automatique depuis l'analyse de ces images multivariées. Nous déployons pour cela des outils novateurs permettant d'analyser le comportement de classifieurs automatiques. Cela nous amène à pointer des incohérences au sein de la base de données la plus utilisée sur la tâche de classification binaire du grade du gliome. Nous proposons une alternative via un consensus de cinq experts radiologues. Puis, nous créons une chaîne de traitement complète allant de l'acquisition à la classification, et explorons comment les données multimodales améliorent les performances de classification automatique.

  • Assistance virtuelle pour la prévention des risques cardiovasculaires    - Rjiba Saifeddine  -  21 septembre 2022

    Voir le résumé
    Voir le résumé
    Les maladies coronariennes et les attaques cérébrales ont longtemps été la principale cause de décès en France, comme dans de nombreux pays dans le monde. Dans ce travail de thèse, nous proposons d’offrir aux experts médicaux des algorithmes automatiques pour l’analyse de données à caractère biomédical en vue de la prévention des risques cardiovasculaires (sténoses) et les accidents vasculaires cérébraux (anévrismes). Nous déployons pour cela des outils novateurs basés sur les techniques de l’intelligence artificielle permettant d’extraire l’arbre artériel, de détecter les sténoses, de classifier les types des plaques coronaires et de segmenter les anévrismes intracrâniens non rompus. Nous introduisons, également, une nouvelle base de données que nous avons créé à l’aide des efforts des équipes médicales du CHU Poitiers.

  • Coopération des ondelettes et des équations aux dérivées partielles pour le traitement d' images multispectrales    - Maalouf Aldo  -  23 septembre 2008

    Voir le résumé
    Voir le résumé
    Les travaux réalisés dans cette thèse s'inscrivent dans le contexte du traitement d'images et de séquences d'images incluant le débruitage, la segmentation, l'inpainting et le mosaicing. Les approches proposées sont basées sur la transformée en ondelettes et les équations aux dérivées partielles. Dans le domaine de débruitage nous avons proposé des tenseurs de structure multi-échelles basés sur les transformées en ondelettes et bandelettes et capables de caractériser les contours d'images bruitées. Cela nous a conduit à la proposition de plusieurs méthodes de diffusion anisotrope et vectorielle orientée par les contours de l'image définis par ces tenseurs. Dans le domaine de segmentation, nous avons défini une méthode de segmentation par région inspirée des méthodes de l'ensemble de niveau et orientée par le tenseur de structure multi-échelles basé sur la transformée en ondelettes et une méthode de contour actif orientée par les coefficients d'ondelettes fovéales. Nous avons ensuite utilisé les grouplettes géométriques pour définir une méthode d'inpainting. La transformée en grouplettes nous a permis de recomposer correctement la géométrie multi-échelles des structures de l'image et l'information à l'intérieur de la région des données manquantes est synthétisée par une propagation de cette géométrie. Dans le domaine de traitement des séquences vidéo nous avons construit deux modèles : le premier a pour objectif le mosaicing des séquences vidéo et le second l'inpainting. Les deux modèles se basent sur la segmentation en quadtree de la transformée en bandelettes afin d'étudier les similarités entre les différentes zones des trames de la séquence. Les carrés dyadiques qui ont des propriétés géométriques similaires sont "collés" l'un à côté de l'autre pour former une mosaïque finale ou pour combler les zones manquantes. Finalement, nous avons proposé une décomposition et reconstruction en ondelettes 2D non séparables définies à partir des bases de polynômes orthogonaux et un opérateur multi-échelles de détection de contours.

  • De la combinaison/compétition de classifieurs vers la sélection dynamique d'opérateurs de traitement d'image    - Sochacki Stéphane  -  05 décembre 2011

    Voir le résumé
    Voir le résumé
    L'évolution des technologies a permis le développement du multimédia et des grandes bases de données hétérogènes (textes, images, sons, vidéo, ...). Cependant cette évolution a amplifié le besoin de solutions de traitement automatique. Bien que de nombreuses années de recherche aient abouti au développement d'opérateurs de plus en plus performants, leur interopérabilité et parfois même leurs réglages restent à la charge des experts. Cette limite nuit au développement de systèmes pluri-média spécialisés et grand public. Ce travail de recherche se partage en trois parties principales. Gérer de façon automatique une chaîne de traitement d'images allant du prétraitement à la décision, impose de construire un système rétro‐bouclé. Chaque étage nécessite la conception d'informations liées à la qualité ou la précision de l'action effectuée mais aussi d'informations indiquant la pertinence de cette action selon l'objectif visé. Cette première partie s'appuie sur la Théorie de l'Evidence. Une phase intermédiaire de validation sera mise en oeuvre autour des classes d'opérateurs de calcul d'attributs et de classification. Les variabilités intrinsèques aux documents patrimoniaux et par extension aux bases multimédia introduisent la difficulté du choix d'une séquence unique d'opérateurs. Afin de décider dynamiquement de la meilleure chaîne pour le document d'entrée permettant d'atteindre l'objectif visé, le système doit pouvoir mettre en concurrence/compétition les différents opérateurs dans une même classe. Cette deuxième partie exploite les critères de précision/pertinence établis précédemment. Une validation intermédiaire sur la gestion des attributs de caractérisation des primitives graphiques et des classifieurs hiérarchiques sera utilisée. La classification se basant sur un ensemble de données, les attributs, il faut également que la chaîne de traitement manipule des opérateurs comme des analyses de texture ou de forme. Mais pour les intégrer, nous avons besoin d'en connaître la précision par l'utilité et la conservation de l'information. Ce sera la troisième grande étape, au travers de l'étude d'attributs de descripteurs de formes. Le déroulement de ce travail de thèse permettra de développer ces différents points dans le cadre d'une chaîne de traitement complète. Le cadre de travail permettra d'intégrer ces développements dans une application dédiée à l'analyse et la valorisation de documents patrimoniaux. Des éléments intermédiaires de validation seront développés pour quantifier la qualité et la stabilité des solutions proposées. Ce travail de thèse s'inscrit dans la suite de celui de D. Arrivault entre le laboratoire XLIMSIC et la société RC‐Soft, il rentre également dans le cadre des travaux dont le résultat est exploité au sein du programme des Environnements Documentaires Interactifs auxquels ont participé les deux entités.

  • Exploitation des statistiques structurelles d'une image pour la prédiction de la saillance visuelle et de la qualité perçue    - Nauge Michaël  -  11 décembre 2012

    Voir le résumé
    Voir le résumé
    Dans le domaine de la vision par ordinateur l'utilisation de points d'intérêt (PI) est récurrente pour les problématiques de reconnaissance et de suivi d'objets. Plusieurs études ont prouvé l'utilité de ces techniques, associant robustesse et un temps de calcul pouvant être compatible avec le temps réel. Cette thèse propose d'étudier et d'exploiter ces descripteurs de statistiques de l'image sous un tout autre regard. Ainsi, nous avons menée une étude sur le lien entre les PI et la saillance visuelle humaine. De cette étude nous avons pu développer une méthode de prédiction de carte de saillance exploitant la rapidité d'exécution de ces détecteurs. Nous avons également exploité le pouvoir descriptif de ces PI afin de développer de nouvelles métriques de qualité d'images. Grâce à des résultats encourageant en terme de prédiction de qualité perçue et la faible quantité d'information utilisée, nous avons pu intégrer notre métrique "QIP" dans une chaîne de transmission d'images sur réseau sans fil de type MIMO. L'ajout de cette métrique permet d'augmenter la qualité d'expérience en garantissant la meilleure qualité malgré les erreurs introduites par la transmission sans fil. Nous avons étendu cette étude, par l'analyse fine des statistiques structurelles de l'image et des migrations d'attributs afin de proposer un modèle générique de prédiction des dégradations. Enfin, nous avons été amenés à conduire diverses expériences psychovisuelles, pour valider les approches proposées ou dans le cadre de la normalisation de nouveaux standards du comité JPEG. Ce qui a mené à développer une application web dédiée à l'utilisation et la comparaison des métriques de qualité d'images.

|< << 1 2 >> >| thèses par page

Haut de page


  • Avec le service Ubib.fr, posez votre question par chat à un bibliothécaire dans la fenêtre ci-dessous :


    ou par messagerie électronique 7j/7 - 24h/24h, une réponse vous sera adressée sous 48h.
    Accédez au formulaire...
 
 

Université de Poitiers - 15, rue de l'Hôtel Dieu - 86034 POITIERS Cedex - France - Tél : (33) (0)5 49 45 30 00 - Fax : (33) (0)5 49 45 30 50
these@support.univ-poitiers.fr - Crédits et mentions légales