Vous êtes ici : Accueil > Sections CNU > 61 - Génie informatique, automatique et traitement du signal

61 - Génie informatique, automatique et traitement du signal

Les thèses se rapportant à la section CNU "61 - Génie informatique, automatique et traitement du signal"

Pour être informé de la mise en ligne des nouvelles thèses correspondant à la recherche effectuée, abonnez-vous au flux RSS : rss

accès internet    accès intranet    confidentialité
37 ressources ont été trouvées. Voici les résultats 1 à 10
Tri :   Date Auteur Titre thèses par page
  • Indexation bio-inspirée pour la recherche d'images par similarité    - Michaud Dorian  -  16 octobre 2018

    Voir le résumé
    Voir le résumé
    La recherche d'images basée sur le contenu visuel est un domaine très actif de la vision par ordinateur, car le nombre de bases d'images disponibles ne cesse d'augmenter. L’objectif de ce type d’approche est de retourner les images les plus proches d'une requête donnée en terme de contenu visuel. Notre travail s'inscrit dans un contexte applicatif spécifique qui consiste à indexer des petites bases d'images expertes sur lesquelles nous n'avons aucune connaissance a priori. L’une de nos contributions pour palier ce problème consiste à choisir un ensemble de descripteurs visuels et de les placer en compétition directe. Nous utilisons deux stratégies pour combiner ces caractéristiques : la première, est pyschovisuelle, et la seconde, est statistique. Dans ce contexte, nous proposons une approche adaptative non supervisée, basée sur les sacs de mots et phrases visuels, dont le principe est de sélectionner les caractéristiques pertinentes pour chaque point d'intérêt dans le but de renforcer la représentation de l'image. Les tests effectués montrent l'intérêt d'utiliser ce type de méthodes malgré la domination des méthodes basées réseaux de neurones convolutifs dans la littérature. Nous proposons également une étude, ainsi que les résultats de nos premiers tests concernant le renforcement de la recherche en utilisant des méthodes semi-interactives basées sur l’expertise de l'utilisateur.

  • Protection des contenus multimédias pour la certification des données    - Lefèvre Pascal  -  15 juin 2018

    Voir le résumé
    Voir le résumé
    Depuis plus de vingt ans, l'accès à la technologie est devenu très facile étant donné son omniprésence dans le quotidien de chacun et son faible coût. Cet accès aux technologies du numérique permet à toute personne équipée d'un ordinateur ou d'un smartphone de visualiser et de modifier des contenus digitaux. Avec les progrès en matière de stockage en ligne, la quantité de contenus digitaux tels que le son, l'image ou la vidéo sur internet a explosé et continue d'augmenter. Savoir identifier la source d'une image et certifier si celle-ci a été modifiée ou non sont des informations nécessaires pour authentifier une image et ainsi protéger la propriété intellectuelle et les droits d’auteur par exemple. Une des approches pour résoudre ces problèmes est le tatouage numérique. Il consiste à insérer une marque dans une image qui permettra de l'authentifier. Dans cette thèse, nous étudions premièrement le tatouage numérique dans le but de proposer des méthodes plus robustes aux modifications d'image grâce aux codes correcteurs. En étudiant la structure des erreurs produites par la modification d’une image marquée, un code correcteur sera plus efficace qu’un autre. Nous proposons aussi d’intégrer de nouveaux codes correcteurs appelés codes en métrique rang pour le tatouage. Ensuite, nous proposons d’améliorer l'invisibilité des méthodes de tatouage pour les images couleur. A l’insertion d’une marque, les dégradations de l’image sont perçues différemment par le système visuel humain en fonction de la couleur. Nous proposons un modèle biologique de la perception des couleurs qui nous permet de minimiser les distorsions psychovisuelles de l’image à l’insertion. Toutes ces techniques sont testées sur des images naturelles dans un contexte d’insertion d’information.

  • Étude de la stabilité de deux systèmes multidimensionnels    - David Ronan  -  12 février 2018

    Voir le résumé
    Voir le résumé
    Ce travail présente les résultats de recherches sur la stabilité de deux systèmes multidimensionnels (aussi appelés systèmes nD), à savoir les modèles de Fornasini-Marchesini et Roesser. L’objectif principal est d’analyser différentes notions de stabilités, précisément les notions de stabilité asymptotique, stabilité structurelle et stabilité exponentielle et de généraliser ces notions du cas 1D au cas 2D. Le premier chapitre du mémoire est donc l’occasion de rappeler les définitions utilisées dans le cas 1D, mettre en évidence les liens entre ces définitions et faire un bilan des différentes généralisations de ces définitions au cas 2D dans la littérature. Le deuxième chapitre présente des résultats techniques sur les solutions des modèles de Fornasini-Marchesini dans le cas linéaire discret. Ces résultats seront ensuite utilisés dans le troisième chapitre pour démontrer les principaux résultats de cette thèse : la stabilité exponentielle et la stabilité structurelle, elles impliquent la stabilité asymptotique mais un contre-exemple montre que la stabilité asymptotique n’est pas équivalente aux deux autres. Le quatrième chapitre introduit le concept de contrôle et propose en utilisant des approches algébriques de construire une commande sur un système de Fornasini-Marchesini en utilisant l’équivalence algébrique des deux modèles étudiés. Enfin, le dernier chapitre aborde les modèles 2D continus de Roesser, très peu étudiés dans la littérature et analyse le problème de l’existence et l’unicité des solutions.

  • Recherche d'images par le contenu application à la proposition de mots clés    - Zhou Zhiyong  -  08 février 2018

    Voir le résumé
    Voir le résumé
    La recherche d'information dans des masses de données multimédia et l'indexation de ces grandes bases d'images par le contenu sont des problématiques très actuelles. Elles s'inscrivent dans un type de gestion de données qu'on appelle le Digital Asset Management (ou DAM) ; Le DAM fait appel à des techniques de segmentation d'images et de classification de données. Nos principales contributions dans cette thèse peuvent se résumer en trois points : - Analyse des utilisations possibles des différentes méthodes d'extraction des caractéristiques locales en exploitant la technique de VLAD. - Proposition d'une nouvelle méthode d'extraction de l'information relative à la couleur dominante dans une image. - Comparaison des Machine à Supports de Vecteur (SVM - Support Vector Machine) à différents classifieurs pour la proposition de mots clés d'indexation. Ces contributions ont été testées et validées sur des données de synthèse et sur des données réelles. Nos méthodes ont alors été largement utilisées dans le système DAM ePhoto développé par la société EINDEN, qui a financé la thèse CIFRE dans le cadre de laquelle ce travail a été effectué. Les résultats sont encourageants et ouvrent de nouvelles perspectives de recherche.

  • Évaluation du contenu d'une image couleur par mesure basée pixel et classification par la théorie des fonctions de croyance    - Guettari Nadjib  -  10 juillet 2017

    Voir le résumé
    Voir le résumé
    De nos jours, il est devenu de plus en plus simple pour qui que ce soit de prendre des photos avec des appareils photo numériques, de télécharger ces images sur l'ordinateur et d'utiliser différents logiciels de traitement d'image pour appliquer des modification sur ces images (compression, débruitage, transmission, etc.). Cependant, ces traitements entraînent des dégradations qui influent sur la qualité visuelle de l'image. De plus, avec la généralisation de l'internet et la croissance de la messagerie électronique, des logiciels sophistiqués de retouche d'images se sont démocratisés permettant de falsifier des images à des fins légitimes ou malveillantes pour des communications confidentielles ou secrètes. Dans ce contexte, la stéganographie constitue une méthode de choix pour dissimuler et transmettre de l'information. Dans ce manuscrit, nous avons abordé deux problèmes : l'évaluation de la qualité d'image et la détection d'une modification ou la présence d'informations cachées dans une image. L'objectif dans un premier temps est de développer une mesure sans référence permettant d'évaluer de manière automatique la qualité d'une image en corrélation avec l'appréciation visuelle humaine. Ensuite proposer un outil de stéganalyse permettant de détecter, avec la meilleure fiabilité possible, la présence d'informations cachées dans des images naturelles. Dans le cadre de cette thèse, l'enjeu est de prendre en compte l'imperfection des données manipulées provenant de différentes sources d'information avec différents degrés de précision. Dans ce contexte, afin de profiter entièrement de l'ensemble de ces informations, nous proposons d'utiliser la théorie des fonctions de croyance. Cette théorie permet de représenter les connaissances d'une manière relativement naturelle sous la forme d'une structure de croyances. Nous avons proposé une nouvelle mesure sans référence d'évaluation de la qualité d'image capable d'estimer la qualité des images dégradées avec de multiple types de distorsion. Cette approche appelée wms-EVreg2 est basée sur la fusion de différentes caractéristiques statistiques, extraites de l'image, en fonction de la fiabilité de chaque ensemble de caractéristiques estimée à travers la matrice de confusion. À partir des différentes expérimentations, nous avons constaté que wms-EVreg2 présente une bonne corrélation avec les scores de qualité subjectifs et fournit des performances de prédiction de qualité compétitives par rapport aux mesures avec référence. Pour le deuxième problème abordé, nous avons proposé un schéma de stéganalyse basé sur la théorie des fonctions de croyance construit sur des sous-espaces aléatoires des caractéristiques. La performance de la méthode proposée a été évaluée sur différents algorithmes de dissimulation dans le domaine de transformé JPEG ainsi que dans le domaine spatial. Ces tests expérimentaux ont montré l'efficacité de la méthode proposée dans certains cadres d'applications. Cependant, il reste de nombreuses configurations qui résident indétectables.

  • Towards spectral mathematical morphology    - Deborah Hilda  -  21 décembre 2016

    Voir le résumé
    Voir le résumé
    En fournissant en plus de l'information spatiale une mesure spectrale en fonction des longueurs d'ondes, l'imagerie hyperspectrale s'enorgueillie d'atteindre une précision bien plus importante que l'imagerie couleur. Grâce à cela, elle a été utilisée en contrôle qualité, inspection de matériaux,… Cependant, pour exploiter pleinement ce potentiel, il est important de traiter la donnée spectrale comme une mesure, d'où la nécessité de la métrologie, pour laquelle exactitude, incertitude et biais doivent être maitrisés à tous les niveaux de traitement. Face à cet objectif, nous avons choisi de développer une approche non-linéaire, basée sur la morphologie mathématique et de l'étendre au domaine spectral par le biais d'une relation d'ordre spectral basée sur les fonctions de distance. Une nouvelle fonction de distance spectrale et une nouvelle relation d'ordonnancement sont ainsi proposées. De plus, un nouvel outil d'analyse du basé sur les histogrammes de différences spectrales a été développé. Afin d'assurer la validité des opérateurs, une validation théorique rigoureuse et une évaluation métrologique ont été mises en œuvre à chaque étage de développement. Des protocoles d'évaluation de la qualité des traitements morphologiques sont proposés, exploitant des jeux de données artificielles pour la validation théorique, des ensembles de données dont certaines caractéristiques sont connues pour évaluer la robustesse et la stabilité et des jeux de données de cas réel pour prouver l'intérêt des approches en contexte applicatif. Les applications sont développées dans le contexte du patrimoine culturel pour l'analyse de peintures et pigments.

  • Perceptual content and tone adaptation for HDR display technologies    - Abebe Mekides Assefa  -  07 octobre 2016

    Voir le résumé
    Voir le résumé
    Les technologies de capture et d'affichage d'images ont fait un grand pas durant la dernière décennie en termes de capacités de reproduction de la couleur, de gamme de dynamique et de détails des scènes réelles. Les caméras et les écrans à large gamme de dynamique (HDR: high dynamic range) sont d'ores et déjà disponibles, offrant ainsi plus de flexibilité pour les créateurs de contenus afin de produire des scènes plus réalistes. Dans le même temps, à cause des limitations des appareils conventionnels, il existe un gap important en terme de reproduction de contenu et d'apparence colorée entre les deux technologies. Cela a accentué le besoin pour des algorithmes prenant en compte ces considérations et assurant aux créateurs de contenus une reproduction cross-média fidèle. Dans cette thèse, nous focalisons sur l'adaptation et la reproduction des contenus à gamme de dynamique standard sur des dispositifs HDR. Tout d'abord, les modèles d'apparence colorée ainsi que les opérateurs de mappage tonal inverse ont été étudiés subjectivement quant à leur fidélité couleur lors de l'expansion de contenus antérieurs. Par la suite, les attributs perceptuels de clarté, chroma et saturation ont été analysés pour des stimuli émissifs ayant des niveaux de luminance de plus hautes gammes et ce en menant une étude psychophysique basée sur la méthode de mise à l'échelle de partitions. Les résultats expérimentaux ont permis de mener à la définition d'un nouvel espace couleur HDR efficace et précis, optimisé pour les applications d'adaptation de la gamme de dynamique. Enfin, dans l'optique de récupérer les détails perdus lors de captures d'images standard et d'améliorer la qualité perçue du contenu antérieur avant d'être visualisé sur un dispositif HDR, deux approches de correction des zones surexposées ou ayant subi un écrêtage couleur ont été proposées. Les modèles et algorithmes proposés ont été évalués en comparaison avec une vérité terrain HDR, menant à la conclusion que les résultats obtenus sont plus proches des scènes réelles que les autres approches de la littérature.

  • Analyse d'images couleurs pour le contrôle qualité non destructif    - Harouna Seybou Aboubacar  -  23 septembre 2016

    Voir le résumé
    Voir le résumé
    La couleur est un critère important dans de nombreux secteurs d'activité pour identifier, comparer ou encore contrôler la qualité de produits. Cette tâche est souvent assumée par un opérateur humain qui effectue un contrôle visuel. Malheureusement la subjectivité de celui-ci rend ces contrôles peu fiables ou répétables. Pour contourner ces limitations, l'utilisation d'une caméra RGB permet d'acquérir et d'extraire des propriétés photométriques. Cette solution est facile à mettre en place et offre une rapidité de contrôle. Cependant, elle est sensible au phénomène de métamérisme. La mesure de réflectance spectrale est alors la solution la plus appropriée pour s'assurer de la conformité colorimétrique entre des échantillons et une référence. Ainsi dans l'imprimerie, des spectrophotomètres sont utilisés pour mesurer des patchs uniformes imprimés sur une bande latérale. Pour contrôler l'ensemble d'une surface imprimée, des caméras multi-spectrales sont utilisées pour estimer la réflectance de chaque pixel. Cependant, elles sont couteuses comparées aux caméras conventionnelles. Dans ces travaux de recherche, nous étudions l'utilisation d'une caméra RGB pour l'estimation de la réflectance dans le cadre de l'imprimerie. Nous proposons une description spectrale complète de la chaîne de reproduction pour réduire le nombre de mesures dans les phases d'apprentissage et pour compenser les limitations de l'acquisition. Notre première contribution concerne la prise en compte des limitations colorimétriques lors de la caractérisation spectrale d'une caméra. La deuxième contribution est l'exploitation du modèle spectrale de l'imprimante dans les méthodes d'estimation de réflectance.

  • Transformations polynomiales, applications à l'estimation de mouvements et la classification    - Moubtahij Redouane El  -  11 juin 2016

    Voir le résumé
    Voir le résumé
    Ces travaux de recherche concernent la modélisation de l'information dynamique fonctionnelle fournie par les champs de déplacements apparents à l'aide de base de polynômes orthogonaux. Leur objectif est de modéliser le mouvement et la texture extraites afin de l'exploiter dans les domaines de l'analyse et de la reconnaissance automatique d'images et de vidéos. Nous nous intéressons aussi bien aux mouvements humains qu'aux textures dynamiques. Les bases de polynômes orthogonales ont été étudiées. Cette approche est particulièrement intéressante car elle offre une décomposition en multi-résolution et aussi en multi-échelle. La première contribution de cette thèse est la définition d'une méthode spatiale de décomposition d'image : l'image est projetée et reconstruite partiellement avec un choix approprié du degré d'anisotropie associé à l'équation de décomposition basée sur des transformations polynomiales. Cette approche spatiale est étendue en trois dimensions afin d'extraire la texture dynamique dans des vidéos. Notre deuxième contribution consiste à utiliser les séquences d'images qui représentent les parties géométriques comme images initiales pour extraire les flots optiques couleurs. Deux descripteurs d'action, spatial et spatio-temporel, fondés sur la combinaison des informations du mouvement/texture sont alors extraits. Il est ainsi possible de définir un système permettant de reconnaître une action complexe (composée d'une suite de champs de déplacement et de textures polynomiales) dans une vidéo.

  • Face analysis using polynomials    - Bordei Cristina  -  03 mars 2016

    Voir le résumé
    Voir le résumé
    Considéré comme l'un des sujets de recherche les plus actifs et visibles de la vision par ordinateur, de la reconnaissance des formes et de la biométrie, l'analyse faciale a fait l'objet d'études approfondies au cours des deux dernières décennies. Le travail de cette thèse a pour objectif de proposer de nouvelles techniques d'utilisation de représentations de texture basées polynômes pour l'analyse faciale.
    La première partie de cette thèse est dédiée à l'intégration de bases de polynômes dans les modèles actifs d'apparence. Nous proposons premièrement une manière d'utiliser les coefficients polynomiaux dans la modélisation de l'apparence. Ensuite, afin de réduire la complexité du modèle nous proposons de choisir et d'utiliser les meilleurs coefficients en tant que représentation de texture. Enfin, nous montrons comment ces derniers peuvent être utilisés dans un algorithme de descente de gradient.
    La deuxième partie de la thèse porte sur l'utilisation des bases polynomiales pour la détection des points/zones d'intérêt et comme descripteur pour la reconnaissance des expressions faciales. Inspirés par des techniques de détection des singularités dans des champ de vecteurs, nous commençons par présenter un algorithme utilisé pour l'extraction des points d'intérêt dans une image. Puis nous montrons comment les bases polynomiales peuvent être utilisées pour extraire des informations sur les expressions faciales. Puisque les coefficients polynomiaux fournissent une analyse précise multi-échelles et multi-orientation et traitent le problème de redondance efficacement ils sont utilisés en tant que descripteurs dans un algorithme de classification d'expression faciale.

|< << 1 2 3 4 >> >| thèses par page

Haut de page


  • Avec le service Ubib.fr, posez votre question par chat à un bibliothécaire dans la fenêtre ci-dessous.

 
 

Université de Poitiers - 15, rue de l'Hôtel Dieu - 86034 POITIERS Cedex - France - Tél : (33) (0)5 49 45 30 00 - Fax : (33) (0)5 49 45 30 50
these@support.univ-poitiers.fr - Crédits et mentions légales