Vous êtes ici : Accueil > Sections CNU > Section 61 - Génie informatique, automatique et traitement du signal

Section 61 - Génie informatique, automatique et traitement du signal

Les thèses se rapportant à la section CNU "Section 61 - Génie informatique, automatique et traitement du signal"

Pour être informé de la mise en ligne des nouvelles thèses correspondant à la recherche effectuée, abonnez-vous au flux RSS : rss

accès internet    accès intranet    confidentialité
29 ressources ont été trouvées. Voici les résultats 1 à 10
Tri :   Date Auteur Titre thèses par page
  • Face analysis using polynomials    - Bordei Cristina  -  03 mars 2016

    Voir le résumé
    Voir le résumé
    Considéré comme l'un des sujets de recherche les plus actifs et visibles de la vision par ordinateur, de la reconnaissance des formes et de la biométrie, l'analyse faciale a fait l'objet d'études approfondies au cours des deux dernières décennies. Le travail de cette thèse a pour objectif de proposer de nouvelles techniques d'utilisation de représentations de texture basées polynômes pour l'analyse faciale.
    La première partie de cette thèse est dédiée à l'intégration de bases de polynômes dans les modèles actifs d'apparence. Nous proposons premièrement une manière d'utiliser les coefficients polynomiaux dans la modélisation de l'apparence. Ensuite, afin de réduire la complexité du modèle nous proposons de choisir et d'utiliser les meilleurs coefficients en tant que représentation de texture. Enfin, nous montrons comment ces derniers peuvent être utilisés dans un algorithme de descente de gradient.
    La deuxième partie de la thèse porte sur l'utilisation des bases polynomiales pour la détection des points/zones d'intérêt et comme descripteur pour la reconnaissance des expressions faciales. Inspirés par des techniques de détection des singularités dans des champ de vecteurs, nous commençons par présenter un algorithme utilisé pour l'extraction des points d'intérêt dans une image. Puis nous montrons comment les bases polynomiales peuvent être utilisées pour extraire des informations sur les expressions faciales. Puisque les coefficients polynomiaux fournissent une analyse précise multi-échelles et multi-orientation et traitent le problème de redondance efficacement ils sont utilisés en tant que descripteurs dans un algorithme de classification d'expression faciale.

  • Towards spectral mathematical morphology    - Deborah Hilda  -  21 décembre 2016

    Voir le résumé
    Voir le résumé
    En fournissant en plus de l'information spatiale une mesure spectrale en fonction des longueurs d'ondes, l'imagerie hyperspectrale s'enorgueillie d'atteindre une précision bien plus importante que l'imagerie couleur. Grâce à cela, elle a été utilisée en contrôle qualité, inspection de matériaux,… Cependant, pour exploiter pleinement ce potentiel, il est important de traiter la donnée spectrale comme une mesure, d'où la nécessité de la métrologie, pour laquelle exactitude, incertitude et biais doivent être maitrisés à tous les niveaux de traitement. Face à cet objectif, nous avons choisi de développer une approche non-linéaire, basée sur la morphologie mathématique et de l'étendre au domaine spectral par le biais d'une relation d'ordre spectral basée sur les fonctions de distance. Une nouvelle fonction de distance spectrale et une nouvelle relation d'ordonnancement sont ainsi proposées. De plus, un nouvel outil d'analyse du basé sur les histogrammes de différences spectrales a été développé. Afin d'assurer la validité des opérateurs, une validation théorique rigoureuse et une évaluation métrologique ont été mises en œuvre à chaque étage de développement. Des protocoles d'évaluation de la qualité des traitements morphologiques sont proposés, exploitant des jeux de données artificielles pour la validation théorique, des ensembles de données dont certaines caractéristiques sont connues pour évaluer la robustesse et la stabilité et des jeux de données de cas réel pour prouver l'intérêt des approches en contexte applicatif. Les applications sont développées dans le contexte du patrimoine culturel pour l'analyse de peintures et pigments.

  • Analyse d'images couleurs pour le contrôle qualité non destructif    - Harouna Seybou Aboubacar  -  23 septembre 2016

    Voir le résumé
    Voir le résumé
    La couleur est un critère important dans de nombreux secteurs d'activité pour identifier, comparer ou encore contrôler la qualité de produits. Cette tâche est souvent assumée par un opérateur humain qui effectue un contrôle visuel. Malheureusement la subjectivité de celui-ci rend ces contrôles peu fiables ou répétables. Pour contourner ces limitations, l'utilisation d'une caméra RGB permet d'acquérir et d'extraire des propriétés photométriques. Cette solution est facile à mettre en place et offre une rapidité de contrôle. Cependant, elle est sensible au phénomène de métamérisme. La mesure de réflectance spectrale est alors la solution la plus appropriée pour s'assurer de la conformité colorimétrique entre des échantillons et une référence. Ainsi dans l'imprimerie, des spectrophotomètres sont utilisés pour mesurer des patchs uniformes imprimés sur une bande latérale. Pour contrôler l'ensemble d'une surface imprimée, des caméras multi-spectrales sont utilisées pour estimer la réflectance de chaque pixel. Cependant, elles sont couteuses comparées aux caméras conventionnelles. Dans ces travaux de recherche, nous étudions l'utilisation d'une caméra RGB pour l'estimation de la réflectance dans le cadre de l'imprimerie. Nous proposons une description spectrale complète de la chaîne de reproduction pour réduire le nombre de mesures dans les phases d'apprentissage et pour compenser les limitations de l'acquisition. Notre première contribution concerne la prise en compte des limitations colorimétriques lors de la caractérisation spectrale d'une caméra. La deuxième contribution est l'exploitation du modèle spectrale de l'imprimante dans les méthodes d'estimation de réflectance.

  • Analyse et modélisation des moteurs Flexfuel pour leur contrôle    - Coppin Thomas  -  05 juin 2012

    Voir le résumé
    Voir le résumé
    L'intérêt pour les énergies renouvelables et pour la réduction des émissions de gaz à effet de serre a conduit au développement de l'éthanol comme carburant pour les moteurs à combustion interne. Les moteurs dits Flexfuel, en particulier, peuvent fonctionner avec un mélange quelconque d'essence et d'éthanol. Ces deux carburants ont des propriétés physico-chimiques différentes, qui influent sur le fonctionnement du moteur et, partant, sur son contrôle. Les systèmes de contrôle moteur habituels ne prennent pas en compte ces propriétés variables. Sur un moteur Flexfuel, les réglages doivent être adaptés à chaque carburant, afin de maintenir le niveau des émissions polluantes et l'agrément. Cependant, ces adaptations ne doivent pas se faire au prix d'un accroissement excessif du travail de calibration. Cette thèse traite de ces questions. Les effets des différentes propriétés du carburant sur le moteur et son contrôle sont tout d'abord analysés afin de définir les besoins en termes de contrôle. Un modèle moyen de moteur, adapté aux variations de propriétés du carburant, est alors développé pour reproduire ces effets et permettre l'évaluation de stratégies de contrôle. Dans ce travail, celles-ci incluent une méthode d'estimation de la composition du carburant pendant le fonctionnement du moteur, et son utilisation dans le contrôle de la richesse.

  • Contribution à l'estimation des modèles linéaires à paramètres variants à temps continu. Application à la modélisation des échangeurs de chaleur    - Chouaba Seif Eddine  -  17 septembre 2012

    Voir le résumé
    Voir le résumé
    Le travail de recherche présenté dans ce mémoire est une contribution à l'estimation des modèles Linéaires à Paramètres Variants (LPV) à temps continu. Dans un premier temps, il traite de façon originale la modélisation quasi-LPV des échangeurs de chaleur pour la détection d'encrassement durant les régimes transitoires. La méthodologie définie dans cette thèse est introduite pas à pas pour caractériser un échangeur à courants croisés puis pour celle d'un échangeur à contre-courants montrant ainsi la généricité de l'approche pour la modélisation des échangeurs thermiques. Une méthode locale basée sur une estimation initiale de modèles LTI en différents points du domaine de fonctionnement est utilisée pour construire le modèle LPV en agrégeant les paramètres des différents modèles locaux grâce à une méthode d'interpolation polynomiale liée aux débits massiques. Le modèle quasi-LPV de l'échangeur élaboré en fonctionnement sain permet ainsi d'envisager la détection de l'encrassement dans les échangeurs de chaleur en comparant ses sorties à ceux provenant du procédé. Dans un second temps, ce travail porte sur l'identification des systèmes LPV à représentation entrée-sortie à temps continu par une approche globale. Une solution pratique pour l'identification directe de tels systèmes est proposée. Elle est basée sur l'utilisation d'un algorithme à erreur de sortie initialisé par une approche à erreur d'équation, la méthode des Moments Partiels Réinitialisés. Des simulations illustrent les performances de l'approche proposée.

  • Contribution à l'identification et à la quantification des incertitudes des systèmes multivariables    - Farah Wafa  -  28 février 2011

    Voir le résumé
    Voir le résumé
    Dans cette thèse, le problème de détermination des domaines d'incertitude et de modélisation de l'erreur du modèle de systèmes représentés à l'aide de formes d'état linéaires à temps invariant est considéré. Les solutions proposées se décomposent en deux étapes. La première consiste à identifier un modèle d'état à l'aide d'algorithmes des sous-espaces à temps continu et discret. Contrairement aux approches classiques conduisant à une représentation totalement paramétrée, les techniques considérées dans cette thèse présentent la particularité de fournir une forme canonique parcimonieuse composée d'invariants du système. Ayant accès à une estimation consistante des paramètres du système, la seconde phase cherche à caractériser les domaines d'incertitude des paramètres estimés. Une approche de type erreur bornée est plus précisément employée. Cette approche est utilisée afin de déterminer ces domaines par des régions ellipsoïdales. Dans ce contexte, pour chaque algorithme d'identification développé, nous proposons une méthode de caractérisation des domaines d'incertitude des coefficients des matrices d'état. Le problème de modélisation de l'erreur du modèle est également considéré au sein de cette thèse. Nous proposons une technique d'estimation des paramètres physiques d'un système multivariable grâce à un modèle d'ordre réduit. Lors de l'identification des paramètres de ce modèle, un biais du à l'erreur de modélisation apparaît. Pour remédier à ce problème, une méthode de réjection du biais est appliquée en approchant l'erreur de modélisation par un ensemble de modèles de types boites noires contraints. Les méthodologies développées au sein du manuscrit...

  • Contribution à la modélisation non-linéaire et à la commande d'un actionneur robotique intégré pour la manipulation    - Huard Benoît  -  07 juin 2013

    Voir le résumé
    Voir le résumé
    La réalisation de tâches de manipulation dextres requiert une complexité aussi bien dans la conception de préhenseur robotique que dans la synthèse de leurs lois de commande. Une optimisation de la mécatronique de ces systèmes permet de répondre aux contraintes d'intégration fonctionnelle en se passant de capteurs de force terminaux. L'utilisation de mécanismes réversibles rend alors possible la détermination du positionnement du système dans l'espace libre et la détection de son interaction avec les objets manipulés, grâce aux mesures proprioceptives inhérentes aux actionneurs électriques. L'objectif de cette thèse est de parvenir synthétiser, dans le contexte articulaire (un degré-de-liberté), une commande adaptée à la manipulation en tenant compte de ces particularités mécaniques. La méthode proposée est basée sur une commande robuste par rapport aux non-linéarités structurelles dues aux effets gravitationnels et aux frottements secs d'une part et par rapport aux rigidités variables des objets manipulés. L'approche choisie nécessite la connaissance précise de la configuration du système étudié à chaque instant. Une représentation dynamique de son comportement permet de synthétiser un capteur logiciel pour l'estimation des grandeurs indispensables à la commande. Ces différentes étapes sont validées par des essais expérimentaux pour justifier la démarche choisie menant à une commande adaptée à la manipulation d'objets.

  • Contribution au contrôle des pulsations de couple d'une propulsion hybride    - Njeh Mohamed  -  01 mars 2011

    Voir le résumé
    Voir le résumé
    Le travail de recherche présenté dans ce mémoire concerne le développement de nouvelles stratégies de commande pour atténuer les pulsations de couple d'une motorisation hybride diesel/électrique. Sur un moteur diesel, les pulsations de couple sont quasi-périodiques pour une vitesse de rotation donnée. Nous présenterons deux stratégies de commande pour des régimes moteur fixe et variable. La première approche est basée sur une projection du modèle d'état dans un référentiel tournant à la fréquence de l'harmonique à rejeter. Cette modélisation particulière conduit à considérer une pulsation harmonique comme un signal exogène constant. La présence d'un degré d'intégration dans le correcteur couplé à un critère H∞ permet de rejeter la perturbation par un retour de sortie dynamique. La deuxième approche est basée sur une commande par modèle interne. Le correcteur possède une copie du modèle de la perturbation exogène. C'est un problème de rejet de perturbation persistante et de suivi de consigne. Ces deux approches de commande ont été adaptées pour des vitesses variables. Dans ce cas, les modèles des systèmes et les correcteurs sont à paramètres variant (Linear Parameter Varying). Une technique de synthèse basée sur la S-procedure et les multiplieurs de rang plein est utilisée pour résoudre le problème du retour de sortie. Ces stratégies sont appliquées à un banc d'essai expérimental constitué d'un monocylindre diesel couplé à une machine synchrone à aimants permanents.

  • Coopération des ondelettes et des équations aux dérivées partielles pour le traitement d' images multispectrales    - Maalouf Aldo  -  23 septembre 2008

    Voir le résumé
    Voir le résumé
    Les travaux réalisés dans cette thèse s'inscrivent dans le contexte du traitement d'images et de séquences d'images incluant le débruitage, la segmentation, l'inpainting et le mosaicing. Les approches proposées sont basées sur la transformée en ondelettes et les équations aux dérivées partielles. Dans le domaine de débruitage nous avons proposé des tenseurs de structure multi-échelles basés sur les transformées en ondelettes et bandelettes et capables de caractériser les contours d'images bruitées. Cela nous a conduit à la proposition de plusieurs méthodes de diffusion anisotrope et vectorielle orientée par les contours de l'image définis par ces tenseurs. Dans le domaine de segmentation, nous avons défini une méthode de segmentation par région inspirée des méthodes de l'ensemble de niveau et orientée par le tenseur de structure multi-échelles basé sur la transformée en ondelettes et une méthode de contour actif orientée par les coefficients d'ondelettes fovéales. Nous avons ensuite utilisé les grouplettes géométriques pour définir une méthode d'inpainting. La transformée en grouplettes nous a permis de recomposer correctement la géométrie multi-échelles des structures de l'image et l'information à l'intérieur de la région des données manquantes est synthétisée par une propagation de cette géométrie. Dans le domaine de traitement des séquences vidéo nous avons construit deux modèles : le premier a pour objectif le mosaicing des séquences vidéo et le second l'inpainting. Les deux modèles se basent sur la segmentation en quadtree de la transformée en bandelettes afin d'étudier les similarités entre les différentes zones des trames de la séquence. Les carrés dyadiques qui ont des propriétés géométriques similaires sont "collés" l'un à côté de l'autre pour former une mosaïque finale ou pour combler les zones manquantes. Finalement, nous avons proposé une décomposition et reconstruction en ondelettes 2D non séparables définies à partir des bases de polynômes orthogonaux et un opérateur multi-échelles de détection de contours.

  • De la combinaison/compétition de classifieurs vers la sélection dynamique d'opérateurs de traitement d'image    - Sochacki Stéphane  -  05 décembre 2011

    Voir le résumé
    Voir le résumé
    L'évolution des technologies a permis le développement du multimédia et des grandes bases de données hétérogènes (textes, images, sons, vidéo, ...). Cependant cette évolution a amplifié le besoin de solutions de traitement automatique. Bien que de nombreuses années de recherche aient abouti au développement d'opérateurs de plus en plus performants, leur interopérabilité et parfois même leurs réglages restent à la charge des experts. Cette limite nuit au développement de systèmes pluri-média spécialisés et grand public. Ce travail de recherche se partage en trois parties principales. Gérer de façon automatique une chaîne de traitement d'images allant du prétraitement à la décision, impose de construire un système rétro‐bouclé. Chaque étage nécessite la conception d'informations liées à la qualité ou la précision de l'action effectuée mais aussi d'informations indiquant la pertinence de cette action selon l'objectif visé. Cette première partie s'appuie sur la Théorie de l'Evidence. Une phase intermédiaire de validation sera mise en oeuvre autour des classes d'opérateurs de calcul d'attributs et de classification. Les variabilités intrinsèques aux documents patrimoniaux et par extension aux bases multimédia introduisent la difficulté du choix d'une séquence unique d'opérateurs. Afin de décider dynamiquement de la meilleure chaîne pour le document d'entrée permettant d'atteindre l'objectif visé, le système doit pouvoir mettre en concurrence/compétition les différents opérateurs dans une même classe. Cette deuxième partie exploite les critères de précision/pertinence établis précédemment. Une validation intermédiaire sur la gestion des attributs de caractérisation des primitives graphiques et des classifieurs hiérarchiques sera utilisée. La classification se basant sur un ensemble de données, les attributs, il faut également que la chaîne de traitement manipule des opérateurs comme des analyses de texture ou de forme. Mais pour les intégrer, nous avons besoin d'en connaître la précision par l'utilité et la conservation de l'information. Ce sera la troisième grande étape, au travers de l'étude d'attributs de descripteurs de formes. Le déroulement de ce travail de thèse permettra de développer ces différents points dans le cadre d'une chaîne de traitement complète. Le cadre de travail permettra d'intégrer ces développements dans une application dédiée à l'analyse et la valorisation de documents patrimoniaux. Des éléments intermédiaires de validation seront développés pour quantifier la qualité et la stabilité des solutions proposées. Ce travail de thèse s'inscrit dans la suite de celui de D. Arrivault entre le laboratoire XLIMSIC et la société RC‐Soft, il rentre également dans le cadre des travaux dont le résultat est exploité au sein du programme des Environnements Documentaires Interactifs auxquels ont participé les deux entités.

|< << 1 2 3 >> >| thèses par page

Haut de page


  • Avec le service Ubib.fr, posez votre question par chat à un bibliothécaire dans la fenêtre ci-dessous.

 
 

Université de Poitiers - 15, rue de l'Hôtel Dieu - 86034 POITIERS Cedex - France - Tél : (33) (0)5 49 45 30 00 - Fax : (33) (0)5 49 45 30 50
these@support.univ-poitiers.fr - Crédits et mentions légales