Vous êtes ici : Accueil > Sections CNU > Section 61 - Génie informatique, automatique et traitement du signal

Section 61 - Génie informatique, automatique et traitement du signal

Les thèses se rapportant à la section CNU "Section 61 - Génie informatique, automatique et traitement du signal"

Pour être informé de la mise en ligne des nouvelles thèses correspondant à la recherche effectuée, abonnez-vous au flux RSS : rss

accès internet    accès intranet    confidentialité
32 ressources ont été trouvées. Voici les résultats 11 à 20
Tri :   Date Auteur Titre thèses par page
  • Modélisation de l'interaction lumière/matière pour l'analyse de surfaces rugueuses texturées par stéréo photométrie    - Bony Alexandre  -  02 décembre 2013

    Voir le résumé
    Voir le résumé
    Les techniques de reconstruction 3d sont devenues incontournables pour des applications telles que la caractérisation et l'analyse de surfaces. Les travaux réalisés au cours de cette thèse ont pour objectif d'améliorer la qualité des reconstructions 3d par stéréophotométrie. Cette méthode repose sur deux principes, l'inversion d'un modèle d'interaction lumière/matière (BRDF) et la configuration d'un système d'éclairage et de prises de vues. Pour des surfaces diffuses, la stéréo-photométrie est réalisée à partir d'un minimum de trois images acquises d'un point de vue fixe pour des directions d'éclairages différentes. Son avantage est d'extraire simultanément les propriétés géométriques et colorimétriques des surfaces analysées même en cas de forte rugosité. Néanmoins, son application exige la formulation de plusieurs hypothèses qui sont difficilement respectables dans un contexte réel. Ceci génère des erreurs significatives dans les reconstructions. Pour les réduire, nous proposons différentes contributions qui s'articulent autour de la prise en compte globale de la chaine d'acquisition. Les apports de nos travaux se situent aux niveaux de la caractérisation et de la modélisation du système d'éclairage, du capteur d'acquisition et de l'amélioration de la qualité des images. Nous nous sommes aussi intéressés à l'optimisation des protocoles de prises de vues dans le cas de spécularité surfacique ou d'ombrage dus à la présence de rugosité. Les résultats obtenus montrent que la prise en compte de ces caractéristiques dans l'inversion d'un modèle de BRDF permet une nette amélioration des reconstructions et offre la possibilité de réduire la taille des systèmes d'acquisition.

  • Détection de points d'intérêts dans une image multi ou hyperspectral par acquisition compressée    - Rousseau Sylvain  -  02 juillet 2013

    Voir le résumé
    Voir le résumé
    Les capteurs multi- et hyper-spectraux génèrent un énorme flot de données. Un moyen de contourner cette difficulté est de pratiquer une acquisition compressée de l'objet multi- et hyper-spectral. Les données sont alors directement compressées et l'objet est reconstruit lorsqu'on en a besoin. L'étape suivante consiste à éviter cette reconstruction et à travailler directement avec les données compressées pour réaliser un traitement classique sur un objet de cette nature. Après avoir introduit une première approche qui utilise des outils riemanniens pour effectuer une détection de contours dans une image multispectrale, nous présentons les principes de l'acquisition compressée et différents algorithmes utilisés pour résoudre les problèmes qu'elle pose. Ensuite, nous consacrons un chapitre entier à l'étude détaillée de l'un d'entre eux, les algorithmes de type Bregman qui, par leur flexibilité et leur efficacité vont nous permettre de résoudre les minimisations rencontrées plus tard. On s'intéresse ensuite à la détection de signatures dans une image multispectrale et plus particulièrement à un algorithme original du Guo et Osher reposant sur une minimisation L1. Cet algorithme est généralisé dans le cadre de l'acquisition compressée. Une seconde généralisation va permettre de réaliser de la détection de motifs dans une image multispectrale. Et enfin, nous introduirons de nouvelles matrices de mesures qui simplifie énormément les calculs tout en gardant de bonnes qualités de mesures.

  • Contribution à la modélisation non-linéaire et à la commande d'un actionneur robotique intégré pour la manipulation    - Huard Benoît  -  07 juin 2013

    Voir le résumé
    Voir le résumé
    La réalisation de tâches de manipulation dextres requiert une complexité aussi bien dans la conception de préhenseur robotique que dans la synthèse de leurs lois de commande. Une optimisation de la mécatronique de ces systèmes permet de répondre aux contraintes d'intégration fonctionnelle en se passant de capteurs de force terminaux. L'utilisation de mécanismes réversibles rend alors possible la détermination du positionnement du système dans l'espace libre et la détection de son interaction avec les objets manipulés, grâce aux mesures proprioceptives inhérentes aux actionneurs électriques. L'objectif de cette thèse est de parvenir synthétiser, dans le contexte articulaire (un degré-de-liberté), une commande adaptée à la manipulation en tenant compte de ces particularités mécaniques. La méthode proposée est basée sur une commande robuste par rapport aux non-linéarités structurelles dues aux effets gravitationnels et aux frottements secs d'une part et par rapport aux rigidités variables des objets manipulés. L'approche choisie nécessite la connaissance précise de la configuration du système étudié à chaque instant. Une représentation dynamique de son comportement permet de synthétiser un capteur logiciel pour l'estimation des grandeurs indispensables à la commande. Ces différentes étapes sont validées par des essais expérimentaux pour justifier la démarche choisie menant à une commande adaptée à la manipulation d'objets.

  • Exploitation des statistiques structurelles d'une image pour la prédiction de la saillance visuelle et de la qualité perçue    - Nauge Michaël  -  11 décembre 2012

    Voir le résumé
    Voir le résumé
    Dans le domaine de la vision par ordinateur l'utilisation de points d'intérêt (PI) est récurrente pour les problématiques de reconnaissance et de suivi d'objets. Plusieurs études ont prouvé l'utilité de ces techniques, associant robustesse et un temps de calcul pouvant être compatible avec le temps réel. Cette thèse propose d'étudier et d'exploiter ces descripteurs de statistiques de l'image sous un tout autre regard. Ainsi, nous avons menée une étude sur le lien entre les PI et la saillance visuelle humaine. De cette étude nous avons pu développer une méthode de prédiction de carte de saillance exploitant la rapidité d'exécution de ces détecteurs. Nous avons également exploité le pouvoir descriptif de ces PI afin de développer de nouvelles métriques de qualité d'images. Grâce à des résultats encourageant en terme de prédiction de qualité perçue et la faible quantité d'information utilisée, nous avons pu intégrer notre métrique "QIP" dans une chaîne de transmission d'images sur réseau sans fil de type MIMO. L'ajout de cette métrique permet d'augmenter la qualité d'expérience en garantissant la meilleure qualité malgré les erreurs introduites par la transmission sans fil. Nous avons étendu cette étude, par l'analyse fine des statistiques structurelles de l'image et des migrations d'attributs afin de proposer un modèle générique de prédiction des dégradations. Enfin, nous avons été amenés à conduire diverses expériences psychovisuelles, pour valider les approches proposées ou dans le cadre de la normalisation de nouveaux standards du comité JPEG. Ce qui a mené à développer une application web dédiée à l'utilisation et la comparaison des métriques de qualité d'images.

  • Stratégie de codage conjoint pour la transmission d'images dans un système MIMO    - Abot Julien  -  03 décembre 2012

    Voir le résumé
    Voir le résumé
    Ce travail de thèse présente une stratégie de transmission exploitant la diversité spatiale pour la transmission d'images sur canal sans fil. On propose ainsi une approche originale mettant en correspondance la hiérarchie de la source avec celle des sous-canaux SISO issus de la décomposition d'un canal MIMO. On évalue les performances des précodeurs usuels dans le cadre de cette stratégie via une couche physique réaliste, respectant la norme IEEE802.11n, et associé à un canal de transmission basé sur un modèle de propagation à tracé de rayons 3D. On montre ainsi que les précodeurs usuels sont mal adaptés pour la transmission d'un contenu hiérarchisé. On propose alors un algorithme de précodage allouant successivement la puissance sur les sous-canaux SISO afin de maximiser la qualité des images reçues. Le précodeur proposé permet d'atteindre un TEB cible compte tenu du codage canal, de la modulation et du SNR des sous-canaux SISO. A partir de cet algorithme de précodage, on propose une solution d'adaptation de lien permettant de régler dynamiquement les paramètres de la chaîne en fonction des variations sur le canal de transmission. Cette solution détermine la configuration de codage/transmission maximisant la qualité de l'image en réception. Enfin, on présente une étude sur la prise en compte de contraintes psychovisuelles dans l'appréciation de la qualité des images reçues. On propose ainsi l'intégration d'une métrique à référence réduite basée sur des contraintes psychovisuelles permettant d'assister le décodeur vers la configuration de décodage offrant la meilleure qualité d'expérience. Des tests subjectifs confirment l'intérêt de l'approche proposée.

  • Ondelettes analytiques et monogènes pour la représentation des images couleur    - Soulard Raphaël  -  19 novembre 2012

    Voir le résumé
    Voir le résumé
    De nombreux algorithmes de traitement d'image numérique (compression, restauration, analyse) sont basés sur une représentation en ondelettes. Les outils mathématiques disponibles étant souvent pensés pour des signaux 1D à valeurs scalaires (comme le son), ils sont mal adaptés aux signaux 2D vectoriels comme les images couleur. Les méthodes les plus répandues utilisent ces outils indépendamment sur chaque ligne et chaque colonne (méthodes « séparables »), de chaque plan couleur (méthode « marginale ») de l'image. Ces techniques trop simples ne donnent pas accès aux informations visuelles élémentaires, aboutissant à des traitements qui risquent d'introduire des artefacts rectangulaires et de fausses couleurs. Notre axe de recherche se situe autour des représentations analytiques qui utilisent un modèle oscillatoire des signaux. Ces outils de traitement du signal sont connus pour être bien adaptés à la perception humaine (auditive et visuelle), et leur extension à des dimensions supérieures est un sujet encore très actif, qui révèle des propriétés intéressantes pour l'analyse de la géométrie locale. Dans cette thèse, nous faisons une revue des ondelettes analytiques existantes pour l'image en niveaux de gris (dites complexes, quaternioniques et monogènes), et nous proposons des expérimentations qui valident leur intérêt pratique. Nous définissons ensuite une extension vectorielle qui permet de manipuler facilement le contenu géométrique d'une image couleur, ce que nous validons à travers des expérimentations en codage et analyse d'image.

  • Contribution à l'estimation des modèles linéaires à paramètres variants à temps continu. Application à la modélisation des échangeurs de chaleur    - Chouaba Seif Eddine  -  17 septembre 2012

    Voir le résumé
    Voir le résumé
    Le travail de recherche présenté dans ce mémoire est une contribution à l'estimation des modèles Linéaires à Paramètres Variants (LPV) à temps continu. Dans un premier temps, il traite de façon originale la modélisation quasi-LPV des échangeurs de chaleur pour la détection d'encrassement durant les régimes transitoires. La méthodologie définie dans cette thèse est introduite pas à pas pour caractériser un échangeur à courants croisés puis pour celle d'un échangeur à contre-courants montrant ainsi la généricité de l'approche pour la modélisation des échangeurs thermiques. Une méthode locale basée sur une estimation initiale de modèles LTI en différents points du domaine de fonctionnement est utilisée pour construire le modèle LPV en agrégeant les paramètres des différents modèles locaux grâce à une méthode d'interpolation polynomiale liée aux débits massiques. Le modèle quasi-LPV de l'échangeur élaboré en fonctionnement sain permet ainsi d'envisager la détection de l'encrassement dans les échangeurs de chaleur en comparant ses sorties à ceux provenant du procédé. Dans un second temps, ce travail porte sur l'identification des systèmes LPV à représentation entrée-sortie à temps continu par une approche globale. Une solution pratique pour l'identification directe de tels systèmes est proposée. Elle est basée sur l'utilisation d'un algorithme à erreur de sortie initialisé par une approche à erreur d'équation, la méthode des Moments Partiels Réinitialisés. Des simulations illustrent les performances de l'approche proposée.

  • Analyse et modélisation des moteurs Flexfuel pour leur contrôle    - Coppin Thomas  -  05 juin 2012

    Voir le résumé
    Voir le résumé
    L'intérêt pour les énergies renouvelables et pour la réduction des émissions de gaz à effet de serre a conduit au développement de l'éthanol comme carburant pour les moteurs à combustion interne. Les moteurs dits Flexfuel, en particulier, peuvent fonctionner avec un mélange quelconque d'essence et d'éthanol. Ces deux carburants ont des propriétés physico-chimiques différentes, qui influent sur le fonctionnement du moteur et, partant, sur son contrôle. Les systèmes de contrôle moteur habituels ne prennent pas en compte ces propriétés variables. Sur un moteur Flexfuel, les réglages doivent être adaptés à chaque carburant, afin de maintenir le niveau des émissions polluantes et l'agrément. Cependant, ces adaptations ne doivent pas se faire au prix d'un accroissement excessif du travail de calibration. Cette thèse traite de ces questions. Les effets des différentes propriétés du carburant sur le moteur et son contrôle sont tout d'abord analysés afin de définir les besoins en termes de contrôle. Un modèle moyen de moteur, adapté aux variations de propriétés du carburant, est alors développé pour reproduire ces effets et permettre l'évaluation de stratégies de contrôle. Dans ce travail, celles-ci incluent une méthode d'estimation de la composition du carburant pendant le fonctionnement du moteur, et son utilisation dans le contrôle de la richesse.

  • Modélisations polynomiales hiérarchisées applications à l'analyse de mouvements complexes    - Kihl Olivier  -  17 février 2012

    Voir le résumé
    Voir le résumé
    Dans ce mémoire, nous proposons une méthode de modélisation du mouvement à l’aide de bases de polynômes bi-variables orthogonaux. L’objectif est de proposer une modélisation hiérarchique des champs de vecteurs adaptable à tous types de champs. Nous étudions différentes méthodes de partitionnement de l’espace, parmi lesquelles les grilles régulières, les quadtree ou les diagrammes de Voronoï, afin de prendre en compte la complexité locale du champ pour affiner la modélisation. Nous obtenons des résultats qualitatifs montrant l’intérêt de ce type de modélisation. De plus, nous proposons une procédure de génération des bases afin de modéliser les champs épars. Nous appliquons cette méthode de modélisation dans deux contextes. La détection de points singuliers dans les champs de déplacement et la reconnaissance de mouvements humains. Ces deux applications nous permettent de mettre en évidence l’efficacité de cette méthode, puisque nous obtenons des résultats comparables aux méthodes les plus efficaces de la littérature.

  • Optimisation du contrôle de débit de H.264/AVC basée sur une nouvelle modélisation Débit-Quantification et une allocation sélective de bits    - Hrarti Miryem  -  10 décembre 2011

    Voir le résumé
    Voir le résumé
    Cette thèse se focalise sur l'optimisation de l'algorithme du contrôle de débit du standard H.264/AVC. Cet algorithme constitué de deux parties fondamentales : allocation de bits et détermination du paramètre de quantification (QP), ne présente pas les meilleures performances et loin d'être optimal. Ainsi, nous avons proposé de nouvelles techniques permettant de déterminer de manière plus appropriée le QP et d'allouer finement le budget de bits tout en intégrant des propriétés du système visuel humain. Pour une meilleure estimation du QP, deux modèles Débit-Quantification (R-Q) sont proposés. Le premier modèle conçu pour les trames Intra, est un modèle non-linéaire utilisé pour déterminer de manière optimale le QP initial en exploitant la relation entre le débit cible et la complexité des trames Intra. Le second modèle logarithmique, est conçu pour les unités de codage Inter. Outre ses performances, ce modèle se substitue aux deux modèles utilisés par le contrôleur de débit de H.264/AVC, et offre ainsi une réduction de la complexité calculatoire. L'allocation de bits au niveau trame du profil de base de H.264/AVC reste basique car elle alloue équitablement le nombre de bits aux unités Inter indépendamment de leur complexité. Pour une allocation plus fine, deux mesures de complexité sont exploitées. La première est un rapport de mouvement déterminé à partir de bits réels utilisés pour coder les trames précédentes. La seconde mesure exploite la différence entre trames adjacentes et l'histogramme de cette différence. Enfin, et pour mieux contrôler la qualité, une carte de saillance est intégrée au processus d'allocation de bits. Au niveau trame, elle est utilisée...

|< << 1 2 3 4 >> >| thèses par page

Haut de page


  • Avec le service Ubib.fr, posez votre question par chat à un bibliothécaire dans la fenêtre ci-dessous.

 
 

Université de Poitiers - 15, rue de l'Hôtel Dieu - 86034 POITIERS Cedex - France - Tél : (33) (0)5 49 45 30 00 - Fax : (33) (0)5 49 45 30 50
these@support.univ-poitiers.fr - Crédits et mentions légales