Vous êtes ici : Accueil > Sections CNU > Section 61 - Génie informatique, automatique et traitement du signal

Section 61 - Génie informatique, automatique et traitement du signal

Les thèses se rapportant à la section CNU "Section 61 - Génie informatique, automatique et traitement du signal"

Pour être informé de la mise en ligne des nouvelles thèses correspondant à la recherche effectuée, abonnez-vous au flux RSS : rss

accès internet    accès intranet    confidentialité
29 ressources ont été trouvées. Voici les résultats 11 à 20
Tri :   Date Auteur Titre thèses par page
  • Exploitation des statistiques structurelles d'une image pour la prédiction de la saillance visuelle et de la qualité perçue    - Nauge Michaël  -  11 décembre 2012

    Voir le résumé
    Voir le résumé
    Dans le domaine de la vision par ordinateur l'utilisation de points d'intérêt (PI) est récurrente pour les problématiques de reconnaissance et de suivi d'objets. Plusieurs études ont prouvé l'utilité de ces techniques, associant robustesse et un temps de calcul pouvant être compatible avec le temps réel. Cette thèse propose d'étudier et d'exploiter ces descripteurs de statistiques de l'image sous un tout autre regard. Ainsi, nous avons menée une étude sur le lien entre les PI et la saillance visuelle humaine. De cette étude nous avons pu développer une méthode de prédiction de carte de saillance exploitant la rapidité d'exécution de ces détecteurs. Nous avons également exploité le pouvoir descriptif de ces PI afin de développer de nouvelles métriques de qualité d'images. Grâce à des résultats encourageant en terme de prédiction de qualité perçue et la faible quantité d'information utilisée, nous avons pu intégrer notre métrique "QIP" dans une chaîne de transmission d'images sur réseau sans fil de type MIMO. L'ajout de cette métrique permet d'augmenter la qualité d'expérience en garantissant la meilleure qualité malgré les erreurs introduites par la transmission sans fil. Nous avons étendu cette étude, par l'analyse fine des statistiques structurelles de l'image et des migrations d'attributs afin de proposer un modèle générique de prédiction des dégradations. Enfin, nous avons été amenés à conduire diverses expériences psychovisuelles, pour valider les approches proposées ou dans le cadre de la normalisation de nouveaux standards du comité JPEG. Ce qui a mené à développer une application web dédiée à l'utilisation et la comparaison des métriques de qualité d'images.

  • Stratégie de codage conjoint pour la transmission d'images dans un système MIMO    - Abot Julien  -  03 décembre 2012

    Voir le résumé
    Voir le résumé
    Ce travail de thèse présente une stratégie de transmission exploitant la diversité spatiale pour la transmission d'images sur canal sans fil. On propose ainsi une approche originale mettant en correspondance la hiérarchie de la source avec celle des sous-canaux SISO issus de la décomposition d'un canal MIMO. On évalue les performances des précodeurs usuels dans le cadre de cette stratégie via une couche physique réaliste, respectant la norme IEEE802.11n, et associé à un canal de transmission basé sur un modèle de propagation à tracé de rayons 3D. On montre ainsi que les précodeurs usuels sont mal adaptés pour la transmission d'un contenu hiérarchisé. On propose alors un algorithme de précodage allouant successivement la puissance sur les sous-canaux SISO afin de maximiser la qualité des images reçues. Le précodeur proposé permet d'atteindre un TEB cible compte tenu du codage canal, de la modulation et du SNR des sous-canaux SISO. A partir de cet algorithme de précodage, on propose une solution d'adaptation de lien permettant de régler dynamiquement les paramètres de la chaîne en fonction des variations sur le canal de transmission. Cette solution détermine la configuration de codage/transmission maximisant la qualité de l'image en réception. Enfin, on présente une étude sur la prise en compte de contraintes psychovisuelles dans l'appréciation de la qualité des images reçues. On propose ainsi l'intégration d'une métrique à référence réduite basée sur des contraintes psychovisuelles permettant d'assister le décodeur vers la configuration de décodage offrant la meilleure qualité d'expérience. Des tests subjectifs confirment l'intérêt de l'approche proposée.

  • Ondelettes analytiques et monogènes pour la représentation des images couleur    - Soulard Raphaël  -  19 novembre 2012

    Voir le résumé
    Voir le résumé
    De nombreux algorithmes de traitement d'image numérique (compression, restauration, analyse) sont basés sur une représentation en ondelettes. Les outils mathématiques disponibles étant souvent pensés pour des signaux 1D à valeurs scalaires (comme le son), ils sont mal adaptés aux signaux 2D vectoriels comme les images couleur. Les méthodes les plus répandues utilisent ces outils indépendamment sur chaque ligne et chaque colonne (méthodes « séparables »), de chaque plan couleur (méthode « marginale ») de l'image. Ces techniques trop simples ne donnent pas accès aux informations visuelles élémentaires, aboutissant à des traitements qui risquent d'introduire des artefacts rectangulaires et de fausses couleurs. Notre axe de recherche se situe autour des représentations analytiques qui utilisent un modèle oscillatoire des signaux. Ces outils de traitement du signal sont connus pour être bien adaptés à la perception humaine (auditive et visuelle), et leur extension à des dimensions supérieures est un sujet encore très actif, qui révèle des propriétés intéressantes pour l'analyse de la géométrie locale. Dans cette thèse, nous faisons une revue des ondelettes analytiques existantes pour l'image en niveaux de gris (dites complexes, quaternioniques et monogènes), et nous proposons des expérimentations qui valident leur intérêt pratique. Nous définissons ensuite une extension vectorielle qui permet de manipuler facilement le contenu géométrique d'une image couleur, ce que nous validons à travers des expérimentations en codage et analyse d'image.

  • Contribution à l'estimation des modèles linéaires à paramètres variants à temps continu. Application à la modélisation des échangeurs de chaleur    - Chouaba Seif Eddine  -  17 septembre 2012

    Voir le résumé
    Voir le résumé
    Le travail de recherche présenté dans ce mémoire est une contribution à l'estimation des modèles Linéaires à Paramètres Variants (LPV) à temps continu. Dans un premier temps, il traite de façon originale la modélisation quasi-LPV des échangeurs de chaleur pour la détection d'encrassement durant les régimes transitoires. La méthodologie définie dans cette thèse est introduite pas à pas pour caractériser un échangeur à courants croisés puis pour celle d'un échangeur à contre-courants montrant ainsi la généricité de l'approche pour la modélisation des échangeurs thermiques. Une méthode locale basée sur une estimation initiale de modèles LTI en différents points du domaine de fonctionnement est utilisée pour construire le modèle LPV en agrégeant les paramètres des différents modèles locaux grâce à une méthode d'interpolation polynomiale liée aux débits massiques. Le modèle quasi-LPV de l'échangeur élaboré en fonctionnement sain permet ainsi d'envisager la détection de l'encrassement dans les échangeurs de chaleur en comparant ses sorties à ceux provenant du procédé. Dans un second temps, ce travail porte sur l'identification des systèmes LPV à représentation entrée-sortie à temps continu par une approche globale. Une solution pratique pour l'identification directe de tels systèmes est proposée. Elle est basée sur l'utilisation d'un algorithme à erreur de sortie initialisé par une approche à erreur d'équation, la méthode des Moments Partiels Réinitialisés. Des simulations illustrent les performances de l'approche proposée.

  • Analyse et modélisation des moteurs Flexfuel pour leur contrôle    - Coppin Thomas  -  05 juin 2012

    Voir le résumé
    Voir le résumé
    L'intérêt pour les énergies renouvelables et pour la réduction des émissions de gaz à effet de serre a conduit au développement de l'éthanol comme carburant pour les moteurs à combustion interne. Les moteurs dits Flexfuel, en particulier, peuvent fonctionner avec un mélange quelconque d'essence et d'éthanol. Ces deux carburants ont des propriétés physico-chimiques différentes, qui influent sur le fonctionnement du moteur et, partant, sur son contrôle. Les systèmes de contrôle moteur habituels ne prennent pas en compte ces propriétés variables. Sur un moteur Flexfuel, les réglages doivent être adaptés à chaque carburant, afin de maintenir le niveau des émissions polluantes et l'agrément. Cependant, ces adaptations ne doivent pas se faire au prix d'un accroissement excessif du travail de calibration. Cette thèse traite de ces questions. Les effets des différentes propriétés du carburant sur le moteur et son contrôle sont tout d'abord analysés afin de définir les besoins en termes de contrôle. Un modèle moyen de moteur, adapté aux variations de propriétés du carburant, est alors développé pour reproduire ces effets et permettre l'évaluation de stratégies de contrôle. Dans ce travail, celles-ci incluent une méthode d'estimation de la composition du carburant pendant le fonctionnement du moteur, et son utilisation dans le contrôle de la richesse.

  • Modélisations polynomiales hiérarchisées applications à l'analyse de mouvements complexes    - Kihl Olivier  -  17 février 2012

    Voir le résumé
    Voir le résumé
    Dans ce mémoire, nous proposons une méthode de modélisation du mouvement à l’aide de bases de polynômes bi-variables orthogonaux. L’objectif est de proposer une modélisation hiérarchique des champs de vecteurs adaptable à tous types de champs. Nous étudions différentes méthodes de partitionnement de l’espace, parmi lesquelles les grilles régulières, les quadtree ou les diagrammes de Voronoï, afin de prendre en compte la complexité locale du champ pour affiner la modélisation. Nous obtenons des résultats qualitatifs montrant l’intérêt de ce type de modélisation. De plus, nous proposons une procédure de génération des bases afin de modéliser les champs épars. Nous appliquons cette méthode de modélisation dans deux contextes. La détection de points singuliers dans les champs de déplacement et la reconnaissance de mouvements humains. Ces deux applications nous permettent de mettre en évidence l’efficacité de cette méthode, puisque nous obtenons des résultats comparables aux méthodes les plus efficaces de la littérature.

  • Optimisation du contrôle de débit de H.264/AVC basée sur une nouvelle modélisation Débit-Quantification et une allocation sélective de bits    - Hrarti Miryem  -  10 décembre 2011

    Voir le résumé
    Voir le résumé
    Cette thèse se focalise sur l'optimisation de l'algorithme du contrôle de débit du standard H.264/AVC. Cet algorithme constitué de deux parties fondamentales : allocation de bits et détermination du paramètre de quantification (QP), ne présente pas les meilleures performances et loin d'être optimal. Ainsi, nous avons proposé de nouvelles techniques permettant de déterminer de manière plus appropriée le QP et d'allouer finement le budget de bits tout en intégrant des propriétés du système visuel humain. Pour une meilleure estimation du QP, deux modèles Débit-Quantification (R-Q) sont proposés. Le premier modèle conçu pour les trames Intra, est un modèle non-linéaire utilisé pour déterminer de manière optimale le QP initial en exploitant la relation entre le débit cible et la complexité des trames Intra. Le second modèle logarithmique, est conçu pour les unités de codage Inter. Outre ses performances, ce modèle se substitue aux deux modèles utilisés par le contrôleur de débit de H.264/AVC, et offre ainsi une réduction de la complexité calculatoire. L'allocation de bits au niveau trame du profil de base de H.264/AVC reste basique car elle alloue équitablement le nombre de bits aux unités Inter indépendamment de leur complexité. Pour une allocation plus fine, deux mesures de complexité sont exploitées. La première est un rapport de mouvement déterminé à partir de bits réels utilisés pour coder les trames précédentes. La seconde mesure exploite la différence entre trames adjacentes et l'histogramme de cette différence. Enfin, et pour mieux contrôler la qualité, une carte de saillance est intégrée au processus d'allocation de bits. Au niveau trame, elle est utilisée...

  • De la combinaison/compétition de classifieurs vers la sélection dynamique d'opérateurs de traitement d'image    - Sochacki Stéphane  -  05 décembre 2011

    Voir le résumé
    Voir le résumé
    L'évolution des technologies a permis le développement du multimédia et des grandes bases de données hétérogènes (textes, images, sons, vidéo, ...). Cependant cette évolution a amplifié le besoin de solutions de traitement automatique. Bien que de nombreuses années de recherche aient abouti au développement d'opérateurs de plus en plus performants, leur interopérabilité et parfois même leurs réglages restent à la charge des experts. Cette limite nuit au développement de systèmes pluri-média spécialisés et grand public. Ce travail de recherche se partage en trois parties principales. Gérer de façon automatique une chaîne de traitement d'images allant du prétraitement à la décision, impose de construire un système rétro‐bouclé. Chaque étage nécessite la conception d'informations liées à la qualité ou la précision de l'action effectuée mais aussi d'informations indiquant la pertinence de cette action selon l'objectif visé. Cette première partie s'appuie sur la Théorie de l'Evidence. Une phase intermédiaire de validation sera mise en oeuvre autour des classes d'opérateurs de calcul d'attributs et de classification. Les variabilités intrinsèques aux documents patrimoniaux et par extension aux bases multimédia introduisent la difficulté du choix d'une séquence unique d'opérateurs. Afin de décider dynamiquement de la meilleure chaîne pour le document d'entrée permettant d'atteindre l'objectif visé, le système doit pouvoir mettre en concurrence/compétition les différents opérateurs dans une même classe. Cette deuxième partie exploite les critères de précision/pertinence établis précédemment. Une validation intermédiaire sur la gestion des attributs de caractérisation des primitives graphiques et des classifieurs hiérarchiques sera utilisée. La classification se basant sur un ensemble de données, les attributs, il faut également que la chaîne de traitement manipule des opérateurs comme des analyses de texture ou de forme. Mais pour les intégrer, nous avons besoin d'en connaître la précision par l'utilité et la conservation de l'information. Ce sera la troisième grande étape, au travers de l'étude d'attributs de descripteurs de formes. Le déroulement de ce travail de thèse permettra de développer ces différents points dans le cadre d'une chaîne de traitement complète. Le cadre de travail permettra d'intégrer ces développements dans une application dédiée à l'analyse et la valorisation de documents patrimoniaux. Des éléments intermédiaires de validation seront développés pour quantifier la qualité et la stabilité des solutions proposées. Ce travail de thèse s'inscrit dans la suite de celui de D. Arrivault entre le laboratoire XLIMSIC et la société RC‐Soft, il rentre également dans le cadre des travaux dont le résultat est exploité au sein du programme des Environnements Documentaires Interactifs auxquels ont participé les deux entités.

  • Contribution au contrôle des pulsations de couple d'une propulsion hybride    - Njeh Mohamed  -  01 mars 2011

    Voir le résumé
    Voir le résumé
    Le travail de recherche présenté dans ce mémoire concerne le développement de nouvelles stratégies de commande pour atténuer les pulsations de couple d'une motorisation hybride diesel/électrique. Sur un moteur diesel, les pulsations de couple sont quasi-périodiques pour une vitesse de rotation donnée. Nous présenterons deux stratégies de commande pour des régimes moteur fixe et variable. La première approche est basée sur une projection du modèle d'état dans un référentiel tournant à la fréquence de l'harmonique à rejeter. Cette modélisation particulière conduit à considérer une pulsation harmonique comme un signal exogène constant. La présence d'un degré d'intégration dans le correcteur couplé à un critère H∞ permet de rejeter la perturbation par un retour de sortie dynamique. La deuxième approche est basée sur une commande par modèle interne. Le correcteur possède une copie du modèle de la perturbation exogène. C'est un problème de rejet de perturbation persistante et de suivi de consigne. Ces deux approches de commande ont été adaptées pour des vitesses variables. Dans ce cas, les modèles des systèmes et les correcteurs sont à paramètres variant (Linear Parameter Varying). Une technique de synthèse basée sur la S-procedure et les multiplieurs de rang plein est utilisée pour résoudre le problème du retour de sortie. Ces stratégies sont appliquées à un banc d'essai expérimental constitué d'un monocylindre diesel couplé à une machine synchrone à aimants permanents.

  • Contribution à l'identification et à la quantification des incertitudes des systèmes multivariables    - Farah Wafa  -  28 février 2011

    Voir le résumé
    Voir le résumé
    Dans cette thèse, le problème de détermination des domaines d'incertitude et de modélisation de l'erreur du modèle de systèmes représentés à l'aide de formes d'état linéaires à temps invariant est considéré. Les solutions proposées se décomposent en deux étapes. La première consiste à identifier un modèle d'état à l'aide d'algorithmes des sous-espaces à temps continu et discret. Contrairement aux approches classiques conduisant à une représentation totalement paramétrée, les techniques considérées dans cette thèse présentent la particularité de fournir une forme canonique parcimonieuse composée d'invariants du système. Ayant accès à une estimation consistante des paramètres du système, la seconde phase cherche à caractériser les domaines d'incertitude des paramètres estimés. Une approche de type erreur bornée est plus précisément employée. Cette approche est utilisée afin de déterminer ces domaines par des régions ellipsoïdales. Dans ce contexte, pour chaque algorithme d'identification développé, nous proposons une méthode de caractérisation des domaines d'incertitude des coefficients des matrices d'état. Le problème de modélisation de l'erreur du modèle est également considéré au sein de cette thèse. Nous proposons une technique d'estimation des paramètres physiques d'un système multivariable grâce à un modèle d'ordre réduit. Lors de l'identification des paramètres de ce modèle, un biais du à l'erreur de modélisation apparaît. Pour remédier à ce problème, une méthode de réjection du biais est appliquée en approchant l'erreur de modélisation par un ensemble de modèles de types boites noires contraints. Les méthodologies développées au sein du manuscrit...

|< << 1 2 3 >> >| thèses par page

Haut de page


  • Avec le service Ubib.fr, posez votre question par chat à un bibliothécaire dans la fenêtre ci-dessous.

 
 

Université de Poitiers - 15, rue de l'Hôtel Dieu - 86034 POITIERS Cedex - France - Tél : (33) (0)5 49 45 30 00 - Fax : (33) (0)5 49 45 30 50
these@support.univ-poitiers.fr - Crédits et mentions légales