Vous êtes ici : Accueil > Sections CNU > Section 61 - Génie informatique, automatique et traitement du signal

Section 61 - Génie informatique, automatique et traitement du signal

Les thèses se rapportant à la section CNU "Section 61 - Génie informatique, automatique et traitement du signal"

Pour être informé de la mise en ligne des nouvelles thèses correspondant à la recherche effectuée, abonnez-vous au flux RSS : rss

accès internet    accès intranet    confidentialité
29 ressources ont été trouvées. Voici les résultats 1 à 10
Tri :   Date Auteur Titre thèses par page
  • Stratégie de codage conjoint pour la transmission d'images dans un système MIMO    - Abot Julien  -  03 décembre 2012

    Voir le résumé
    Voir le résumé
    Ce travail de thèse présente une stratégie de transmission exploitant la diversité spatiale pour la transmission d'images sur canal sans fil. On propose ainsi une approche originale mettant en correspondance la hiérarchie de la source avec celle des sous-canaux SISO issus de la décomposition d'un canal MIMO. On évalue les performances des précodeurs usuels dans le cadre de cette stratégie via une couche physique réaliste, respectant la norme IEEE802.11n, et associé à un canal de transmission basé sur un modèle de propagation à tracé de rayons 3D. On montre ainsi que les précodeurs usuels sont mal adaptés pour la transmission d'un contenu hiérarchisé. On propose alors un algorithme de précodage allouant successivement la puissance sur les sous-canaux SISO afin de maximiser la qualité des images reçues. Le précodeur proposé permet d'atteindre un TEB cible compte tenu du codage canal, de la modulation et du SNR des sous-canaux SISO. A partir de cet algorithme de précodage, on propose une solution d'adaptation de lien permettant de régler dynamiquement les paramètres de la chaîne en fonction des variations sur le canal de transmission. Cette solution détermine la configuration de codage/transmission maximisant la qualité de l'image en réception. Enfin, on présente une étude sur la prise en compte de contraintes psychovisuelles dans l'appréciation de la qualité des images reçues. On propose ainsi l'intégration d'une métrique à référence réduite basée sur des contraintes psychovisuelles permettant d'assister le décodeur vers la configuration de décodage offrant la meilleure qualité d'expérience. Des tests subjectifs confirment l'intérêt de l'approche proposée.

  • Optimisation d'un procédé de traitement des eaux par ozonation catalytique    - Abouzlam Manhal  -  10 janvier 2014

    Voir le résumé
    Voir le résumé
    Le principal objectif de la thèse est l'optimisation d'un procédé d'oxydation avancée par la mise en œuvre des outils de l'automatique moderne. Le procédé considéré concerne l'ozonation catalytique utilisé pour traiter les eaux résiduaires industrielles. L'optimisation de ce procédé consiste à contrôler l'abattement des polluants tout en minimisant le coût de fonctionnement du procédé. La mesure en ligne de la concentration en polluant est fournie par l'absorbance, grandeur corrélée à la DCO. Le procédé est alors considéré comme un système à une entrée, la puissance du générateur d'ozone, et deux sorties, l'ozone dans les évents et l'absorbance. L'identification du procédé a mené à l'estimation d'un modèle linéaire pour construire les lois de commande et d'un modèle non-linéaire, de type modèle de Wiener, pour tester les correcteurs en simulation avant les essais expérimentaux. Les trois commandes testées, la commande par modèle interne, la commande optimale et la commande H∞, permettent de rejeter des perturbations sur la concentration en polluant dans les effluents à traiter. Des analyses de stabilité du système bouclé, vis-à-vis de retards sur la commande, ont été menées. Les résultats expérimentaux obtenus ont permis de conclure sur les gains significatifs apportés par ces développements. La méthodologie développée pour cette application peut être étendue à d'autres procédés afin de faciliter le développement industriel des procédés d'oxydation avancée.

  • Identification en boucle fermée de la machine asynchrone : application à la détection de défaut    - Bazine Imène  -  16 juin 2008

    Voir le résumé
    Voir le résumé
    Ce mémoire de thèse relate la mise au point d'une méthodologie d'identification en boucle fermée de la machine asynchrone, grâce à une prise en compte explicite de l'algorithme de commande vectorielle. Fondamentalement, l'identification directe pose des problèmes en raison des perturbations stochastiques que l'on retrouve sur la variable de commande via la boucle de régulation, ce qui rend l'estimation asymptotiquement biaisée. Nous proposons de remédier à ce problème grâce à une identification indirecte sur la base de la connaissance du correcteur. De plus, nous étendons le champ d'application de cette approche en identifiant préalablement un correcteur équivalent à l'aide d'une technique de moindres carrés surparamétrisés, afin d'éviter la connaissance a priori de la structure et des paramètres du correcteur. Une structure minimale du correcteur équivalent surparamétrisé est obtenue grâce à un test original portant sur les moments. L'identification de la machine asynchrone est effectuée grâce au correcteur équivalent, à l'aide d'un algorithme du type erreur de sortie. Outre l'élimination du biais asymptotique, les études comparatives réalisées en simulation stochastique ont montré que l'approche indirecte fournit des estimées plus précises, et cela pour une excitation de la machine uniquement constituée par les variations du couple de charge. Enfin, cette nouvelle méthodologie d'identification en boucle fermée a permis d'améliorer la détection des défauts statoriques et rotoriques de la machine asynchrone, grâce à une meilleure réjection des fausses alarmes.

  • Modélisation de l'interaction lumière/matière pour l'analyse de surfaces rugueuses texturées par stéréo photométrie    - Bony Alexandre  -  02 décembre 2013

    Voir le résumé
    Voir le résumé
    Les techniques de reconstruction 3d sont devenues incontournables pour des applications telles que la caractérisation et l'analyse de surfaces. Les travaux réalisés au cours de cette thèse ont pour objectif d'améliorer la qualité des reconstructions 3d par stéréophotométrie. Cette méthode repose sur deux principes, l'inversion d'un modèle d'interaction lumière/matière (BRDF) et la configuration d'un système d'éclairage et de prises de vues. Pour des surfaces diffuses, la stéréo-photométrie est réalisée à partir d'un minimum de trois images acquises d'un point de vue fixe pour des directions d'éclairages différentes. Son avantage est d'extraire simultanément les propriétés géométriques et colorimétriques des surfaces analysées même en cas de forte rugosité. Néanmoins, son application exige la formulation de plusieurs hypothèses qui sont difficilement respectables dans un contexte réel. Ceci génère des erreurs significatives dans les reconstructions. Pour les réduire, nous proposons différentes contributions qui s'articulent autour de la prise en compte globale de la chaine d'acquisition. Les apports de nos travaux se situent aux niveaux de la caractérisation et de la modélisation du système d'éclairage, du capteur d'acquisition et de l'amélioration de la qualité des images. Nous nous sommes aussi intéressés à l'optimisation des protocoles de prises de vues dans le cas de spécularité surfacique ou d'ombrage dus à la présence de rugosité. Les résultats obtenus montrent que la prise en compte de ces caractéristiques dans l'inversion d'un modèle de BRDF permet une nette amélioration des reconstructions et offre la possibilité de réduire la taille des systèmes d'acquisition.

  • Face analysis using polynomials    - Bordei Cristina  -  03 mars 2016

    Voir le résumé
    Voir le résumé
    Considéré comme l'un des sujets de recherche les plus actifs et visibles de la vision par ordinateur, de la reconnaissance des formes et de la biométrie, l'analyse faciale a fait l'objet d'études approfondies au cours des deux dernières décennies. Le travail de cette thèse a pour objectif de proposer de nouvelles techniques d'utilisation de représentations de texture basées polynômes pour l'analyse faciale.
    La première partie de cette thèse est dédiée à l'intégration de bases de polynômes dans les modèles actifs d'apparence. Nous proposons premièrement une manière d'utiliser les coefficients polynomiaux dans la modélisation de l'apparence. Ensuite, afin de réduire la complexité du modèle nous proposons de choisir et d'utiliser les meilleurs coefficients en tant que représentation de texture. Enfin, nous montrons comment ces derniers peuvent être utilisés dans un algorithme de descente de gradient.
    La deuxième partie de la thèse porte sur l'utilisation des bases polynomiales pour la détection des points/zones d'intérêt et comme descripteur pour la reconnaissance des expressions faciales. Inspirés par des techniques de détection des singularités dans des champ de vecteurs, nous commençons par présenter un algorithme utilisé pour l'extraction des points d'intérêt dans une image. Puis nous montrons comment les bases polynomiales peuvent être utilisées pour extraire des informations sur les expressions faciales. Puisque les coefficients polynomiaux fournissent une analyse précise multi-échelles et multi-orientation et traitent le problème de redondance efficacement ils sont utilisés en tant que descripteurs dans un algorithme de classification d'expression faciale.

  • Segmentation 3D d'images scintigraphiques et simulations très réalistes GATE    - Burg Samuel  -  26 janvier 2011

    Voir le résumé
    Voir le résumé
    L'objectif de cette thèse était de proposer de nouvelles méthodes de segmentation 3D en imagerie scintigraphique. Une première partie des travaux réalisés a consisté à simuler des volumes 3D avec vérité de terrain connue afin de pouvoir valider une méthode de segmentation par rapport aux autres. Des simulations de MonteCarlo ont été réalisées à l'aide du logiciel GATE (Geant4 Application for Emission Tomography). Pour cela, nous avons caractérisé et modélisé la gamma camera "? Imager" Biospace(tm) en comparant chaque mesure d'une acquisition réelle à une simulation équivalente. L'outil de segmentation "bas niveau" que nous avons développé s'appuie sur une modélisation des niveaux de l'image par une loi de mélange dont l'estimation des paramètres est réalisée par un algorithme SEM (Stochastic Expectation Maximization). La segmentation des volumes 3D est obtenue par un algorithme ICM (Iterative Conditional Mode). Nous avons comparé des segmentations basées sur des mélanges Gaussiens et Poissonniens à des segmentations par seuillage sur les volumes simulés. Ceci a montré la pertinence des segmentations obtenues à l'aide des lois de mélange, notamment celles obtenues avec les mélanges Poissonniens. Ces derniers ont été utilisés pour segmenter des images cérébrales réelles TEP 18FDG et calculer des statistiques descriptives des différents tissus. En vue d'obtenir une méthode de segmentation "haut niveau" et retrouver des structures anatomiques (zone nécrosée ou zone active d'une tumeur par exemple), nous avons proposé un processus exploitant le formalisme des processus ponctuels. Une étude de faisabilité nous a permis d'obtenir des résultats très encourageants.

  • Contribution à l'estimation des modèles linéaires à paramètres variants à temps continu. Application à la modélisation des échangeurs de chaleur    - Chouaba Seif Eddine  -  17 septembre 2012

    Voir le résumé
    Voir le résumé
    Le travail de recherche présenté dans ce mémoire est une contribution à l'estimation des modèles Linéaires à Paramètres Variants (LPV) à temps continu. Dans un premier temps, il traite de façon originale la modélisation quasi-LPV des échangeurs de chaleur pour la détection d'encrassement durant les régimes transitoires. La méthodologie définie dans cette thèse est introduite pas à pas pour caractériser un échangeur à courants croisés puis pour celle d'un échangeur à contre-courants montrant ainsi la généricité de l'approche pour la modélisation des échangeurs thermiques. Une méthode locale basée sur une estimation initiale de modèles LTI en différents points du domaine de fonctionnement est utilisée pour construire le modèle LPV en agrégeant les paramètres des différents modèles locaux grâce à une méthode d'interpolation polynomiale liée aux débits massiques. Le modèle quasi-LPV de l'échangeur élaboré en fonctionnement sain permet ainsi d'envisager la détection de l'encrassement dans les échangeurs de chaleur en comparant ses sorties à ceux provenant du procédé. Dans un second temps, ce travail porte sur l'identification des systèmes LPV à représentation entrée-sortie à temps continu par une approche globale. Une solution pratique pour l'identification directe de tels systèmes est proposée. Elle est basée sur l'utilisation d'un algorithme à erreur de sortie initialisé par une approche à erreur d'équation, la méthode des Moments Partiels Réinitialisés. Des simulations illustrent les performances de l'approche proposée.

  • Analyse et modélisation des moteurs Flexfuel pour leur contrôle    - Coppin Thomas  -  05 juin 2012

    Voir le résumé
    Voir le résumé
    L'intérêt pour les énergies renouvelables et pour la réduction des émissions de gaz à effet de serre a conduit au développement de l'éthanol comme carburant pour les moteurs à combustion interne. Les moteurs dits Flexfuel, en particulier, peuvent fonctionner avec un mélange quelconque d'essence et d'éthanol. Ces deux carburants ont des propriétés physico-chimiques différentes, qui influent sur le fonctionnement du moteur et, partant, sur son contrôle. Les systèmes de contrôle moteur habituels ne prennent pas en compte ces propriétés variables. Sur un moteur Flexfuel, les réglages doivent être adaptés à chaque carburant, afin de maintenir le niveau des émissions polluantes et l'agrément. Cependant, ces adaptations ne doivent pas se faire au prix d'un accroissement excessif du travail de calibration. Cette thèse traite de ces questions. Les effets des différentes propriétés du carburant sur le moteur et son contrôle sont tout d'abord analysés afin de définir les besoins en termes de contrôle. Un modèle moyen de moteur, adapté aux variations de propriétés du carburant, est alors développé pour reproduire ces effets et permettre l'évaluation de stratégies de contrôle. Dans ce travail, celles-ci incluent une méthode d'estimation de la composition du carburant pendant le fonctionnement du moteur, et son utilisation dans le contrôle de la richesse.

  • Towards spectral mathematical morphology    - Deborah Hilda  -  21 décembre 2016

    Voir le résumé
    Voir le résumé
    En fournissant en plus de l'information spatiale une mesure spectrale en fonction des longueurs d'ondes, l'imagerie hyperspectrale s'enorgueillie d'atteindre une précision bien plus importante que l'imagerie couleur. Grâce à cela, elle a été utilisée en contrôle qualité, inspection de matériaux,… Cependant, pour exploiter pleinement ce potentiel, il est important de traiter la donnée spectrale comme une mesure, d'où la nécessité de la métrologie, pour laquelle exactitude, incertitude et biais doivent être maitrisés à tous les niveaux de traitement. Face à cet objectif, nous avons choisi de développer une approche non-linéaire, basée sur la morphologie mathématique et de l'étendre au domaine spectral par le biais d'une relation d'ordre spectral basée sur les fonctions de distance. Une nouvelle fonction de distance spectrale et une nouvelle relation d'ordonnancement sont ainsi proposées. De plus, un nouvel outil d'analyse du basé sur les histogrammes de différences spectrales a été développé. Afin d'assurer la validité des opérateurs, une validation théorique rigoureuse et une évaluation métrologique ont été mises en œuvre à chaque étage de développement. Des protocoles d'évaluation de la qualité des traitements morphologiques sont proposés, exploitant des jeux de données artificielles pour la validation théorique, des ensembles de données dont certaines caractéristiques sont connues pour évaluer la robustesse et la stabilité et des jeux de données de cas réel pour prouver l'intérêt des approches en contexte applicatif. Les applications sont développées dans le contexte du patrimoine culturel pour l'analyse de peintures et pigments.

  • Modélisation du mouvement par polynômes orthogonaux : application à l'étude d'écoulements fluides    - Druon Martin  -  11 février 2009

    Voir le résumé
    Voir le résumé
    Dans ce mémoire, nous proposons une méthode permettant de modéliser, de façon globale, tout type de mouvement par des combinaisons linéaires de polynômes orthogonaux. Pour cela, nous projetons chaque champ de déplacement représentant le mouvement étudié sur une base orthogonale composée des polynômes de Legendre. Nous obtenons alors une expression polynomiale du mouvement considéré. Une modélisation d'ordre faible permet d'interpréter physiquement le mouvement dominant de séquences d'images. Cette caractéristique trouve un intérêt particulier dans des applications telles que la vidéo-surveillance, l'indexation ou l'étude du comportement. Nous montrons également que notre méthode permet de modéliser des mouvements complexes tels que des écoulements fluides. La représentation du mouvement sous forme polynomiale, les faibles temps de calcul ainsi que les taux de compression élevés sont alors des atouts importants pour traiter ce type de données

|< << 1 2 3 >> >| thèses par page

Haut de page


  • Avec le service Ubib.fr, posez votre question par chat à un bibliothécaire dans la fenêtre ci-dessous.

 
 

Université de Poitiers - 15, rue de l'Hôtel Dieu - 86034 POITIERS Cedex - France - Tél : (33) (0)5 49 45 30 00 - Fax : (33) (0)5 49 45 30 50
these@support.univ-poitiers.fr - Crédits et mentions légales