Vous êtes ici : Accueil > Sections CNU > 61 - Génie informatique, automatique et traitement du signal

61 - Génie informatique, automatique et traitement du signal

Les thèses se rapportant à la section CNU "61 - Génie informatique, automatique et traitement du signal"

Pour être informé de la mise en ligne des nouvelles thèses correspondant à la recherche effectuée, abonnez-vous au flux RSS : rss

accès internet    accès intranet    confidentialité
72 ressources ont été trouvées. Voici les résultats 1 à 10
Tri :   Date Auteur Titre thèses par page
  • Perceptual content and tone adaptation for HDR display technologies    - Abebe Mekides Assefa  -  07 octobre 2016

    Voir le résumé
    Voir le résumé
    Les technologies de capture et d'affichage d'images ont fait un grand pas durant la dernière décennie en termes de capacités de reproduction de la couleur, de gamme de dynamique et de détails des scènes réelles. Les caméras et les écrans à large gamme de dynamique (HDR: high dynamic range) sont d'ores et déjà disponibles, offrant ainsi plus de flexibilité pour les créateurs de contenus afin de produire des scènes plus réalistes. Dans le même temps, à cause des limitations des appareils conventionnels, il existe un gap important en terme de reproduction de contenu et d'apparence colorée entre les deux technologies. Cela a accentué le besoin pour des algorithmes prenant en compte ces considérations et assurant aux créateurs de contenus une reproduction cross-média fidèle. Dans cette thèse, nous focalisons sur l'adaptation et la reproduction des contenus à gamme de dynamique standard sur des dispositifs HDR. Tout d'abord, les modèles d'apparence colorée ainsi que les opérateurs de mappage tonal inverse ont été étudiés subjectivement quant à leur fidélité couleur lors de l'expansion de contenus antérieurs. Par la suite, les attributs perceptuels de clarté, chroma et saturation ont été analysés pour des stimuli émissifs ayant des niveaux de luminance de plus hautes gammes et ce en menant une étude psychophysique basée sur la méthode de mise à l'échelle de partitions. Les résultats expérimentaux ont permis de mener à la définition d'un nouvel espace couleur HDR efficace et précis, optimisé pour les applications d'adaptation de la gamme de dynamique. Enfin, dans l'optique de récupérer les détails perdus lors de captures d'images standard et d'améliorer la qualité perçue du contenu antérieur avant d'être visualisé sur un dispositif HDR, deux approches de correction des zones surexposées ou ayant subi un écrêtage couleur ont été proposées. Les modèles et algorithmes proposés ont été évalués en comparaison avec une vérité terrain HDR, menant à la conclusion que les résultats obtenus sont plus proches des scènes réelles que les autres approches de la littérature.

  • Stratégie de codage conjoint pour la transmission d'images dans un système MIMO    - Abot Julien  -  03 décembre 2012

    Voir le résumé
    Voir le résumé
    Ce travail de thèse présente une stratégie de transmission exploitant la diversité spatiale pour la transmission d'images sur canal sans fil. On propose ainsi une approche originale mettant en correspondance la hiérarchie de la source avec celle des sous-canaux SISO issus de la décomposition d'un canal MIMO. On évalue les performances des précodeurs usuels dans le cadre de cette stratégie via une couche physique réaliste, respectant la norme IEEE802.11n, et associé à un canal de transmission basé sur un modèle de propagation à tracé de rayons 3D. On montre ainsi que les précodeurs usuels sont mal adaptés pour la transmission d'un contenu hiérarchisé. On propose alors un algorithme de précodage allouant successivement la puissance sur les sous-canaux SISO afin de maximiser la qualité des images reçues. Le précodeur proposé permet d'atteindre un TEB cible compte tenu du codage canal, de la modulation et du SNR des sous-canaux SISO. A partir de cet algorithme de précodage, on propose une solution d'adaptation de lien permettant de régler dynamiquement les paramètres de la chaîne en fonction des variations sur le canal de transmission. Cette solution détermine la configuration de codage/transmission maximisant la qualité de l'image en réception. Enfin, on présente une étude sur la prise en compte de contraintes psychovisuelles dans l'appréciation de la qualité des images reçues. On propose ainsi l'intégration d'une métrique à référence réduite basée sur des contraintes psychovisuelles permettant d'assister le décodeur vers la configuration de décodage offrant la meilleure qualité d'expérience. Des tests subjectifs confirment l'intérêt de l'approche proposée.

  • Optimisation d'un procédé de traitement des eaux par ozonation catalytique    - Abouzlam Manhal  -  10 janvier 2014

    Voir le résumé
    Voir le résumé
    Le principal objectif de la thèse est l'optimisation d'un procédé d'oxydation avancée par la mise en œuvre des outils de l'automatique moderne. Le procédé considéré concerne l'ozonation catalytique utilisé pour traiter les eaux résiduaires industrielles. L'optimisation de ce procédé consiste à contrôler l'abattement des polluants tout en minimisant le coût de fonctionnement du procédé. La mesure en ligne de la concentration en polluant est fournie par l'absorbance, grandeur corrélée à la DCO. Le procédé est alors considéré comme un système à une entrée, la puissance du générateur d'ozone, et deux sorties, l'ozone dans les évents et l'absorbance. L'identification du procédé a mené à l'estimation d'un modèle linéaire pour construire les lois de commande et d'un modèle non-linéaire, de type modèle de Wiener, pour tester les correcteurs en simulation avant les essais expérimentaux. Les trois commandes testées, la commande par modèle interne, la commande optimale et la commande H∞, permettent de rejeter des perturbations sur la concentration en polluant dans les effluents à traiter. Des analyses de stabilité du système bouclé, vis-à-vis de retards sur la commande, ont été menées. Les résultats expérimentaux obtenus ont permis de conclure sur les gains significatifs apportés par ces développements. La méthodologie développée pour cette application peut être étendue à d'autres procédés afin de faciliter le développement industriel des procédés d'oxydation avancée.

  • Distributed control of multi-agent systems under communication constraints : application to robotics    - Ajwad Syed Ali  -  04 septembre 2020

    Voir le résumé
    Voir le résumé
    Les Systèmes Multi-Agents (SMA) ont gagné en popularité en raison de leur vaste gamme d'applications. Les SMA sont utilisés pour atteindre des objectifs complexes qui ne pourraient être atteints par un seul agent. La communication et l'échange d'informations entre les agents d'un SMA sont essentiels pour contrôler son comportement coopératif. Les agents partagent leurs informations avec leurs voisins pour atteindre un objectif commun, ils n'ont donc pas besoin d'unité centrale de surveillance. Cependant, la communication entre les agents est soumise à diverses contraintes pratiques. Ces contraintes incluent des périodes d'échantillonnage irrégulières et asynchrones et la disponibilité d'états partiels uniquement. Ces contraintes posent des défis théoriques et pratiques importants. Dans cette thèse, nous étudions deux problèmes fondamentaux liés au contrôle coopératif distribué, à savoir le consensus et le contrôle de formation pour un SMA à double intégrateur sous ces contraintes. On considère que chaque agent du réseau ne peut mesurer et transmettre son état de position qu'à des instants d'échantillonnage non uniformes et asynchrones. De plus, la vitesse et l'accélération ne sont pas disponibles. Dans un premier temps, nous étudions le problème du contrôle distribué du suivi de consensus. Un algorithme de suivi de leader basé sur l'observateur à temps discret continu est proposé. L'observateur estime la position et la vitesse de l'agent et de son voisin en temps continu à partir des données de position échantillonnées disponibles. Ces états estimés sont ensuite utilisés pour le calcul de l'entrée de commande. Les scénarios de topologie fixe et de topologie commutée sont discutés. Deuxièmement, un protocole de suivi de formation distribué basé sur le consensus est conçu pour réaliser des modèles de formation fixes et variant dans le temps. Le problème d'évitement de collision est également étudié dans cette thèse. Un mécanisme d'évitement de collision basé sur la fonction de potentiel artificiel (APF) est incorporé à l'algorithme de suivi de formation pour empêcher les collisions entre les agents tout en convergeant vers la position souhaitée. Enfin, les algorithmes proposés sont appliqués sur un réseau multi-robots, composé de robots à entraînement différentiel utilisant Robot Operating System (ROS). Un nouveau schéma est proposé pour faire face aux contraintes non holonomiques du robot. L'efficacité des algorithmes sont démontrées à la fois par des résultats de simulation et des expérimentations.

  • Minimality, input-output equivalence and identifiability of LPV systems in state-space and linear fractional representations    - Alkhoury Ziad  -  09 novembre 2017

    Voir le résumé
    Voir le résumé
    Dans cette thèse, plusieurs concepts importants liés à la théorie de la réalisation des modèles linéaires à paramètres variants (LPV) sont étudiés. Tout d’abord, nous abordons le problème de l’identifiabilité des modèles LPV affines (ALPV). Une nouvelle condition suffisante et nécessaire est introduite afin de garantir l’identifiabilité structurelle pour les paramétrages ALPV. L’identifiabilité de cette classe de paramétrages est liée à l’absence d’isomorphismes liant deux représentations d’état LPV lorsque deux modèles LPV correspondant à différentes valeurs des variables de séquencement sont considérés. Nous présentons ainsi une condition suffisante et nécessaire pour l’identifiabilité structurelle locale, et une condition suffisante pour l’identifiabilité structurelle (globale) qui sont toutes deux fonction du rang d’une matrice définie par l’utilisateur. Ces dernières conditions permettent la vérification de l’identifiabilité structurelle des modèles ALPV. Ensuite, étant donné que les techniques d’identification dites locales sont parfois inévitables, nous fournissons une expression analytique de la borne supérieure de l’erreur de comportements entrées-sorties de deux modèles LPV équivalents localement. Cette erreur se révèle être une fonction de (i) la vitesse de changement du signal de séquencement et (ii) l’écart entre les bases cohérentes de deux modèles LPV. En particulier, la différence entre les sorties des deux modèles peut être arbitrairement réduite en choisissant un signal de séquencement qui varie assez lentement. Enfin, nous présentons et étudions des propriétés importantes de la transformation des représentations d’état ALPV en Représentations Linéaires Fractionnelles (LFR). Plus précisément, nous montrons que (i) les représentations ALPV minimales conduisent à des LFR minimales, et vice versa, (ii) le comportement entrée-sortie de la représentation ALPV détermine de manière unique le comportement entrée-sortie de la LFR résultante, (iii) les modèles ALPV structurellement identifiables fournissent des LFRs structurellement identifiables et vice versa. Nous caractérisons ensuite les LFRs qui correspondent á des modèles ALPV équivalents basés sur leurs applications entrées-sorties. Comme illustré tout au long du manuscrit, ces résultats ont des conséquences importantes pour l’identification et la commande des systèmes LPV.

  • Imaging and textural analysis for kidney evaluation    - Alnazer Israa  -  06 décembre 2021

    Voir le résumé
    Voir le résumé
    L'insuffisance rénale chronique (IRC) est considérée par l'organisation mondiale de la santé comme l'un des défis de santé publique les plus répandus. En France, elle touche près de 82 000 personnes et le nombre de patients atteints augmente de 2% chaque année. L'évaluation précise de la fonction et de la structure rénales reste essentielle dans le diagnostic et le pronostic de l'IRC. La fonction rénale a été couramment évaluée soit en estimant le taux de filtration glomérulaire (DFG), basé sur le taux de créatinine sérique, soit par biopsie invasive. D'autre part, l'imagerie avancée, y compris l'imagerie par résonance magnétique (IRM), l'élastographie par ultrasons (UE), la tomodensitométrie (CT) et la scintigraphie (TEP, SPECT), offre la possibilité de récupérer de manière non invasive des informations structurelles, fonctionnelles et moléculaires qui pourrait détecter des changements dans les propriétés et la fonctionnalité des tissus rénaux. En plus de l'IRC, une autre maladie rénale est le cancer du rein. Le cancer du rein représente environ 2 à 3 % de tous les cancers, avec une augmentation de 2 % de l'incidence annuelle. Récemment, la tomographie par ordinateur (CT) en quatre phases est devenue l'approche standard pour l'examen des tumeurs rénales. L’hypernéphrome, la tumeur maligne du rein la plus courante compte pour 90 % des cancers du rein. Bien que 13 à 16% des masses réséquées soient bénignes, les masses rénales solides, à l'exception des angiomyolipomes bénins riches en graisse, sont généralement considérées comme malignes, ce qui nécessite une ablation chirurgicale. Ainsi, un sous-typage approprié de la tumeur rénale est d'une importance clinique car il affecte les résultats du traitement de la tumeur rénale et évite les interventions chirurgicales inutiles. De plus, le grade nucléaire des tumeurs cancéreuses est signalé comme un facteur important qui contribue au pronostic, car l'évaluation préopératoire précise de leurs agressivités peut aider à choisir la méthode d'intervention optimale. Actuellement, la capacité de l'intelligence artificielle (IA) à transformer l'imagerie médicale conventionnelle en un outil de diagnostic entièrement automatisé est largement étudiée. En plus de l'analyse qualitative réalisée sur l'imagerie médicale rénale, l'analyse de la texture a été intégrée à des techniques d'apprentissage automatique en tant que quantification de l'hétérogénéité des tissus rénaux, fournissant un outil complémentaire prometteur pour la prédiction du déclin de la fonction rénale et l'identification des tumeurs rénales. Le travail actuel vise à évaluer l'utilisation de l'analyse de texture intégrée à des modèles prédictifs d'apprentissage automatique dans trois applications différentes : la détection d'un dysfonctionnement rénal sur des images IRM fonctionnelles, l’identification du type de tumeur rénale et la prédiction du grade nucléaire du cancer du rein sur des images CT. Les modèles prédictifs basés sur les textures se sont révélés prometteurs dans l'évaluation non invasive de la fonction rénale sur les images IRM (précision, sensibilité et AUC jusqu'à 98 %, 98 % et 1, respectivement). Ils ont montré d'excellentes performances en termes de discrimination des masses malignes des masses bénignes (précision, sensibilité et AUC jusqu'à 92 %, 97 % et 0,9, respectivement) et de sous-typage des lésions rénales malignes et bénignes (précision, sensibilité et ASC jusqu'à 95 %, 95 % et 1, respectivement) sur les coupes CT. Ils ont également pu différencier efficacement les grades tumoraux du cancer rénal (précision, sensibilité et AUC jusqu'à 100 %, 100 % et 1, respectivement). Le cadre proposé, qui est basé sur des textures et des modèles d'apprentissage automatique, a montré des résultats prometteurs dans la détection de l'IRC, le sous-typage des lésions rénales et l'identification du grade nucléaire. Il assistera les radiologues en situation clinique réelle en leur offrant un outil d'aide à la décision.  

  • Identification en boucle fermée de la machine asynchrone : application à la détection de défaut    - Bazine Imène  -  16 juin 2008

    Voir le résumé
    Voir le résumé
    Ce mémoire de thèse relate la mise au point d'une méthodologie d'identification en boucle fermée de la machine asynchrone, grâce à une prise en compte explicite de l'algorithme de commande vectorielle. Fondamentalement, l'identification directe pose des problèmes en raison des perturbations stochastiques que l'on retrouve sur la variable de commande via la boucle de régulation, ce qui rend l'estimation asymptotiquement biaisée. Nous proposons de remédier à ce problème grâce à une identification indirecte sur la base de la connaissance du correcteur. De plus, nous étendons le champ d'application de cette approche en identifiant préalablement un correcteur équivalent à l'aide d'une technique de moindres carrés surparamétrisés, afin d'éviter la connaissance a priori de la structure et des paramètres du correcteur. Une structure minimale du correcteur équivalent surparamétrisé est obtenue grâce à un test original portant sur les moments. L'identification de la machine asynchrone est effectuée grâce au correcteur équivalent, à l'aide d'un algorithme du type erreur de sortie. Outre l'élimination du biais asymptotique, les études comparatives réalisées en simulation stochastique ont montré que l'approche indirecte fournit des estimées plus précises, et cela pour une excitation de la machine uniquement constituée par les variations du couple de charge. Enfin, cette nouvelle méthodologie d'identification en boucle fermée a permis d'améliorer la détection des défauts statoriques et rotoriques de la machine asynchrone, grâce à une meilleure réjection des fausses alarmes.

  • Modélisation de l'interaction lumière/matière pour l'analyse de surfaces rugueuses texturées par stéréo photométrie    - Bony Alexandre  -  02 décembre 2013

    Voir le résumé
    Voir le résumé
    Les techniques de reconstruction 3d sont devenues incontournables pour des applications telles que la caractérisation et l'analyse de surfaces. Les travaux réalisés au cours de cette thèse ont pour objectif d'améliorer la qualité des reconstructions 3d par stéréophotométrie. Cette méthode repose sur deux principes, l'inversion d'un modèle d'interaction lumière/matière (BRDF) et la configuration d'un système d'éclairage et de prises de vues. Pour des surfaces diffuses, la stéréo-photométrie est réalisée à partir d'un minimum de trois images acquises d'un point de vue fixe pour des directions d'éclairages différentes. Son avantage est d'extraire simultanément les propriétés géométriques et colorimétriques des surfaces analysées même en cas de forte rugosité. Néanmoins, son application exige la formulation de plusieurs hypothèses qui sont difficilement respectables dans un contexte réel. Ceci génère des erreurs significatives dans les reconstructions. Pour les réduire, nous proposons différentes contributions qui s'articulent autour de la prise en compte globale de la chaine d'acquisition. Les apports de nos travaux se situent aux niveaux de la caractérisation et de la modélisation du système d'éclairage, du capteur d'acquisition et de l'amélioration de la qualité des images. Nous nous sommes aussi intéressés à l'optimisation des protocoles de prises de vues dans le cas de spécularité surfacique ou d'ombrage dus à la présence de rugosité. Les résultats obtenus montrent que la prise en compte de ces caractéristiques dans l'inversion d'un modèle de BRDF permet une nette amélioration des reconstructions et offre la possibilité de réduire la taille des systèmes d'acquisition.

  • Face analysis using polynomials    - Bordei Cristina  -  03 mars 2016

    Voir le résumé
    Voir le résumé
    Considéré comme l'un des sujets de recherche les plus actifs et visibles de la vision par ordinateur, de la reconnaissance des formes et de la biométrie, l'analyse faciale a fait l'objet d'études approfondies au cours des deux dernières décennies. Le travail de cette thèse a pour objectif de proposer de nouvelles techniques d'utilisation de représentations de texture basées polynômes pour l'analyse faciale.
    La première partie de cette thèse est dédiée à l'intégration de bases de polynômes dans les modèles actifs d'apparence. Nous proposons premièrement une manière d'utiliser les coefficients polynomiaux dans la modélisation de l'apparence. Ensuite, afin de réduire la complexité du modèle nous proposons de choisir et d'utiliser les meilleurs coefficients en tant que représentation de texture. Enfin, nous montrons comment ces derniers peuvent être utilisés dans un algorithme de descente de gradient.
    La deuxième partie de la thèse porte sur l'utilisation des bases polynomiales pour la détection des points/zones d'intérêt et comme descripteur pour la reconnaissance des expressions faciales. Inspirés par des techniques de détection des singularités dans des champ de vecteurs, nous commençons par présenter un algorithme utilisé pour l'extraction des points d'intérêt dans une image. Puis nous montrons comment les bases polynomiales peuvent être utilisées pour extraire des informations sur les expressions faciales. Puisque les coefficients polynomiaux fournissent une analyse précise multi-échelles et multi-orientation et traitent le problème de redondance efficacement ils sont utilisés en tant que descripteurs dans un algorithme de classification d'expression faciale.

  • Segmentation 3D d'images scintigraphiques et simulations très réalistes GATE    - Burg Samuel  -  26 janvier 2011

    Voir le résumé
    Voir le résumé
    L'objectif de cette thèse était de proposer de nouvelles méthodes de segmentation 3D en imagerie scintigraphique. Une première partie des travaux réalisés a consisté à simuler des volumes 3D avec vérité de terrain connue afin de pouvoir valider une méthode de segmentation par rapport aux autres. Des simulations de MonteCarlo ont été réalisées à l'aide du logiciel GATE (Geant4 Application for Emission Tomography). Pour cela, nous avons caractérisé et modélisé la gamma camera "? Imager" Biospace(tm) en comparant chaque mesure d'une acquisition réelle à une simulation équivalente. L'outil de segmentation "bas niveau" que nous avons développé s'appuie sur une modélisation des niveaux de l'image par une loi de mélange dont l'estimation des paramètres est réalisée par un algorithme SEM (Stochastic Expectation Maximization). La segmentation des volumes 3D est obtenue par un algorithme ICM (Iterative Conditional Mode). Nous avons comparé des segmentations basées sur des mélanges Gaussiens et Poissonniens à des segmentations par seuillage sur les volumes simulés. Ceci a montré la pertinence des segmentations obtenues à l'aide des lois de mélange, notamment celles obtenues avec les mélanges Poissonniens. Ces derniers ont été utilisés pour segmenter des images cérébrales réelles TEP 18FDG et calculer des statistiques descriptives des différents tissus. En vue d'obtenir une méthode de segmentation "haut niveau" et retrouver des structures anatomiques (zone nécrosée ou zone active d'une tumeur par exemple), nous avons proposé un processus exploitant le formalisme des processus ponctuels. Une étude de faisabilité nous a permis d'obtenir des résultats très encourageants.

|< << 1 2 3 4 5 6 >> >| thèses par page

Haut de page


  • Avec le service Ubib.fr, posez votre question par chat à un bibliothécaire dans la fenêtre ci-dessous :


    ou par messagerie électronique 7j/7 - 24h/24h, une réponse vous sera adressée sous 48h.
    Accédez au formulaire...
 
 

Université de Poitiers - 15, rue de l'Hôtel Dieu - 86034 POITIERS Cedex - France - Tél : (33) (0)5 49 45 30 00 - Fax : (33) (0)5 49 45 30 50
these@support.univ-poitiers.fr - Crédits et mentions légales