Vous êtes ici : Accueil > Sections CNU > Section 61 - Génie informatique, automatique et traitement du signal

Section 61 - Génie informatique, automatique et traitement du signal

Les thèses se rapportant à la section CNU "Section 61 - Génie informatique, automatique et traitement du signal"

Pour être informé de la mise en ligne des nouvelles thèses correspondant à la recherche effectuée, abonnez-vous au flux RSS : rss

accès internet    accès intranet    confidentialité
29 ressources ont été trouvées. Voici les résultats 21 à 29
Tri :   Date Auteur Titre thèses par page
  • Segmentation 3D d'images scintigraphiques et simulations très réalistes GATE    - Burg Samuel  -  26 janvier 2011

    Voir le résumé
    Voir le résumé
    L'objectif de cette thèse était de proposer de nouvelles méthodes de segmentation 3D en imagerie scintigraphique. Une première partie des travaux réalisés a consisté à simuler des volumes 3D avec vérité de terrain connue afin de pouvoir valider une méthode de segmentation par rapport aux autres. Des simulations de MonteCarlo ont été réalisées à l'aide du logiciel GATE (Geant4 Application for Emission Tomography). Pour cela, nous avons caractérisé et modélisé la gamma camera "? Imager" Biospace(tm) en comparant chaque mesure d'une acquisition réelle à une simulation équivalente. L'outil de segmentation "bas niveau" que nous avons développé s'appuie sur une modélisation des niveaux de l'image par une loi de mélange dont l'estimation des paramètres est réalisée par un algorithme SEM (Stochastic Expectation Maximization). La segmentation des volumes 3D est obtenue par un algorithme ICM (Iterative Conditional Mode). Nous avons comparé des segmentations basées sur des mélanges Gaussiens et Poissonniens à des segmentations par seuillage sur les volumes simulés. Ceci a montré la pertinence des segmentations obtenues à l'aide des lois de mélange, notamment celles obtenues avec les mélanges Poissonniens. Ces derniers ont été utilisés pour segmenter des images cérébrales réelles TEP 18FDG et calculer des statistiques descriptives des différents tissus. En vue d'obtenir une méthode de segmentation "haut niveau" et retrouver des structures anatomiques (zone nécrosée ou zone active d'une tumeur par exemple), nous avons proposé un processus exploitant le formalisme des processus ponctuels. Une étude de faisabilité nous a permis d'obtenir des résultats très encourageants.

  • Stratégies de transmission vidéo sur un canal MIMO réaliste    - Hamidouche Wassim  -  29 novembre 2010

    Voir le résumé
    Voir le résumé
    Ce travail de thèse concerne la transmission de vidéo dans les réseaux ad hoc. Plusieurs schémas et solutions ont été proposés afin d'améliorer voire assurer la qualité de service des applications intégrant la transmission temps réel de vidéo dans les réseaux ad hoc. Les performances de ces solutions sont évaluées par simulation à l'aide de plateformes de simulation de réseaux tels que NS-2 et GLOMOSIM, etc. Cependant, la couche physique de ces simulateurs manque de réalisme et ne modélise pas proprement le comportement d'un canal radio dans un environnement urbain. Nous avons proposé une couche physique réaliste qui prend en compte toutes les spécificités d'un canal radio mobile. Cette couche physique est basée sur un modèle de propagation à tracé de rayons et permet d'évaluer la qualité des liens SISO et MIMO suivant respectivement les normes de transmission IEEE 802.11a et IEEE 802.11n. Cette étude montre qu'il est important de considérer une couche physique réaliste dans les simulateurs de réseaux pour évaluer les performances des solutions de transmission vidéo. Dans un deuxième temps, nous avons proposé une solution originale de codage conjoint source-canal pour la transmission hiérarchique du flux vidéo H.264/SVC. Cette solution exploite la diversité spatiale du canal MIMO conjointement avec la hiérarchie du codeur vidéo H.264/SVC afin d'assurer la meilleure qualité de service quelques soient les conditions de transmission. Cette solution utilise la notion de précodage MIMO pour une allocation de puissance optimale entre les antennes visant à minimiser la distorsion de la vidéo reçue.

  • Extraction de relief de surface texturée rugueuse à comportement photométrique hétérogène    - Huang Xin  -  16 juillet 2010

    Voir le résumé
    Voir le résumé
    Cette thèse est consacrée à l'analyse et à l'extraction de relief de surfaces à comportement photométrique hétérogène par exploitation et développement de technique de stéréovision photométrique. Ce type de surface, généralement partiellement réfléchissante, est une surface à comportement photométrique mixte : diffuse et spéculaire. Le comportement photométrique de la surface se traduit par des modèles d'interactions lumière-matière différents. Ainsi, la reconstruction du relief de la surface par stéréovision photométrique peut être en théorie obtenue par l'exploitation de ces différents modèles. Néanmoins, la mise en oeuvre de ces modèles peut s'avérer délicate (difficulté d'inversibilité du modèle photométrique, méconnaissance des paramètres intrinsèques liés aux matériaux utilisés...). Dans ces travaux, nous présentons dans un premier temps les différents modèles utilisés en stéréovision photométrique ainsi que leurs sensibilités éventuelles aux paramètres intrinsèques des matériaux et les limites de leurs utilisations dans le cas de matériaux hétérogènes. Nous proposons ensuite deux approches différentes pour l'extraction du relief d'une surface partiellement réfléchissante. Notre première approche repose sur l'exploitation conjointe d'un modèle photométrique adapté au comportement diffus de la lumière et des principes d'optique géométrique pour déterminer le champ des gradients de la surface. Cette approche nécessitant au préalable de séparer dans l'image les zones caractérisées par un comportement spéculaire de la lumière et les zones caractérisées par un comportement diffus de la lumière. Cette approche est testée sur différents types de surfaces synthétiques et réelles et les résultats obtenus sont présentés. En ce qui concerne notre deuxième approche, elle repose sur le fait qu'une facette ou microfacette du relief local de la surface réfléchira la lumière dans une direction déterminée dans le cas de spécularité. Ainsi, une facette spéculaire sous un angle d'éclairage donné peut ne pas l'être sous un autre angle d'éclairage. Donc nous proposons d'augmenter le nombre des images acquises afin de pouvoir ensuite en extraire un jeu minimal des images les moins spéculaires pour l'extraction de relief. La méthode que nous adoptons est donc un système de stéréovision photométrique avec six sources. Nous avons déterminé dans ce cas le champ de gradient pixel par pixel avec trois images non spéculaires parmi les six images acquises. Puis nous avons mis en oeuvre l'extraction de relief sur les images synthétiques et sur les images réelles avec chaque méthode. Nous avons évalué et comparé ensuite les résultats obtenus avec ces différentes méthodes. Les approches développées ont ensuite été appliquées pour l'extraction de relief dans le cadre d'applications à finalité industrielle.

  • Traitement et analyse d'images couleur sous-marines : modèles physiques et représentation quaternionique    - Petit Frédéric  -  06 mai 2010

    Voir le résumé
    Voir le résumé
    Les océans représentent la majeure partie de la surface de la planète. Couvrant plus de 70% de la surface de la Terre, l'exploration de l'environnement marin est un thème de recherche essentiel. De nombreuses technologies ont été développées afin de surveiller et de suivre l' évolution de l'environnement marin. La vision par ordinateur et le traitement d' images ont été étudiés dans ce cadre ces dernières années afin de développer de nouveaux outils pour l'océanographie. Les images acquises sous l'eau souffrent de nombreuses dégradations dues à l'environnement aquatique. Nous nous sommes intéréssé au développement de traitements prenant en compte la nature physique des phénomènes qui interfèrent lors de l'acquisition. L'exploitation d'un modèle bio-optique a permis d'établir une corrélation entre des propriétés bio-optiques et des attributs colorimétriques des images. L'inversion de la propagation de la lumière a alors été réalisée en établissant un modèle d'estimation des paramètres physiques impliqués à partir des informations colorimétriques de l'image et de mettre en oeuvre une correction complètement automatique d' images sous-marines. Dans un deuxième temps, dans un but de détection d'objets d'intérêts, nous nous sommes interessé à un critère quaternionique permettant une extraction ciblée de zones/objets possèdant une ou plusieurs caractéristiques colorométriques communes par le biais d'une définition hypercomplexe de sous-espaces couleurs basée sur la teinte. Cette méthode a été testée sur des vidéos sous-marines en réalisant une extraction de poissons de couleur unie.

  • Intégration des effets spatiaux et spatiotemporels dans la prédiction de l'apparence colorée    - Tulet Olivier  -  06 juillet 2009

    Voir le résumé
    Voir le résumé
    Cette thèse cherche à étudier le comportement spatio-temporel couleur du système visuel humain. Les modulations, qu'elles soient spatiales, temporelles ou spatio-temporelles des stimuli modifient notre perception des couleurs et de nombreux travaux cherchent à mesurer cette influence. C'est en vue d'une prise en compte de ces phénomènes par un modèle d'apparence couleur (CAM, de l'anglais Color Appearance Model) que ces travaux ont été réalisés. Pour répondre à ce besoin différents tests psychophysiques ont été menés. Le premier de ces tests a permis de mesurer l'influence des modulations spatiales sur la perception des couleurs dans un environnement standard. Les résultats de ce test ont été modélisés puis intégrés dans le modèle d'apparence couleur normalisé par la CIE : Le CIECAM02. Ce nouveau modèle, capable de prendre en compte des modulations spatiales, permet de corriger l'apparence de stimuli modulés spatialement à l'instar des CAMs existant. Une extension de ce modèle aux images a ensuite été réalisée. Cette extension se sert des propriétés fréquentielles de l'image afin d'en rehausser le contraste couleur et/ou d'appliquer une correction basée sur la constance de couleur. Différents tests ont été réalisés sur ce modèle et sont présentés dans ces travaux. Enfin, une mesure de l'influence des modulations spatio-temporelles a été effectuée à l'aide d'un test psychophysique. Les résultats de ce dernier permettent de mesurer l'influence de ces modulations sur notre perception des couleurs d'un stimulus dynamique. Le modèle issu de ces expériences a été intégré dans le CIECAM02 donnant naissance au ST-CIECAM02. Modèle qui peut désormais prendre en compte et corriger l'apparence couleur de stimuli vidéos. Parmi les perspectives de ce travail, nous pouvons citer une prise en compte de l'influence de l'orientation de ces modulations ainsi qu'une extension du ST-CIECAM à la correction de l'apparence de séquences vidéos.

  • Modélisation du mouvement par polynômes orthogonaux : application à l'étude d'écoulements fluides    - Druon Martin  -  11 février 2009

    Voir le résumé
    Voir le résumé
    Dans ce mémoire, nous proposons une méthode permettant de modéliser, de façon globale, tout type de mouvement par des combinaisons linéaires de polynômes orthogonaux. Pour cela, nous projetons chaque champ de déplacement représentant le mouvement étudié sur une base orthogonale composée des polynômes de Legendre. Nous obtenons alors une expression polynomiale du mouvement considéré. Une modélisation d'ordre faible permet d'interpréter physiquement le mouvement dominant de séquences d'images. Cette caractéristique trouve un intérêt particulier dans des applications telles que la vidéo-surveillance, l'indexation ou l'étude du comportement. Nous montrons également que notre méthode permet de modéliser des mouvements complexes tels que des écoulements fluides. La représentation du mouvement sous forme polynomiale, les faibles temps de calcul ainsi que les taux de compression élevés sont alors des atouts importants pour traiter ce type de données

  • Coopération des ondelettes et des équations aux dérivées partielles pour le traitement d' images multispectrales    - Maalouf Aldo  -  23 septembre 2008

    Voir le résumé
    Voir le résumé
    Les travaux réalisés dans cette thèse s'inscrivent dans le contexte du traitement d'images et de séquences d'images incluant le débruitage, la segmentation, l'inpainting et le mosaicing. Les approches proposées sont basées sur la transformée en ondelettes et les équations aux dérivées partielles. Dans le domaine de débruitage nous avons proposé des tenseurs de structure multi-échelles basés sur les transformées en ondelettes et bandelettes et capables de caractériser les contours d'images bruitées. Cela nous a conduit à la proposition de plusieurs méthodes de diffusion anisotrope et vectorielle orientée par les contours de l'image définis par ces tenseurs. Dans le domaine de segmentation, nous avons défini une méthode de segmentation par région inspirée des méthodes de l'ensemble de niveau et orientée par le tenseur de structure multi-échelles basé sur la transformée en ondelettes et une méthode de contour actif orientée par les coefficients d'ondelettes fovéales. Nous avons ensuite utilisé les grouplettes géométriques pour définir une méthode d'inpainting. La transformée en grouplettes nous a permis de recomposer correctement la géométrie multi-échelles des structures de l'image et l'information à l'intérieur de la région des données manquantes est synthétisée par une propagation de cette géométrie. Dans le domaine de traitement des séquences vidéo nous avons construit deux modèles : le premier a pour objectif le mosaicing des séquences vidéo et le second l'inpainting. Les deux modèles se basent sur la segmentation en quadtree de la transformée en bandelettes afin d'étudier les similarités entre les différentes zones des trames de la séquence. Les carrés dyadiques qui ont des propriétés géométriques similaires sont "collés" l'un à côté de l'autre pour former une mosaïque finale ou pour combler les zones manquantes. Finalement, nous avons proposé une décomposition et reconstruction en ondelettes 2D non séparables définies à partir des bases de polynômes orthogonaux et un opérateur multi-échelles de détection de contours.

  • Identification en boucle fermée de la machine asynchrone : application à la détection de défaut    - Bazine Imène  -  16 juin 2008

    Voir le résumé
    Voir le résumé
    Ce mémoire de thèse relate la mise au point d'une méthodologie d'identification en boucle fermée de la machine asynchrone, grâce à une prise en compte explicite de l'algorithme de commande vectorielle. Fondamentalement, l'identification directe pose des problèmes en raison des perturbations stochastiques que l'on retrouve sur la variable de commande via la boucle de régulation, ce qui rend l'estimation asymptotiquement biaisée. Nous proposons de remédier à ce problème grâce à une identification indirecte sur la base de la connaissance du correcteur. De plus, nous étendons le champ d'application de cette approche en identifiant préalablement un correcteur équivalent à l'aide d'une technique de moindres carrés surparamétrisés, afin d'éviter la connaissance a priori de la structure et des paramètres du correcteur. Une structure minimale du correcteur équivalent surparamétrisé est obtenue grâce à un test original portant sur les moments. L'identification de la machine asynchrone est effectuée grâce au correcteur équivalent, à l'aide d'un algorithme du type erreur de sortie. Outre l'élimination du biais asymptotique, les études comparatives réalisées en simulation stochastique ont montré que l'approche indirecte fournit des estimées plus précises, et cela pour une excitation de la machine uniquement constituée par les variations du couple de charge. Enfin, cette nouvelle méthodologie d'identification en boucle fermée a permis d'améliorer la détection des défauts statoriques et rotoriques de la machine asynchrone, grâce à une meilleure réjection des fausses alarmes.

  • Stratégie de codage conjoint de séquences vidéo basé bandelettes    - Wang Shan  -  27 mars 2008

    Voir le résumé
    Voir le résumé
    Les travaux de cette thèse s'inscrivent à la fois dans le contexte de la compression d'images et dans celui des communications numériques. On sait que le traitement d'images couvre un grand nombre d'applications liées aux communications, telles que l'imagerie médicale et la télémédecine, la vidéoconférence, le cinéma, la télévision. Le système de transmission numérique permet de véhiculer l'information entre une source et un destinataire. Le support physique utilisé pour cette opération de transport n'étant pas toujours parfait, il est courant que, lors d'une transmission, l'information soit soumise à un certain nombre de perturbations, et qu'elle présente des erreurs en réception. En outre, d'autres erreurs peuvent être provoquées par le système de communication lui-même. Dans un souci de performance, beaucoup de systèmes de transmission d'images exploitent les défauts de la perception visuelle humaine. De plus, on exploite conjointement l'ensemble des éléments constituants la chaîne de transmission numérique pour rendre le schéma proposé robuste à la fois dans des conditions de transmission difficiles et pour des canaux bas débit. Pour cela, nous proposons d'utiliser la décomposition en ondelettes (DWT) dans le cadre de transmission sans fil de vidéos, ce qui diffère des standards actuels comme MPEG-4, H264, AVC, .... qui utilisent prioritairement les DCT. Cela permet plus de souplesse dans la hiérarchisation possible de l'information à coder. En effet, la qualité de service attendue à la réception d'un système de communication peut-être très variable suivant l'application et le type de réseaux. En plus de la compression spatiale, l'exploitation des similarités existantes entre des images successives par des techniques de GOP (Group of Pictures) et de compensation du mouvement (Vecteur Mouvement) permet d'augmenter le taux de compression. Pour donner plus de robustesse au système de codage, nous considérons des quantifications vectorielles à partir de dictionnaires construits à l'aide de cartes auto-organisatrice (algorithme SOM), dictionnaires qui pourront se superposer aux constellations de modulations d'amplitude en quadrature (MAQ). Le codage à longueur fixe qui en découle pénalise le taux de compression, mais préserve mieux les données en cas d'erreurs sur le canal.

|< << 1 2 3 >> >| thèses par page

Haut de page


  • Avec le service Ubib.fr, posez votre question par chat à un bibliothécaire dans la fenêtre ci-dessous.

 
 

Université de Poitiers - 15, rue de l'Hôtel Dieu - 86034 POITIERS Cedex - France - Tél : (33) (0)5 49 45 30 00 - Fax : (33) (0)5 49 45 30 50
these@support.univ-poitiers.fr - Crédits et mentions légales