Vous êtes ici : Accueil > Sections CNU > 61 - Génie informatique, automatique et traitement du signal

61 - Génie informatique, automatique et traitement du signal

Les thèses se rapportant à la section CNU "61 - Génie informatique, automatique et traitement du signal"

Pour être informé de la mise en ligne des nouvelles thèses correspondant à la recherche effectuée, abonnez-vous au flux RSS : rss

accès internet    accès intranet    confidentialité
65 ressources ont été trouvées. Voici les résultats 1 à 10
Tri :   Date Auteur Titre thèses par page
  • Représentation uniforme de l'imagerie médicale    - Fezai Lobna  -  06 avril 2023

    Voir le résumé
    Voir le résumé
    Le domaine médical est un vaste domaine d’application de l’intelligence artificielle. Malgré les avancées récentes, il y reste une large marge d’innovation et d’amélioration face à des enjeux majeurs. L’apprentissage profond de son côté représente une perspective importante dans de multiples domaines et en particulier dans celui de l’imagerie médicale. Lors du déploiement de cette technique une restriction importante est liée aux données, leur disponibilité et leur confidentialité. Dans ce travail de thèse, nous proposons d’offrir aux experts médicaux de nouveaux outils pour utiliser l’apprentissage profond avec une quantité limitée de données. Nous soulignons également le danger de la pseudo-anonymisation et nous proposons un pipeline permettant une véritable anonymisation liée à l’identité du patient et à l’équipement d’acquisition.

  • Analyse des notions de stabilité pour les modèles 2D de Roesser et de Fornasini-Marchesini    - Rigaud Alexandre  -  14 décembre 2022

    Voir le résumé
    Voir le résumé
    Cette thèse présente les résultats de travaux sur lLes différentes notions de stabilité utilisées dans la littérature des systèmes dynamiques multidimensionnels. Plus précisément, dans le cadre des modèles 2D de Roesser et de Fornasini-Marchesini, nous analysons les notions de stabilité au sens de Lyapunov, stabilité asymptotique, stabilité(s) exponentielle(s) et stabilité structurelle, ainsi que les relations entre ces différentes propriétés. Le premier chapitre de ce mémoire effectue un certain nombre de rappels concernant les définitions de stabilité et les liens qui existent entre celles-ci, dans le but d'établir un cadre solide en vue d'étendre ces notions du cas 1D au cas 2D. Une fois ces rappels établis, nous présentons les modèles 2D que nous étudions. Le deuxième chapitre dresse la liste des définitions de stabilité utilisées pour les modèles 2D de Roesser et de Fornasini-Marchesini et établit les liens entre ces différentes définitions. Au cours du troisième chapitre, nous proposons une condition nécessaire et suffisante de stabilité asymptotique pour une certaine classe de modèles de Fornasini-Marchesini 2D discrets linéaires. Le quatrième et dernier chapitre propose une étude détaillée d'un modèle 1D non-linéaire qui possède la particularité rare d'être à la fois attractif et instable, et nous généralisons ce modèle particulier au cas 2D afin d'établir quelles propriétés se conservent ou non lorsque l'on passe du cas 1D au cas 2D.

  • Segmentation automatique des lésions de sclérose en plaques en adéquation avec les contraintes cliniques    - Fenneteau Alexandre  -  24 novembre 2022

    Voir le résumé
    Voir le résumé
    L’accessibilité d’un outil performant de segmentation des lésions de sclérose en plaques permet de fournir aux radiologues des métriques fiables et reproductibles vers une meilleure prise en charge des malades atteints. Pour rendre plus accessible ce genre d’outil en clinique, nous avons proposé des architectures de réseaux de neurones convolutifs légères et performantes capables d’apprendre sur des stations de travail abordables avec un nombre réduit d’exemples d’apprentissage, en un temps réduit, tout en limitant le risque de surapprentissage. Nous avons mis en place des techniques dans le but de réduire au minimum l’apport en données d’entraînement avec l’autoapprentissage et l’apprentissage semi-supervisé, tout en tenant compte de la qualité des données pour nous apercevoir qu’il suffisait, finalement, de très peu d’examens annotés. Nous présentons aussi, une méthode pour augmenter le nombre de petites lésions détectées qui sont plus difficiles à segmenter ainsi que plus susceptibles d’être omises par le radiologue. Le travail de thèse s’inscrit dans une démarche de recherche pour tirer au mieux parti de la segmentation automatique des lésions pour le radiologue vers une meilleure adoption de tels outils en routine clinique.

  • Integration and non-intrusive human clinic machine learning for kidney assessment    - Do Quang Huy  -  16 novembre 2022

    Voir le résumé
    Voir le résumé
    La maladie rénale chronique et l’insuffisance rénale représentent un problème de santé publique majeur. Dans le contexte d’un nombre de cas en croissance permanente, la transplantation rénale est considérée comme une stratégie optimale de prise en charge. Elle a en effet pour avantage d'augmenter les chances de survie avec une qualité de vie supérieure et un coût réduit. Pour les reins destinés à la transplantation, il est essentiel de déterminer rapidement l'état fonctionnel et la méthode optimale de conservation du rein, ce qui reste à ce jour un problème. Les chirurgiens utilisent généralement des reins sous-optimaux ou excluent les greffons potentiellement meilleurs. Plus généralement, le choix de techniques d'imagerie pour analyser le rein dans différentes tâches cliniques, dont la transplantation, est un sujet de recherche à part entière. L’imagerie par résonance magnétique (IRM), notamment, présente un fort potentiel en tant que méthode non invasive pour récupérer des informations structurelles et fonctionnelles. La quantité et la complexité des données qu’elle génère demeure toutefois un verrou important à sa pleine exploitation. L'apprentissage automatique, en général, et l'apprentissage profond, en particulier, sont des domaines scientifiques largement étudiés qu’on retrouve dans de nombreuses applications et domaines de recherche. Les méthodes basées sur l'apprentissage permettent à un ordinateur de construire des concepts complexes à partir de concepts plus simples. Les avancées récentes de l'imagerie médicale et de l'apprentissage automatique ont incité de nombreux chercheurs à approfondir l’idée d’une imagerie anatomique et fonctionnelle augmentées pour l'aide au diagnostic. Par imagerie augmentée, nous entendons des modèles d'intelligence artificielle (IA) conçus pour assister les radiologues et leur permettre de réaliser un diagnostic optimal. Notre travail de thèse vise à améliorer l'évaluation de la qualité de greffons rénaux à l'aide de techniques d'IRM et d’apprentissage automatique. Ce travail comprend trois applications appartenant à deux tâches principales : la synthèse IRM super-résolution et ultra-haut champ pour l'amélioration de la qualité d'image ; et la translation intermodale. Notons que pour des raisons pratiques explicitées dans le document, une partie importante de nos travaux a été réalisée sur des données de cerveau humain. Dans la première application, nous développons une méthode basée sur des modèles auto-supervisés pour résoudre la super-résolution sur l'IRM 3T de routine grâce à un apprentissage sur des données appairées et non appairées. L’évaluation de nos résultats montre que les méthodes proposées peuvent produire une sortie haute résolution à partir d'une entrée basse résolution avec une faible distorsion. En outre, la solution explorée permet de surmonter la limitation des méthodes existantes exigeant des paires d’échantillons alignés. Dans le second volet, nous visons à synthétiser des données IRM ultra haut champ (7 Tesla, ou 7T) à partir de volumes 3T. Le modèle proposé obtient des résultats convaincants tant sur des critères objectifs que subjectifs. Les modèles finaux peuvent fonctionner de manière stable sur l'IRM cérébrale 3D, ce qui est très prometteur. Dans le dernier travail, nous nous concentrons sur la tâche de translation multimodale. Les modèles sont conçus pour générer des volumes de haute précision parmi différentes modalités telles que T1⟷T2, T1 ⟷T1c ou T1⟷T2-Flair. Les travaux actuels se concentrent sur la translation de l'IRM T1 à sa version à contraste augmenté T1c, ce scénario présentant un très fort potentiel vis-à-vis du principe de précaution quant aux injections de gadolinium pour l’obtention des séquences T1c. Une étude comparative entre les méthodes de la littérature et nos méthodes issues de travaux antérieurs est présentée. Les résultats démontrent que nos méthodes obtiennent un résultat stable sur l'ensemble de données de recherche.

  • Assistance virtuelle pour la prévention des risques cardiovasculaires    - Rjiba Saifeddine  -  21 septembre 2022

    Voir le résumé
    Voir le résumé
    Les maladies coronariennes et les attaques cérébrales ont longtemps été la principale cause de décès en France, comme dans de nombreux pays dans le monde. Dans ce travail de thèse, nous proposons d’offrir aux experts médicaux des algorithmes automatiques pour l’analyse de données à caractère biomédical en vue de la prévention des risques cardiovasculaires (sténoses) et les accidents vasculaires cérébraux (anévrismes). Nous déployons pour cela des outils novateurs basés sur les techniques de l’intelligence artificielle permettant d’extraire l’arbre artériel, de détecter les sténoses, de classifier les types des plaques coronaires et de segmenter les anévrismes intracrâniens non rompus. Nous introduisons, également, une nouvelle base de données que nous avons créé à l’aide des efforts des équipes médicales du CHU Poitiers.

  • Hyperspectral texture metrology    - Chu Rui Jian  -  07 juillet 2022

    Voir le résumé
    Voir le résumé
    Soixante ans après les conjectures de Julesz, de nombreuses méthodes d'extraction de caractéristiques de l’aspect texturé ont été publiées. Mais, peu l’ont été à des fins métrologiques. Selon la science de la mesure, une caractéristique doit être développée en conjonction avec la mesure de distance/similarité associée. Dans nos travaux sur la texture hyperspectrale, cela nécessite que la fonctionnalité soit indépendante de la technologie du capteur et donc du nombre de bandes spectrales, de la gamme de longueurs d'onde, etc. La fonctionnalité développée doit donc être générale avec des résultats strictement dépendants du contenu de la texture. Dans ce manuscrit de thèse, nous avons commencé par définir la texture comme la distribution conjointe des propriétés spectrales et spatiales. Alors que la première partie dicte la diversité spectrale ou la distribution des pixels, la second fait référence à la disposition spatiale ou à l'interaction entre les valeurs multivaluées des pixels. En conséquence, nous avons développé une analyse spectrale automatique adaptée à la nature continue du spectre. En travaillant dans l'espace métrique, le besoin de réduction de la dimensionnalité, par ex. l'analyse en composantes principales (ACP), est supprimée. De plus, la sélection de la référence spectrale est entièrement automatisée grâce à la maximisation de l'entropie. Une analogie entre notre approche et l'ACP est établie, la première se révélant plus robuste et fidèle à la physique du spectre. En nous inspirant de la matrice de cooccurrence de niveaux de gris (GLCM) et du motif binaire local (LBP), nous avons ensuite développé une analyse spatiale adaptée aux images d'un nombre quelconque de bandes spectrales. Nous avons combiné la précision des caractéristiques GLCM et l'efficacité de la mesure de similarité LBP pour proposer l'histogramme de différences de voisinage. Nous avons ensuite mis en relation la différence de voisinage avec la notion de gradient d'image pour poursuivre une approche sans paramètre. En rappelant les règles de base des dérivées, nous avons mis en évidence une décomposition mathématique du gradient spectral en parties chromatiques et achromatiques. Considérant la théorie de l'espace d'échelle, nous avons également développé une sélection automatique d'échelle afin de refléter la taille de la structure locale. Pour valider notre approche, nous avons soumis nos caractéristiques à des tâches de classification, de récupération et de segmentation de texture. Les résultats montrent que nos fonctionnalités fonctionnent à un niveau comparable à l'état de l'art. Plus important encore, nous démontrons l'interprétabilité physique de nos caractéristiques face à une multitude de diversité spectrale et spatiale. En adhérant à la métrologie, nous avons témoigné de l'efficacité d'une paire adaptée de caractéristique et de mesure de similarité sans avoir besoin de techniques sophistiquées d'apprentissage automatique ou profond.

  • Tire friction potential estimation combining Kalman filtering and Monte-Carlo Markov Chain Model Learning    - Mussot Vincent  -  02 mars 2022

    Voir le résumé
    Voir le résumé
    Le potentiel d’adhérence d’un pneu est la grandeur caractérisant la quantité d’adhérence restante à un pneu avant que celui-ci ne se mette à patiner sur la route. La connaissance de cette grandeur lors d’un trajet pourrait se révéler particulièrement avantageuse, notamment pour le développement des véhicules autonomes et également pour améliorer sensiblement les performances des systèmes d’aide à la conduite. Malheureusement, lors d’une manœuvre standard, les efforts longitudinaux générés par le pneu restent faibles par rapport à la charge subie par celui-ci. En conséquence, le potentiel d’adhérence est particulièrement difficile à estimer. Ainsi, l’objectif de ces travaux est de mettre en œuvre une méthode permettant d’estimer le potentiel d’adhérence lors d’une manœuvre standard en utilisant uniquement les capteurs équipant les véhicules de série. La méthode mise en œuvre se scinde en deux grandes étapes. Tout d’abord, une méthode de type Monte-Carlo adaptative utilisant des points de friction est mise en œuvre afin de déterminer le potentiel d’adhérence. Dans cette première grande partie, les points de friction utilisés sont des mesures provenant de simulations ou d’essais effectués avec des machines de test sur des pneus standards. Cependant, dans le cas pratique où les seules mesures accessibles sont celles fournies par les capteurs présents sur les véhicules de série, ces mesures de points de friction ne sont pas accessibles. Ainsi, dans une seconde grande étape, un filtre de Kalman étendu est utilisé afin d’obtenir des estimations des points de friction en ne se servant que des signaux fournis par les capteurs présents sur les véhicules de série. Cette étape est validée sur des données de simulation représentatives d’une manœuvre en ligne droite.

  • Parametric and Stochastic Characterization of Color Textures    - Kaseb Mohamed  -  14 décembre 2021

    Voir le résumé
    Voir le résumé
    La thématique générale de cette thèse était la caractérisation paramétrique et stochastique de textures couleur. En traitement d'image, le terme « texture » renvoie de façon générale à toutes les propriétés structurelles d'une image, sa régularité, ses motifs, sa granulosité etc. L'objectif de l'analyse de texture est de caractériser numériquement ces propriétés, notamment à l'aide de modélisations déterministes ou stochastiques. Actuellement, on a souvent recours aux statistiques du second ordre pour caractériser les textures, mais celles-ci se révèlent souvent insuffisantes pour décrire leur structure locale. L'objectif de la thèse était donc une caractérisation plus précise des textures, en s’appuyant sur des techniques issues du traitement du signal, des probabilités et de l’identification des systèmes. Une attention particulière a été portée au traitement de la couleur. Un premier axe de recherche a consisté en l’utilisation d’algorithmes d’identification de modèle afin de reconstruire les parties manquantes de textures couleur structurellement homogènes. Les paramètres du modèle étaient extraits des zones connues de la texture, puis un morceau de texture d’aspect similaire mais non directement copié des données disponibles était généré à partir de cette estimation afin de combler la zone masquée. Un des atouts essentiels du modèle utilisé était son traitement des trois canaux couleur de l’image comme un vecteur dynamique et non trois signaux scalaires indépendants. En effet, nos résultats ont montré que cette approche vectorielle avait un impact direct sur la qualité de la reconstruction de la couleur. Si cette approche a fourni des résultats pertinents dans la complétion de texture, elle ne parvenait qu’à capter la dynamique générale de l’image et échouait à en extraire sa structure locale. C’est ce qui a motivé l’utilisation de l’outil monogène, dont les mesures d’énergie, structure et orientation locales avaient déjà fait leurs preuves dans des domaines tels l’interférométrie, la démodulation d’hologramme ou l’imagerie médicale. Avant d’être appliqué à la couleur, le signal monogène a d’abord été étudié dans le cas scalaire, en particulier l’estimation locale de phase et d’orientation qu’il fournit. Nos travaux ont ainsi établi des résultats théoriques garantissant la fiabilité de l’extraction de ces grandeurs, aussi bien dans le cas de textures déterministes que de champs aléatoires. Le modèle utilisé pour générer des champs aléatoires était le bruit de Gabor, choisi pour le contrôle direct du contenu fréquentiel de la texture qu’il fournit. Dans les deux cas, déterministe et stochastique, l’application à des textures réelles confirmait les attentes de la théorie, à savoir la qualité de la caractérisation monogène de la structure locale dans le cas de textures contenant des motifs d’oscillation clairs. Après avoir illustré la pertinence de l’outil monogène dans la caractérisation de la structure locale de textures grises, nous avons généralisé ces résultats à des textures couleur. Pour cela, nous avons utilisé l’approche elliptique des signaux oscillants multivariés, qui a pour avantage de fournir un lien direct entre ses paramètres et le contenu couleur de la texture générée. Un premier objectif était de définir proprement un modèle de synthèse de texture couleur aléatoire, ce qui a été possible en fusionnant l’approche elliptique et les bruits de Gabor. Il en résultait un contrôle du contenu fréquentiel de l’image générée, mais aussi des couleurs présentes. L’outil monogène a ensuite été appliqué dans un but à la fois d’analyse et d’évaluation de la synthèse. Nous avons alors montré que le signal monogène fournissait un moyen fiable de caractériser la richesse du contenu couleur d’une texture stochastique. Par ailleurs, dans le cadre de la synthèse de texture, la mesure de phase local a permis de définir un critère de qualité de la texture couleur générée, notamment grâce à sa capacité à détecter les artéfacts.

  • Robustesse des systèmes homogènes échantillonnés : application aux systèmes multi-agents    - Josse Florence  -  09 décembre 2021

    Voir le résumé
    Voir le résumé
    Ce mémoire traite du problème de la robustesse des systèmes homogènes échantillonnés soumis à une perturbation externe. Tout d'abord, une présentation du concept d'homogénéité sous ses différentes déclinaisons (homogénéité classique, pondérée puis géométrique) est proposée. Puis quelques rappels sur la stabilité des systèmes contrôlés et les résultats principaux concernant les systèmes homogènes s'ensuivent. Un récapitulatif des principaux modes d'échantillonnage de la commande et des problèmes rencontrés au niveau de la stabilité est exposé. Des lois de commande homogènes de degré négatif sont utilisées afin de pallier ces difficultés. Ensuite, la problématique de la robustesse des systèmes homogènes échantillonnés de degré négatif soumis à une perturbation externe est abordée. Le principal résultat montre la convergence pratique de l'état des systèmes contrôlés dans une boule homogène dont le diamètre est fonction du pas d'échantillonnage, du degré d'homogénéité et de l'intensité de la perturbation externe. Après cela, il est appliqué aux systèmes multi-agents dans le cadre du suivi par consensus à l'aide de lois de commande homogènes de degré négatif où l'accélération du leader est assimilable à une perturbation externe au système. Ce résultat est enfin illustré au moyen de simulations d'un système multi-agent constitué par un leader et 5 agents.

  • Systèmes de modulations codées à haute efficacité    - Hadji Ahmed  -  22 novembre 2021

    Voir le résumé
    Voir le résumé
    Cette thèse s’inscrit dans un contexte de transmission de données (en particulier la transmission d’images) très haut débit sur des canaux radio mobiles. Les systèmes classiques de transmissions numériques font appel à des modulations uniformes qui ne permettent pas d’atteindre les limites théoriques. La technique de mise en forme ou shaping est une alternative qui permet d’approcher une distribution gaussienne des points de la constellation à l’entrée du canal réduisant l’écart résiduel par rapport à la limite théorique. Le gain apporté par la stratégie de mise en forme sera d’autant plus important si cette dernière est utilisée avec la technique BICM. Ainsi, le schéma BICM permet d’atteindre de meilleures performances pour des fortes efficacités spectrales avec une complexité raisonnable. Dans ce contexte, la première partie de cette thèse consiste à investiguer une technique de mise en forme (shaping code) afin qu’elle soit associée à un turbo code duo binaire et des modulations MAQ de différents ordres, formant ainsi un schéma shaping BICM robuste. Cette association a permis d’atteindre un gain très important en termes de TEB ainsi qu’une réduction de l’énergie moyenne de transmission que ce soit pour un canal Gaussien ou pour un canal de type Rayleigh. Ce schéma shaping BICM a été utilisé dans la deuxième partie de cette thèse pour la transmission d’images JPWL à travers un canal MIMO-OFDM sans fil réaliste. La stratégie utilisée dans cette partie consiste à utiliser une approche d’adaptation de lien qui s’appuie sur les techniques UEP, UPA, shaping BICM et prend en compte le contenu hiérarchique d’images JPWL. Elle permet de choisir, avant la transmission de l’image, le jeu de paramètres (rendement du codage source/canal, nombre de couches de qualité pouvant être transmise, ordres des modulations dans chaque sous-couche et le nombre d’itérations dans le turbo décodage) permettant d’atteindre la QdS souhaité. Ceci est fait en fonction du budget de puissance et les conditions du canal avec l’hypothèse d’avoir une connaissance sur l’état du canal à l’émission. Avec la technique shaping BICM, une faible puissance permet d’atteindre un faible TEB même pour de fortes efficacités spectrales. Ceci permet, dans la stratégie d’adaptation de lien, d’utiliser des modulations d’ordre élevé et par conséquent plus de bits pouvant être utilisés dans le codage de source. Ainsi, plus de couches de qualité peuvent être transmises avec le budget de puissance. Ceci améliore la qualité d’image, vu le nombre de bits important qui pourra être utilisé dans le codage de source et le nombre important de couches de qualité pouvant être transmises. La stratégie proposée dans cette partie a permis d’atteindre soit un gain très important en terme de PSNR ou bien un gain très important en terme de puissance de transmission pour une QdS comparable.

|< << 1 2 3 4 5 6 >> >| thèses par page

Haut de page


  • Avec le service Ubib.fr, posez votre question par chat à un bibliothécaire dans la fenêtre ci-dessous :


    ou par messagerie électronique 7j/7 - 24h/24h, une réponse vous sera adressée sous 48h.
    Accédez au formulaire...
 
 

Université de Poitiers - 15, rue de l'Hôtel Dieu - 86034 POITIERS Cedex - France - Tél : (33) (0)5 49 45 30 00 - Fax : (33) (0)5 49 45 30 50
these@support.univ-poitiers.fr - Crédits et mentions légales