Vous êtes ici : Accueil > Écoles doctorales > SISMI – Sciences et ingénierie des systèmes, mathématiques, informatique

SISMI – Sciences et ingénierie des systèmes, mathématiques, informatique

Les thèses soutenues à l'école doctorale "SISMI – Sciences et ingénierie des systèmes, mathématiques, informatique"

Pour être informé de la mise en ligne des nouvelles thèses correspondant à la recherche effectuée, abonnez-vous au flux RSS : rss

accès internet    accès intranet    confidentialité
51 ressources ont été trouvées. Voici les résultats 1 à 10
Tri :   Date Auteur Titre thèses par page
  • Analyse des notions de stabilité pour les modèles 2D de Roesser et de Fornasini-Marchesini    - Rigaud Alexandre  -  14 décembre 2022

    Voir le résumé
    Voir le résumé
    Cette thèse présente les résultats de travaux sur lLes différentes notions de stabilité utilisées dans la littérature des systèmes dynamiques multidimensionnels. Plus précisément, dans le cadre des modèles 2D de Roesser et de Fornasini-Marchesini, nous analysons les notions de stabilité au sens de Lyapunov, stabilité asymptotique, stabilité(s) exponentielle(s) et stabilité structurelle, ainsi que les relations entre ces différentes propriétés. Le premier chapitre de ce mémoire effectue un certain nombre de rappels concernant les définitions de stabilité et les liens qui existent entre celles-ci, dans le but d'établir un cadre solide en vue d'étendre ces notions du cas 1D au cas 2D. Une fois ces rappels établis, nous présentons les modèles 2D que nous étudions. Le deuxième chapitre dresse la liste des définitions de stabilité utilisées pour les modèles 2D de Roesser et de Fornasini-Marchesini et établit les liens entre ces différentes définitions. Au cours du troisième chapitre, nous proposons une condition nécessaire et suffisante de stabilité asymptotique pour une certaine classe de modèles de Fornasini-Marchesini 2D discrets linéaires. Le quatrième et dernier chapitre propose une étude détaillée d'un modèle 1D non-linéaire qui possède la particularité rare d'être à la fois attractif et instable, et nous généralisons ce modèle particulier au cas 2D afin d'établir quelles propriétés se conservent ou non lorsque l'on passe du cas 1D au cas 2D.

  • Segmentation automatique des lésions de sclérose en plaques en adéquation avec les contraintes cliniques    - Fenneteau Alexandre  -  24 novembre 2022

    Voir le résumé
    Voir le résumé
    L’accessibilité d’un outil performant de segmentation des lésions de sclérose en plaques permet de fournir aux radiologues des métriques fiables et reproductibles vers une meilleure prise en charge des malades atteints. Pour rendre plus accessible ce genre d’outil en clinique, nous avons proposé des architectures de réseaux de neurones convolutifs légères et performantes capables d’apprendre sur des stations de travail abordables avec un nombre réduit d’exemples d’apprentissage, en un temps réduit, tout en limitant le risque de surapprentissage. Nous avons mis en place des techniques dans le but de réduire au minimum l’apport en données d’entraînement avec l’autoapprentissage et l’apprentissage semi-supervisé, tout en tenant compte de la qualité des données pour nous apercevoir qu’il suffisait, finalement, de très peu d’examens annotés. Nous présentons aussi, une méthode pour augmenter le nombre de petites lésions détectées qui sont plus difficiles à segmenter ainsi que plus susceptibles d’être omises par le radiologue. Le travail de thèse s’inscrit dans une démarche de recherche pour tirer au mieux parti de la segmentation automatique des lésions pour le radiologue vers une meilleure adoption de tels outils en routine clinique.

  • Integration and non-intrusive human clinic machine learning for kidney assessment    - Do Quang Huy  -  16 novembre 2022

    Voir le résumé
    Voir le résumé
    La maladie rénale chronique et l’insuffisance rénale représentent un problème de santé publique majeur. Dans le contexte d’un nombre de cas en croissance permanente, la transplantation rénale est considérée comme une stratégie optimale de prise en charge. Elle a en effet pour avantage d'augmenter les chances de survie avec une qualité de vie supérieure et un coût réduit. Pour les reins destinés à la transplantation, il est essentiel de déterminer rapidement l'état fonctionnel et la méthode optimale de conservation du rein, ce qui reste à ce jour un problème. Les chirurgiens utilisent généralement des reins sous-optimaux ou excluent les greffons potentiellement meilleurs. Plus généralement, le choix de techniques d'imagerie pour analyser le rein dans différentes tâches cliniques, dont la transplantation, est un sujet de recherche à part entière. L’imagerie par résonance magnétique (IRM), notamment, présente un fort potentiel en tant que méthode non invasive pour récupérer des informations structurelles et fonctionnelles. La quantité et la complexité des données qu’elle génère demeure toutefois un verrou important à sa pleine exploitation. L'apprentissage automatique, en général, et l'apprentissage profond, en particulier, sont des domaines scientifiques largement étudiés qu’on retrouve dans de nombreuses applications et domaines de recherche. Les méthodes basées sur l'apprentissage permettent à un ordinateur de construire des concepts complexes à partir de concepts plus simples. Les avancées récentes de l'imagerie médicale et de l'apprentissage automatique ont incité de nombreux chercheurs à approfondir l’idée d’une imagerie anatomique et fonctionnelle augmentées pour l'aide au diagnostic. Par imagerie augmentée, nous entendons des modèles d'intelligence artificielle (IA) conçus pour assister les radiologues et leur permettre de réaliser un diagnostic optimal. Notre travail de thèse vise à améliorer l'évaluation de la qualité de greffons rénaux à l'aide de techniques d'IRM et d’apprentissage automatique. Ce travail comprend trois applications appartenant à deux tâches principales : la synthèse IRM super-résolution et ultra-haut champ pour l'amélioration de la qualité d'image ; et la translation intermodale. Notons que pour des raisons pratiques explicitées dans le document, une partie importante de nos travaux a été réalisée sur des données de cerveau humain. Dans la première application, nous développons une méthode basée sur des modèles auto-supervisés pour résoudre la super-résolution sur l'IRM 3T de routine grâce à un apprentissage sur des données appairées et non appairées. L’évaluation de nos résultats montre que les méthodes proposées peuvent produire une sortie haute résolution à partir d'une entrée basse résolution avec une faible distorsion. En outre, la solution explorée permet de surmonter la limitation des méthodes existantes exigeant des paires d’échantillons alignés. Dans le second volet, nous visons à synthétiser des données IRM ultra haut champ (7 Tesla, ou 7T) à partir de volumes 3T. Le modèle proposé obtient des résultats convaincants tant sur des critères objectifs que subjectifs. Les modèles finaux peuvent fonctionner de manière stable sur l'IRM cérébrale 3D, ce qui est très prometteur. Dans le dernier travail, nous nous concentrons sur la tâche de translation multimodale. Les modèles sont conçus pour générer des volumes de haute précision parmi différentes modalités telles que T1⟷T2, T1 ⟷T1c ou T1⟷T2-Flair. Les travaux actuels se concentrent sur la translation de l'IRM T1 à sa version à contraste augmenté T1c, ce scénario présentant un très fort potentiel vis-à-vis du principe de précaution quant aux injections de gadolinium pour l’obtention des séquences T1c. Une étude comparative entre les méthodes de la littérature et nos méthodes issues de travaux antérieurs est présentée. Les résultats démontrent que nos méthodes obtiennent un résultat stable sur l'ensemble de données de recherche.

  • Assistance virtuelle pour la prévention des risques cardiovasculaires    - Rjiba Saifeddine  -  21 septembre 2022

    Voir le résumé
    Voir le résumé
    Les maladies coronariennes et les attaques cérébrales ont longtemps été la principale cause de décès en France, comme dans de nombreux pays dans le monde. Dans ce travail de thèse, nous proposons d’offrir aux experts médicaux des algorithmes automatiques pour l’analyse de données à caractère biomédical en vue de la prévention des risques cardiovasculaires (sténoses) et les accidents vasculaires cérébraux (anévrismes). Nous déployons pour cela des outils novateurs basés sur les techniques de l’intelligence artificielle permettant d’extraire l’arbre artériel, de détecter les sténoses, de classifier les types des plaques coronaires et de segmenter les anévrismes intracrâniens non rompus. Nous introduisons, également, une nouvelle base de données que nous avons créé à l’aide des efforts des équipes médicales du CHU Poitiers.

  • Hyperspectral texture metrology    - Chu Rui Jian  -  07 juillet 2022

    Voir le résumé
    Voir le résumé
    Soixante ans après les conjectures de Julesz, de nombreuses méthodes d'extraction de caractéristiques de l’aspect texturé ont été publiées. Mais, peu l’ont été à des fins métrologiques. Selon la science de la mesure, une caractéristique doit être développée en conjonction avec la mesure de distance/similarité associée. Dans nos travaux sur la texture hyperspectrale, cela nécessite que la fonctionnalité soit indépendante de la technologie du capteur et donc du nombre de bandes spectrales, de la gamme de longueurs d'onde, etc. La fonctionnalité développée doit donc être générale avec des résultats strictement dépendants du contenu de la texture. Dans ce manuscrit de thèse, nous avons commencé par définir la texture comme la distribution conjointe des propriétés spectrales et spatiales. Alors que la première partie dicte la diversité spectrale ou la distribution des pixels, la second fait référence à la disposition spatiale ou à l'interaction entre les valeurs multivaluées des pixels. En conséquence, nous avons développé une analyse spectrale automatique adaptée à la nature continue du spectre. En travaillant dans l'espace métrique, le besoin de réduction de la dimensionnalité, par ex. l'analyse en composantes principales (ACP), est supprimée. De plus, la sélection de la référence spectrale est entièrement automatisée grâce à la maximisation de l'entropie. Une analogie entre notre approche et l'ACP est établie, la première se révélant plus robuste et fidèle à la physique du spectre. En nous inspirant de la matrice de cooccurrence de niveaux de gris (GLCM) et du motif binaire local (LBP), nous avons ensuite développé une analyse spatiale adaptée aux images d'un nombre quelconque de bandes spectrales. Nous avons combiné la précision des caractéristiques GLCM et l'efficacité de la mesure de similarité LBP pour proposer l'histogramme de différences de voisinage. Nous avons ensuite mis en relation la différence de voisinage avec la notion de gradient d'image pour poursuivre une approche sans paramètre. En rappelant les règles de base des dérivées, nous avons mis en évidence une décomposition mathématique du gradient spectral en parties chromatiques et achromatiques. Considérant la théorie de l'espace d'échelle, nous avons également développé une sélection automatique d'échelle afin de refléter la taille de la structure locale. Pour valider notre approche, nous avons soumis nos caractéristiques à des tâches de classification, de récupération et de segmentation de texture. Les résultats montrent que nos fonctionnalités fonctionnent à un niveau comparable à l'état de l'art. Plus important encore, nous démontrons l'interprétabilité physique de nos caractéristiques face à une multitude de diversité spectrale et spatiale. En adhérant à la métrologie, nous avons témoigné de l'efficacité d'une paire adaptée de caractéristique et de mesure de similarité sans avoir besoin de techniques sophistiquées d'apprentissage automatique ou profond.

  • Mixture of random time-varying coefficients and longitudinal factor analysis models and their application to chronic pain multidimensional assessment    - Ounajim Amine  -  24 juin 2022

    Voir le résumé
    Voir le résumé
    Les données longitudinales multivariées jouent un rôle essentiel dans divers domaines de recherche, notamment les sciences médicales et comportementales. Elles permettent aux chercheurs de tester de multiples hypothèses, telles que l'identification de la variation dans le temps d'une variable clinique. La robustesse des inférences obtenues à partir de l'analyse des données longitudinales conduit à une complexité croissante des méthodes de traitement statistique. Cette complexité découle de la structure des données longitudinales et de leurs propriétés statistiques, notamment la dépendance temporelle intra-individuelle. Un autre degré de complexité peut provenir de l'hétérogénéité potentielle due à l'existence de plusieurs sous-populations latentes dans les données de l'étude. Actuellement, il est reconnu dans la littérature que la douleur présente un aspect longitudinal complexe. Il a été démontré que les corrélations entre les différentes dimensions de la douleur se renforcent avec le temps, non seulement lors du passage des douleurs aiguës aux douleurs chroniques, mais aussi au cours de l'évolution des douleurs chroniques. Cela peut être dû à l'accumulation à long terme des fardeaux biopsychosociales générées par la douleur chronique et aux altérations des mécanismes cérébraux reliant la douleur aux émotions. De plus, le caractère socioculturel et émotionnel de la douleur chronique rend son évaluation complexe en raison de l'hétérogénéité par rapport à l'importance des composantes sensorielles, émotionnelles et fonctionnelles dans la vie de chaque individu. Le premier objectif de cette thèse est de démontrer empiriquement l'existence de différents groupes latents de patients dont la qualité de vie est impactée différemment par les composantes sensorielles, émotionnelles et fonctionnelles de la douleur, par l'application d'un mélange de modèles à effet mixte sur des données longitudinales de patients souffrant de douleurs chroniques après une chirurgie rachidienne. Cela permet de justifier la nécessité d'une évaluation hétérogène et spécifique au patient. Le deuxième objectif est de proposer un nouveau modèle non paramétrique formulé comme un mélange de modèles à coefficients variables dans le temps incluant des processus aléatoires. Le modèle proposé a été ajusté avec un algorithme EM modifié incluant une procédure de Backfitting. Nous avons évalué notre modèle par des simulations et des applications sur des données réelles. Ce modèle nous permet d'étudier l'évolution dans le temps des coefficients associant la qualité de vie des patients aux autres composantes de la douleur chronique pour chaque groupe latent. Le troisième et dernier objectif de la thèse est de proposer un mélange de modèles d'analyse factorielle longitudinale qui permet de résumer plusieurs indicateurs longitudinaux en une ou plusieurs variables latentes qui diffèrent entre les composantes du mélange. Un algorithme EM a été proposé pour estimer le modèle. Des méthodes pour garantir la comparabilité des facteurs latents ont été discuté. L'objectif de ce modèle est d'extraire des indicateurs latents et multidimensionnels qui dépendent à la fois du moment de la mesure dans le parcours du patient et des caractéristiques intrinsèques des patients. Le but ultime étant de faire évoluer l'évaluation de la douleur vers une évaluation multidimensionnelle, variable dans le temps et spécifique au patient, en fonction de ses caractéristiques biopsychosociales.

  • Études statistiques et géométriques de champs aléatoires shot noise. Similarités et différences avec les modèles gaussiens    - Lerbet Antoine  -  20 juin 2022

    Voir le résumé
    Voir le résumé
    Cette thèse a pour but l’étude de plusieurs aspects des champs aléatoires shot noise. Nous utilisons la notion d’association pour caractériser la faible dépendance des valeurs de ces champs en des points éloignés et ainsi démontrer la normalité asymptotique vectorielle des estimateurs des moments d’ordre 1 et 2, et expliciter leurs variances et covariances asymptotiques. D’autres informations, spécifiques aux champs aléatoires, proviennent des caractéristiques géométriques des niveaux d’excursion. La densité de périmètre est l’une de celles que nous regardons : les précédents travaux dans la littérature concernent deux catégories de champs, le cas des champs lisses et celui des champs élémentaires. Concer- nant les champs lisses, nous observons et démontrons le comportement gaussien à haute intensité pour la densité de périmètre. À petite intensité, nous mettons en évidence un tout autre comportement qui se rapproche du cadre élémentaire. Une attention particulière est portée au modèle avec un noyau gaussien et une marque exponentielle qui possède des propriétés remarquables. Ce modèle est paramétré par un triplet (λ, µ, σ) que l’on estime à partir des estimateurs consistants et asymptotiquement normaux des moments. Ces propriétés de consistance et de normalité asymptotique sont ainsi transmises aux estimateurs des paramètres. L’approximation de ce champ lisse par une discrétisation du noyau gaussien permet d’obtenir une expression de la densité de périmètre plus malléable, en utilisant le cadre élémentaire et en faisant tendre le pas de discrétisation vers 0. Les formules sont quasi-explicites et permettent, couplées avec la densité d’aire, de procéder à une classification entre les modèles shot noise et gaussien, et ce malgré leur forte ressemblance à haute intensité.

  • Tire friction potential estimation combining Kalman filtering and Monte-Carlo Markov Chain Model Learning    - Mussot Vincent  -  02 mars 2022

    Voir le résumé
    Voir le résumé
    Le potentiel d’adhérence d’un pneu est la grandeur caractérisant la quantité d’adhérence restante à un pneu avant que celui-ci ne se mette à patiner sur la route. La connaissance de cette grandeur lors d’un trajet pourrait se révéler particulièrement avantageuse, notamment pour le développement des véhicules autonomes et également pour améliorer sensiblement les performances des systèmes d’aide à la conduite. Malheureusement, lors d’une manœuvre standard, les efforts longitudinaux générés par le pneu restent faibles par rapport à la charge subie par celui-ci. En conséquence, le potentiel d’adhérence est particulièrement difficile à estimer. Ainsi, l’objectif de ces travaux est de mettre en œuvre une méthode permettant d’estimer le potentiel d’adhérence lors d’une manœuvre standard en utilisant uniquement les capteurs équipant les véhicules de série. La méthode mise en œuvre se scinde en deux grandes étapes. Tout d’abord, une méthode de type Monte-Carlo adaptative utilisant des points de friction est mise en œuvre afin de déterminer le potentiel d’adhérence. Dans cette première grande partie, les points de friction utilisés sont des mesures provenant de simulations ou d’essais effectués avec des machines de test sur des pneus standards. Cependant, dans le cas pratique où les seules mesures accessibles sont celles fournies par les capteurs présents sur les véhicules de série, ces mesures de points de friction ne sont pas accessibles. Ainsi, dans une seconde grande étape, un filtre de Kalman étendu est utilisé afin d’obtenir des estimations des points de friction en ne se servant que des signaux fournis par les capteurs présents sur les véhicules de série. Cette étape est validée sur des données de simulation représentatives d’une manœuvre en ligne droite.

  • Calcul incrémental des groupes d'homologie d'un objet au cours d'un processus de construction    - Rharbaoui Wassim  -  21 janvier 2022

    Voir le résumé
    Voir le résumé
    En modélisation géométrique à base topologique, les objets manipulés sont subdivisés en cellules de différentes dimensions (sommets, arêtes, faces, volumes. . .). Dans ce cadre, le calcul d’invariants topologiques (orientabilité, contractilité, caractéristique d’Euler. . .) permet de caractériser la structure de ces objets. En particulier, l’homologie est un invariant topologique usuellement étudié, permettant intuitivement de caractériser les trous d’un objet en toute dimension (composantes connexes en dimension 0, tunnels en dimension 1, cavités en dimension 2 etc. . .). Classiquement, le calcul de l’homologie d’un objet nécessite d’étudier les relations d’incidence de toutes ses cellules. Dans cette thèse, on s’intéresse au calcul incrémental des variations de l’homologie d’un objet évoluant dans un processus de construction. Pour cela, nous utilisons des résultats de l’homologie effective [1], et plus particulièrement le théorème des suites exactes courtes effectives (théorème SECE). Le passage d’une étape de construction à l’autre se fait par application d’une opération locale consistant à fusionner des cellules (identification), ou, à l’inverse, à les scinder (désidentification). Le théorème SECE est utilisé pour maintenir une équivalence homologique au fil des étapes. Cette dernière associe l’objet à un plus petit objet de "même" homologie. À chaque étape, l’homologie peut être calculée à partir du petit objet, ce qui est plus efficace que de la calculer à partir de l’objet lui-même. Dans ce contexte, nous proposons une analyse du coût des calculs mis en jeu par le théorème SECE. Il en résulte que, pour calculer les rangs des groupes d’homologie à chaque étape, la complexité en temps du maintien de l’équivalence homologique dépend seulement du nombre de cellules impactées par l’opération (et de leur étoile), et la complexité en espace croît en fonction du nombre de cellules impactées par l’opération. Pour garantir ces complexités en pratique, nous distinguons plusieurs prérequis qu’une implémentation doit respecter. Nous proposons une structure de données vérifiant ces prérequis. Elle inclut des informations pour suivre l’évolution des cellules d’une structure topologique au fil du processus de construction, c’est-à-dire le fait que des cellules puissent mourir ou être créées à chaque étape. En fonction de ces évolutions, elle est utilisée pour mettre à jour les éléments maintenus au fil du processus et utilisés dans le théorème SECE, comme par exemple des matrices de bord de complexes de chaînes. Ensuite, nous nous intéressons aux cas où l’objet est trop volumineux pour être manipulé par une seule unité de calcul. Nous proposons un algorithme permettant de calculer l’homologie d’un objet distribué évoluant dans un processus de construction composé uniquement d’identifications. L’objet est manipulé implicitement au travers de sa distribution et d’une identification permettant de le reconstruire à partir de sa distribution. À chaque étape, ces données sont mises à jour afin de permettre le calcul de l’homologie de l’étape suivante sans avoir à reconstruire l’objet. Enfin, nous mettons en évidence un cadre commun à l’homologie effective et à l’homologie persistante. En particulier, nous nous intéressons aux travaux concernant les tours, des séquences de complexes simpliciaux reliés entre eux par des applications simpliciales [2]. [1] Julio Rubio and Francis Sergeraert. Constructive homological algebra and applications. Technical report, Universidad de la Rioja, Université Grenoble Alpes, 2006 [2] Tamal K Dey, Fengtao Fan, and Yusu Wang. Computing topological persistence for simplicial maps. In Proceedings of the thirtieth annual symposium on Computational geometry, pages 345–354, 2014

  • Linear systems on irreducible holomorphic symplectic manifolds    - Novario Simone  -  17 décembre 2021

    Voir le résumé
    Voir le résumé
    Dans cette thèse, nous étudions certains systèmes linéaires complets associés aux diviseurs des schémas de Hilbert de 2 points sur de des surfaces K3 projectives complexes avec groupe de Picard de rang 1, et les fonctions rationnelles induites. Ces variétés sont appelées carrés de Hilbert sur des surfaces K3 génériques, et sont un exemple de variété symplectique holomorphe irréductible (variété IHS). Dans la première partie de la thèse, en utilisant la théorie des réseaux, les opérateurs de Nakajima et le modèle de Lehn–Sorger, nous donnons une base pour le sous-espace vectoriel de l’anneau de cohomologie singulière à coefficients rationnels engendré par les classes de Hodge rationnels de type (2, 2) sur le carré de Hilbert de toute surface K3 projective. Nous exploitons ensuite un théorème de Qin et Wang ainsi qu’un résultat de Ellingsrud, Göttsche et Lehn pour obtenir une base du réseau des classes de Hodge intégraux de type (2, 2) sur le carré de Hilbert d’une surface K3 projective quelconque. Dans la deuxième partie de la thèse, nous étudions le problème suivant : si X est le carré de Hilbert d’une surface K3 générique tel que X admet un diviseur ample D avec qX(D) = 2, où qX est la forme quadratique de Beauville– Bogomolov–Fujiki, on veut décrire géométriquement la fonction rationnelle induite par le système linéaire complet |D|. Le résultat principal de la thèse montre qu’une telle X, sauf dans le cas du carré de Hilbert d’une surface quartique générique de P3, est une double sextique EPW, c’est-à-dire le revêtement double d’une sextique EPW, une hypersurface normale de P5, ramifié sur son lieu singulier. En plus la fonction rationnelle induite par |D| est exactement ce revêtement double. Les outils principaux pour obtenir ce résultat sont la description des classes de Hodge intégraux de type (2, 2) de la première partie de la thèse et l’existence d’une involution anti-symplectique sur de telles variétés par un théorème de Boissière, Cattaneo, Nieper-Wißkirchen et Sarti.

|< << 1 2 3 4 5 6 >> >| thèses par page

Haut de page


  • Avec le service Ubib.fr, posez votre question par chat à un bibliothécaire dans la fenêtre ci-dessous :


    ou par messagerie électronique 7j/7 - 24h/24h, une réponse vous sera adressée sous 48h.
    Accédez au formulaire...
 
 

Université de Poitiers - 15, rue de l'Hôtel Dieu - 86034 POITIERS Cedex - France - Tél : (33) (0)5 49 45 30 00 - Fax : (33) (0)5 49 45 30 50
these@support.univ-poitiers.fr - Crédits et mentions légales