Vous êtes ici : Accueil > Sections CNU > 27 - Informatique

27 - Informatique

Les thèses se rapportant à la section CNU "27 - Informatique"

Pour être informé de la mise en ligne des nouvelles thèses correspondant à la recherche effectuée, abonnez-vous au flux RSS : rss

accès internet    accès intranet    confidentialité
26 ressources ont été trouvées. Voici les résultats 1 à 10
Tri :   Date Auteur Titre thèses par page
  • Reconstructions 3D tissulaires basées sur le métabolisme sous-jacent exploré en spectroscopie par résonance magnétique multi-noyaux    - Gerbaud Sylvain  -  22 novembre 2023

    Voir le résumé
    Voir le résumé
    Dans le milieu médical, les spécialistes en neuroscience utilisent une représentation 3D du cortex cérébral pour évaluer l’étendue d’une lésion, ou pour détecter des maladies neurodégénératives telles qu’Alzheimer ou la sclérose en plaques. Dans ce contexte, la 3D offre une visualisation globale de l’anatomie voire permet le recours à la simulation. Néanmoins, les représentations 3D utilisées sont majoritairement sous la forme de grille de voxels en raison des systèmes d’acquisition (scanners, IRM, etc.). La résolution de la grille n’est pas forcément adaptée car elle induit une visualisation en « marches d’escalier » et approxime tout calcul géométrique, comme la mesure du volume d’une tumeur, à la taille des voxels. Pour obtenir une représentation plus fine, il est possible d’utiliser des maillages 3D mais les méthodes standards actuelles n’arrivent pas à représenter correctement les lésions et ne vérifient pas la cohérence des voisinages entre les différents tissus anatomiques afin de valider la reconstruction (substance blanche, substance grise, liquide céphalo-rachidien…). Par ailleurs, les modèles ne prévoient pas l’incorporation d’informations non géométriques pourtant utiles aux spécialistes. Dans les travaux décrits dans cette thèse, nous proposons un modèle dédié à l’étude du cerveau (en particulier les tumeurs cérébrales). Ce modèle est suffisamment riche pour permettre de regrouper les données anatomiques et toutes les informations issues du contexte d’application, par exemple en spectroscopie par résonance magnétique (SRM), les concentrations des métabolites. Dans un premier temps, nous présentons une nouvelle méthode de reconstruction qui produit un maillage volumique représentant les tissus cérébraux, enrichi par des informations de sémantique (appartenance à un tissu) et topologiques. Ces dernières sont décrites dans notre modèle par les cartes généralisées. Notre méthode utilise un ensemble de contraintes de cohérence définies en 3D, et exploite les connaissances et informations médicales pour guider la reconstruction. Dans un deuxième temps, nous utilisons ce modèle pour une application de visualisation et de représentation de données acquises par SRM. Cela permet notamment d’interpréter les données spectroscopiques à la lueur des types de tissus couverts et de leur métabolisme normal. Enfin, nous étudions les possibilités d’exploitation de notre principe de reconstruction dans de nouveaux cadres applicatifs (par exemple, données d’acquisition de tomographie pour l’horlogerie).

  • Calcul incrémental des groupes d'homologie d'un objet au cours d'un processus de construction    - Rharbaoui Wassim  -  21 janvier 2022

    Voir le résumé
    Voir le résumé
    En modélisation géométrique à base topologique, les objets manipulés sont subdivisés en cellules de différentes dimensions (sommets, arêtes, faces, volumes. . .). Dans ce cadre, le calcul d’invariants topologiques (orientabilité, contractilité, caractéristique d’Euler. . .) permet de caractériser la structure de ces objets. En particulier, l’homologie est un invariant topologique usuellement étudié, permettant intuitivement de caractériser les trous d’un objet en toute dimension (composantes connexes en dimension 0, tunnels en dimension 1, cavités en dimension 2 etc. . .). Classiquement, le calcul de l’homologie d’un objet nécessite d’étudier les relations d’incidence de toutes ses cellules. Dans cette thèse, on s’intéresse au calcul incrémental des variations de l’homologie d’un objet évoluant dans un processus de construction. Pour cela, nous utilisons des résultats de l’homologie effective [1], et plus particulièrement le théorème des suites exactes courtes effectives (théorème SECE). Le passage d’une étape de construction à l’autre se fait par application d’une opération locale consistant à fusionner des cellules (identification), ou, à l’inverse, à les scinder (désidentification). Le théorème SECE est utilisé pour maintenir une équivalence homologique au fil des étapes. Cette dernière associe l’objet à un plus petit objet de "même" homologie. À chaque étape, l’homologie peut être calculée à partir du petit objet, ce qui est plus efficace que de la calculer à partir de l’objet lui-même. Dans ce contexte, nous proposons une analyse du coût des calculs mis en jeu par le théorème SECE. Il en résulte que, pour calculer les rangs des groupes d’homologie à chaque étape, la complexité en temps du maintien de l’équivalence homologique dépend seulement du nombre de cellules impactées par l’opération (et de leur étoile), et la complexité en espace croît en fonction du nombre de cellules impactées par l’opération. Pour garantir ces complexités en pratique, nous distinguons plusieurs prérequis qu’une implémentation doit respecter. Nous proposons une structure de données vérifiant ces prérequis. Elle inclut des informations pour suivre l’évolution des cellules d’une structure topologique au fil du processus de construction, c’est-à-dire le fait que des cellules puissent mourir ou être créées à chaque étape. En fonction de ces évolutions, elle est utilisée pour mettre à jour les éléments maintenus au fil du processus et utilisés dans le théorème SECE, comme par exemple des matrices de bord de complexes de chaînes. Ensuite, nous nous intéressons aux cas où l’objet est trop volumineux pour être manipulé par une seule unité de calcul. Nous proposons un algorithme permettant de calculer l’homologie d’un objet distribué évoluant dans un processus de construction composé uniquement d’identifications. L’objet est manipulé implicitement au travers de sa distribution et d’une identification permettant de le reconstruire à partir de sa distribution. À chaque étape, ces données sont mises à jour afin de permettre le calcul de l’homologie de l’étape suivante sans avoir à reconstruire l’objet. Enfin, nous mettons en évidence un cadre commun à l’homologie effective et à l’homologie persistante. En particulier, nous nous intéressons aux travaux concernant les tours, des séquences de complexes simpliciaux reliés entre eux par des applications simpliciales [2]. [1] Julio Rubio and Francis Sergeraert. Constructive homological algebra and applications. Technical report, Universidad de la Rioja, Université Grenoble Alpes, 2006 [2] Tamal K Dey, Fengtao Fan, and Yusu Wang. Computing topological persistence for simplicial maps. In Proceedings of the thirtieth annual symposium on Computational geometry, pages 345–354, 2014

  • Tools for Fluid Simulation Control in Computer Graphics    - Schoentgen Arnaud  -  05 novembre 2021

    Voir le résumé
    Voir le résumé
    L'animation basée sur la physique peut générer des systèmes aux comportements complexes et réalistes. Malheureusement, contrôler de tels systèmes est une tâche ardue. Dans le cas de la simulation de fluide, le processus de contrôle est particulièrement complexe. Bien que de nombreuses méthodes et outils ont été mis au point pour simuler et faire le rendu de fluides, trop peu de méthodes offrent un contrôle efficace et intuitif sur une simulation de fluide. Étant donné que le coût associé au contrôle vient souvent s'additionner au coût de la simulation, appliquer un contrôle sur une simulation à plus haute résolution rallonge chaque itération du processus de création. Afin d'accélérer ce processus, l'édition peut se faire sur une simulation basse résolution moins coûteuse. Nous pouvons donc considérer que la création d'un fluide contrôlé peut se diviser en deux phases: une phase de contrôle durant laquelle un artiste modifie le comportement d'une simulation basse résolution, et une phase d'augmentation de détail durant laquelle une version haute résolution de cette simulation est générée. Cette thèse présente deux projets, chacun contribuant à l'état de l'art relié à chacune de ces deux phases. Dans un premier temps, on introduit un nouveau système de contrôle de liquide représenté par un modèle particulaire. À l'aide de ce système, un artiste peut sélectionner dans une base de données une parcelle de liquide animé précalculée. Cette parcelle peut ensuite être placée dans une simulation afin d'en modifier son comportement. À chaque pas de simulation, notre système utilise la liste de parcelles actives afin de reproduire localement la vision de l'artiste. Une interface graphique intuitive a été développée, inspirée par les logiciels de montage vidéo, et permettant à un utilisateur non expert de simplement éditer une simulation de liquide. Dans un second temps, une méthode d'augmentation de détail est décrite. Nous proposons d'ajouter une étape supplémentaire de suivi après l'étape de projection du champ de vitesse d'une simulation de fumée eulérienne classique. Durant cette étape, un champ de perturbations de vitesse non-divergent est calculé, résultant en une meilleure correspondance des densités à haute et à basse résolution. L'animation de fumée résultante reproduit fidèlement l'aspect grossier de la simulation d'entrée, tout en étant augmentée à l'aide de détails simulés.

  • Exploration à base ontologique de données issues de patients atteints de maladies rares    - Riché-Piotaix Quentin  -  20 décembre 2019

    Voir le résumé
    Voir le résumé
    Dans le domaine de la génétique des maladies rares, l’analyse de l’exome, c’est-à-dire le séquençage de toutes les parties codantes du génome (soit environ 23 000 gènes), est un outil diagnostic répandu. Les données produites par ces analyses sont conséquentes, il est difficile d’en extraire les variations pathogènes nécessaire au diagnostic. Cette tâche est celle du généticien. Pour faciliter cette étape, les bioinformaticien annotent ces données avec du savoir provenant de sources de données variées choisies par les généticiens. Les généticiens dépendent donc des bio-informaticiens et ne sont pas libres de tester simplement de nouvelles sources de données. Chaque base de données ajoutée au processus d’annotation doit faire l’objet d’un développement de scripts dédiés par le bio-informaticien. Les sources de données utilisées dépendent des habitudes et des connaissances des généticiens, il n’est donc pas possible de prévoir lesquelles seront utilisées. Enfin, le taux de renouvellement de ces sources de données est important, car la génétique est un domaine de recherche actif où il est important d’avoir des données à jour pour obtenir des diagnostics fiables. La tâche du Généticien Biologiste est d’extraire d’une liste de plusieurs dizaines de milliers de variations celles qui sont pathogènes. Il utilise pour cela des approches en filtres successifs, en éliminant les variations qui ne répondent pas à des critères biologiques. Cette approche est fastidieuse, le nombre de filtres étant important ; de plus, elle peut être source de faux négatifs et oblige à de multiples réanalyses pour garantir un résultat exhaustif. Dans ce travail, nous présentons deux contributions. La première est une approche de création d’ontologies à partir d’exports de bases de données et du savoir du généticien. Nous avons testé cette approche en deux temps, tout d’abord en vérifiant la validité de la démarche, puis en créant un prototype (COPUNG) que nous avons fait tester à des utilisateurs experts du domaine. Cette contribution permet d’envisager une liberté plus importante pour le généticien, en lui permettant de créer lui même l’annotation qu’il souhaite sans dépendre du bio-informaticien. La seconde contribution vise à augmenter l’efficacité et l’efficience des généticiens dans leur tâche d’analyse des exomes. Nous présentons ici une approche en priorisation plutôt qu’en filtre, permettant au généticien de définir ses propres règles de priorisation pour trier les variations. Nous avons créé un prototype (GenSCor) permettant de tester l’efficacité de l’approche, que nous avons validé avec des utilisateurs généticiens. Enfin, nous avons utilisé une cohorte de données d’exomes connus pour valider les résultats de ce prototype. Nos premiers résultats ont montré qu’il était possible de faire créer une ontologie à des généticiens experts du domaine. Ces résultats démontrent que le développement d’un annotateur complet plus ouvert et à destination direct des généticiens serait très utile. Dans notre seconde contribution, nous avons obtenu de meilleurs résultats avec notre approche de priorisation qu’avec les différents outils de la bibliographie ainsi qu’avec la méthode manuelle précédemment utilisée, que ce soit en terme d’efficacité ou en termes d’efficience. En effet, les variations pathogènes de notre cohorte ressortent dans 89% des cas parmi les 3 premières variations et dans 100% des cas parmi les 15 premières. Il permet de limiter le nombre de variations à analyser de façon importante, en moyenne 50 par exome. Il est utilisé en routine dans l’analyse d’exomes et de grand panels dans notre laboratoire de diagnostic.

  • Rejeu basé sur des règles de transformation de graphes    - Cardot Anais  -  30 janvier 2019

    Voir le résumé
    Voir le résumé
    Réaliser des variations d'un même modèle est un besoin en expansion dans de nombreux domaines de modélisation (architecture, archéologie, CAO, etc.). Mais la production manuelle de ces variations est fastidieuse, il faut donc faire appel à des techniques permettant de rejouer automatiquement tout ou partie du processus de construction du modèle, après spécification des modifications. La majorité des approches dédiées à la réalisation du rejeu sont basées sur un système de modélisation paramétrique, composée d’un modèle géométrique et d’une spécification paramétrique permettant d’enregistrer la succession d’opérations l’ayant créé ainsi que leurs paramètres. On peut ensuite faire varier ces paramètres ou éditer cette liste d’opérations afin de modifier le modèle. On utilise pour cela un système de nommage persistant, introduit dans les années 90, et permettant d’identifier et d’apparier les entités d’une spécification initiale et celles d'une spécification rejouée. L’objectif de cette thèse est de proposer un système de nommage persistant général, homogène et permettant de gérer l’édition de spécification paramétriques (déplacer, ajouter et supprimer des opérations). Nous nous basons sur la bibliothèque Jerboa, qui repose sur des règles de transformation de graphes, tant pour utiliser ces règles dans la réalisation de la méthode de nommage que pour lier les notions de spécification paramétrique à ces règles de transformations de graphes. Nous décrivons ensuite comment exploiter notre méthode de nommage pour rejouer et éditer des spécifications paramétriques d’opérations, puis nous la comparons avec les approches de la littérature.

  • Développement d'un langage de programmation dédié à la modélisation géométrique à base topologique, application à la reconstruction de modèles géologiques 3D    - Gauthier Valentin  -  17 janvier 2019

    Voir le résumé
    Voir le résumé
    La modélisation géométrique est utilisée dans de nombreux domaines pour la construction d’objets 3D, l’animation ou les simulations. Chaque domaine est soumis à ses propres contraintes et nécessiterait un outil dédié. En pratique, un même outil est utilisé pour plusieurs domaines, en factorisant les caractéristiques communes. Ces modeleurs fournissent un ensemble d'opérations types, que l'utilisateur compose pour construire ses objets. Pour des opérations plus spécifiques, les outils actuels offrent des API. La plate-forme Jerboa propose un outil de génération d'opérations géométriques personnalisées. Elles sont définies graphiquement par des règles de transformations de graphes. Des vérifications automatiques de préservation de la cohérence des objets sont faites lors de l’édition qui peuvent être enrichies par des propriétés métiers. Notre contribution a consisté à étendre le langage par des scripts, pour composer les règles et réaliser des opérations complexes. Nous avons étendu les vérifications automatiques, en particulier pour assurer la cohérence géométrique. Enfin, nous avons modifié le processus d'application des opérations pour augmenter les possibilités de contrôle. Pour valider cette approche, nous avons développé un modeleur dédié à la géologie, pour la représentation du sous-sol, en collaboration avec l'entreprise Géosiris. Nous avons défini un flux d'activité avec Géosiris en suivant des contraintes spécifiques à la géologie. Grâce à la rapidité de développement des opérations dans Jerboa, nous avons pu prototyper et tester rapidement plusieurs algorithmes de reconstruction du sous-sol, pour les appliquer sur des données réelles fournies par l'entreprise.

  • Modélisation et simulation à base de règles pour la simulation physique    - Ben Salah Fatma  -  13 novembre 2018

    Voir le résumé
    Voir le résumé
    La simulation physique des objets déformables est au cœur de plusieurs applications dans l’informatique graphique. Dans ce contexte, nous nous intéressons à l’élaboration d’une plate-forme, qui combine le modèle topologique des Cartes Généralisées avec un ou plusieurs modèles mécaniques, pour l’animation physique d’objets maillés déformables, pouvant endurer des transformations topologiques comme des déchirures ou des fractures. Pour offrir un cadre aussi général que possible, nous avons adopté une approche à base de règles de manipulation et de transformation de graphes, telle que proposée par le logiciel JERBOA. Cet environnement offre des possibilités de prototypage rapide de différents modèles mécaniques. Il nous a permis de définir précisément le stockage des informations mécaniques dans la description topologique du maillage et de simuler les déformations en utilisant une base topologique pour le calcul des interactions et l’affectation des forces. Toutes les informations mécaniques sont ainsi stockées dans le modèle topologique, sans recours à une structure auxiliaire. La plate-forme réalisée est générale. Elle permet de simuler des objets 2D ou 3D, avec différents types de maillages, non nécessairement homogènes. Elle permet de simuler différents modèles mécaniques, continus ou discrets, avec des propriétés diverses d’homogénéité et d’isotropie. De plus, différentes solutions d’évolution topologique ont été proposées. Elles impliquent la sélection d’un critère déclenchant les modifications et un type de transformation proprement dit. Notre approche a également permis de réduire les mises à jour du modèle mécanique en cas de déchirure/fracture.

  • Modélisation, évaluation et validation des systèmes temps réel distribués    - Benammar Nassima  -  17 septembre 2018

    Voir le résumé
    Voir le résumé
    Dans cette thèse, nous analysons les réseaux des systèmes temps-réel distribués et plus particulièrement ceux des domaines de l’avionique et de l’automobile. Nous nous sommes focalisés sur deux protocoles : « Avionic Full DupleX Switched Ethernet » (AFDX), « Audio Vidéo Bridging Ethernet » (AVB). Dans ces domaines critiques, le déterminisme du réseau doit être garanti. Il consiste, notamment, en la détermination d’une borne garantie du délai de bout en bout de traversée du réseau pour chaque trame ; et un dimensionnement des files d’attente des trames suffisamment grand pour garantir qu’aucune d’entre elle ne débordera et ainsi, éviter toute perte de trame. Il existe plusieurs méthodes pour l’évaluation des délais et nous avons, principalement, travaillé sur la méthode « Forward end-to-end delay Analysis » (FA). FA avait déjà été définie avec la politique d’ordonnancement « First-In-First-Out » dans le contexte de l’AFDX. Nous sommes repartis de cette approche, nous l’avons reformulé et généralisé à n’importe quel réseau Ethernet commuté. Nous l’avons aussi étendu aux priorités statiques et au protocole AVB et sa politique de service « Credit Based Shaper ». Pour chaque contribution, des démonstrations formelles ont été présentées et une expérimentation incluant une comparaison de FA avec les principales approches d’évaluation sur un exemple industriel. Finalement, nous avons développé et démontré formellement une approche pour le dimensionnement des files d’attente en termes de nombre de trames. Cette approche a été expérimentée également sur une configuration industrielle.

  • Simulation et rendu de vagues déferlantes    - Brousset Mathias  -  07 décembre 2017

    Voir le résumé
    Voir le résumé
    Depuis plusieurs décennies, la communauté informatique graphique s’intéresse à la simulation physique du mouvement et du rendu des fluides. Ils nécessitent d’approcher numériquement des systèmes complexes d’équations aux dérivées partielles, coûteux en temps de calcul. Ces deux domaines trouvent entre autres des applications dans le domaine vidéoludique, qui requiert des performances pouvant offrir des résultats en temps interactif, et dans la simulation d’écoulements réalistes et complexes pour les effets spéciaux, nécessitant des temps de calcul et d’espace mémoire beaucoup plus considérables. Les modèles de la dynamique des fluides permettent de simuler des écoulements complexes, tout en offrant à l’artiste la possibilité d’interagir avec la simulation. Toutefois, contrôler la dynamique et l’apparence des vagues reste difficile. Cette thèse porte d’une part sur le contrôle du mouvement des vagues océaniques dans un contexte d’animation basée sur les équations de Navier-Stokes, et sur leur visualisation réaliste. Nos deux contributions principales sont : (i) un modèle de forces externes pour contrôler le mouvement des vagues, avec leur hauteur, leur point de déferlement et leur vitesse. Une extension du modèle pour représenter l’interaction entre plusieurs vagues et des vagues tournantes est également proposée. (ii) une méthodologie pour visualiser les vagues, à l’aide d’une méthode de rendu réaliste, en s’appuyant sur des données optiques des constituants océaniques pour contrôler l’apparence du fluide considéré comme milieu participant. La simulation et le contrôle de la dynamique des vagues sont mis en oeuvre dans un simulateur basé sur la méthode SPH (Smoothed Particle Hydrodynamics). Afin d’obtenir des performances interactives, nous avons développé un moteur de simulation SPH tirant parti des technologies GPGPU. Pour la visualisation physico-réaliste, nous utilisons un moteur de rendu existant permettant de représenter des milieux participants. Utilisés conjointement, les deux contributions permettent de simuler et contrôler la dynamique d’un front de mer ainsi que son apparence, sur la base de ses paramètres physiques.

  • Partition spatiale contrainte et convexe pour la simulation basée rayons    - Maria Maxime  -  09 novembre 2016

    Voir le résumé
    Voir le résumé
    Les méthodes basées rayons sont connues pour simuler précisément les phénomènes d'ondes acoustiques, thermiques, radios ou encore optiques. L'efficacité de telles méthodes réside dans leur capacité à déterminer rapidement l'intersection la plus proche entre un rayon et les primitives géométriques composant l'environnement de simulation. Le plus souvent, une structure accélératrice est utilisée pour réduire la complexité algorithmique de la recherche. Ces trente dernières années, de nombreuses structures performantes ont été proposées. Cependant, toutes ont des inconvénients en fonction du type d'application et de la configuration de la scène. Nous proposons d'explorer une voie peu étudiée jusqu'alors, en utilisant une partition de l'espace convexe et contrainte (CCSP) comme structure accélératrice. Ce type de partition se distingue des structures classiques par plusieurs concepts apportant des propriétés uniques et intéressantes. Dans un premier temps, nous proposons une nouvelle structure accélératrice, de type CCSP, spécialement dédiée à la simulation en environnement architectural. Ensuite, nous utilisons ces résultats pour généraliser l'approche à des scènes quelconques. Nous nous concentrons notamment sur l'utilisation d'une tétraédrisation de Delaunay contrainte comme structure accélératrice et proposons un nouvel algorithme de parcours.

|< << 1 2 3 >> >| thèses par page

Haut de page


  • Avec le service Ubib.fr, posez votre question par chat à un bibliothécaire dans la fenêtre ci-dessous :


    ou par messagerie électronique 7j/7 - 24h/24h, une réponse vous sera adressée sous 48h.
    Accédez au formulaire...
 
 

Université de Poitiers - 15, rue de l'Hôtel Dieu - 86034 POITIERS Cedex - France - Tél : (33) (0)5 49 45 30 00 - Fax : (33) (0)5 49 45 30 50
these@support.univ-poitiers.fr - Crédits et mentions légales