Vous êtes ici : Accueil > UFR, institut et école > UFR des sciences fondamentales et appliquées (SFA)

UFR des sciences fondamentales et appliquées (SFA)

Les thèses soutenues à l'"UFR des sciences fondamentales et appliquées (SFA)"

Pour être informé de la mise en ligne des nouvelles thèses correspondant à la recherche effectuée, abonnez-vous au flux RSS : rss

accès internet    accès intranet    confidentialité
542 ressources ont été trouvées. Voici les résultats 21 à 30
Tri :   Date Auteur Titre thèses par page
  • Méthodes mathématiques et numériques pour la modélisation des déformations et l'analyse de texture. Applications en imagerie médicale    - Chesseboeuf Clément  -  23 novembre 2017

    Voir le résumé
    Voir le résumé
    Nous décrivons une procédure numérique pour le recalage d'IRM cérébrales 3D. Le problème d'appariement est abordé à travers la distinction usuelle entre le modèle de déformation et le critère d'appariement. Le modèle de déformation est celui de l'anatomie computationnelle, fondé sur un groupe de difféomorphismes engendrés en intégrant des champs de vecteurs. Le décalage entre les images est évalué en comparant les lignes de niveau de ces images, représentées par un courant différentiel dans le dual d'un espace de champs de vecteurs. Le critère d'appariement obtenu est non local et rapide à calculer. On se place dans l'ensemble des difféomorphismes pour rechercher une déformation reliant les deux images. Pour cela, on minimise le critère en suivant le principe de l'algorithme sous-optimal. L'efficacité de l'algorithme est renforcée par une description eulérienne et périodique du mouvement. L'algorithme est appliqué pour le recalage d'images IRM cérébrale 3d, la procédure numérique menant à ces résultats est intégralement décrite. Nos travaux concernent aussi l'analyse des propriétés de l'algorithme. Pour cela, nous avons simplifié l'équation représentant l'évolution de l'image et étudié l'équation simplifiée en utilisant la théorie des solutions de viscosité. Nous étudions aussi le problème de détection de rupture dans la variance d'un signal aléatoire gaussien. La spécificité de notre modèle vient du cadre infill, ce qui signifie que la distribution des données dépend de la taille de l'échantillon. L'estimateur de l'instant de rupture est défini comme le point maximisant une fonction de contraste. Nous étudions la convergence de cette fonction et ensuite la convergence de l'estimateur associé. L'application la plus directe concerne l'estimation de changement dans le paramètre de Hurst d'un mouvement brownien fractionnaire. L'estimateur dépend d'un paramètre p > 0 et nos résultats montrent qu'il peut être intéressant de choisir p < 2.

  • Catalyseurs sans métaux nobles pour pile à combustible régénérative    - Kumar Kavita  -  25 octobre 2017

    Voir le résumé
    Voir le résumé
    Le dihydrogène (H2) se présente comme le futur vecteur énergétique pour une économie basée sur des ressources propres et respectueuses de l'environnement. Il est le combustible idéal de la pile à combustible régénérative constituée de deux entités : un électrolyseur pour sa production, et une pile à combustible pour sa conversion directe en énergie électrique. Ce système présente l'avantage d'être compact et autonome. Cependant, l'amélioration de l'activité catalytique des matériaux, leur stabilité et l'élimination de métaux nobles dans leur composition sont nécessaires. Des catalyseurs bifonctionnels à base de métaux de transition associés au graphène ont alors été synthétisés. L'interaction oxyde-graphène a été étudiée sur un catalyseur Co3O4/NRGO. À faible teneur en cobalt, l'interaction entre les atomes de cobalt de l'oxyde et les atomes d'azote greffés sur les plans de graphène a été observée par voltammétrie cyclique. Cette interaction est responsable d'une diminution de la taille des nanoparticules de cobaltite et de l'activité de celles-ci vis-à-vis de la réaction de réduction du dioxygène (RRO). La substitution du cobalt par le nickel dans des structures de type spinelle (NiCo2O4/RGO) obtenu par voie solvothermale, a permis d'améliorer les performances électrocatalytiques vis-à-vis de la RRO et de la RDO. Ce matériau et un autre de type Fe-N-C préparé en collaboration avec un laboratoire de l'Université Technique de Berlin ont servi de cathode dans des études préliminaires réalisées en configuration pile à combustible alcaline à membrane échangeuse d'anion (SAFC).

  • Étude de la réduction catalytique sélective (SCR) des NOx par un mélange éthanol-ammoniac    - Barreau Mathias  -  24 octobre 2017

    Voir le résumé
    Voir le résumé
    La Réduction Catalytique Sélective des NOx par NH3 est un procédé efficace de dépollution des gaz. Cependant, pour une application sur véhicules Diesel, l'activité à basse température (175-250°C, phase de démarrage du véhicule) reste limitée. De plus, les catalyseurs de NH3-SCR sont sensibles au rapport NO2/NOx, avec un optimum pour NO2/NOx = 0,5. Or, à basse température, la proportion de NO2 est faible car le catalyseur d’oxydation (DOC) placé en amont est également peu actif. L'éthanol (EtOH) est un autre réducteur possible, principalement avec des catalyseurs Ag/Al2O3. Ce système présente également d'une activité limitée à basse température, bien que l'oxydation de EtOH s'accompagne de la formation de NO2. Dans ces travaux, l'association de EtOH et NH3 pour la SCR de NO sur catalyseur Ag/Al2O3 a été étudié. Un effet de synergie a été obtenu, avec un gain important d'activité à basse température. Ce gain ne provient pas directement d'une réaction entre NH3 et EtOH ou ses sous-produits d'oxydation (CH3CHO, CO…), ni uniquement grâce à la réaction entre NO2 (formé par réaction de NO avec EtOH) et NH3. La caractérisation des espèces adsorbées par IRTF et des tests de (H2+NH3)-SCR ont permis de conclure que les espèces H*, provenant de la déshydrogénation de l'éthanol, réagissent avec les NOx pour conduire à des espèces HNOx très réactives avec NH3. Finalement, la mise en œuvre d'un double-lit (2%Ag/Al2O3 + catalyseur de NH3-SCR), afin d'utiliser NH3, NO et NO2 restants, a permis d'obtenir une conversion NOx comprise entre 46 et 95% entre 175 et 250°C. Ce système permet donc une conversion des NOx élevée à basse température en s'affranchissant du NO2 procuré par le DOC.

  • Nouveaux catalyseurs pour la synthèse du méthanethiol par hydrosulfuration du méthanol    - Péruch Olivier  -  20 octobre 2017

    Voir le résumé
    Voir le résumé
    Le méthanethiol est un intermédiaire clé dans la synthèse de la méthionine, un acide aminé largement utilisé dans l'industrie agro-alimentaire.

  • Méthodes de transmission d'images optimisées utilisant des techniques de communication numériques avancées pour les systèmes multi-antennes    - Mhamdi Maroua  -  12 octobre 2017

    Voir le résumé
    Voir le résumé
    Cette thèse est consacrée à l'amélioration des performances de codage/décodage de systèmes de transmission d'images fixes sur des canaux bruités et réalistes. Nous proposons, à cet effet, le développement de méthodes de transmission d'images optimisées en se focalisant sur les deux couches application et physique des réseaux sans fil. Au niveau de la couche application et afin d'assurer une bonne qualité de service, on utilise des algorithmes de compression efficaces permettant au récepteur de reconstruire l'image avec un maximum de fidélité (JPEG2000 et JPWL). Afin d'assurer une transmission sur des canaux sans fil avec un minimum de TEB à la réception, des techniques de transmission, de codage et de modulation avancées sont utilisées au niveau de la couche physique (système MIMO-OFDM, modulation adaptative, CCE, etc). Dans un premier temps, nous proposons un système de transmission robuste d'images codées JPWL intégrant un schéma de décodage conjoint source-canal basé sur des techniques de décodage à entrées pondérées. On considère, ensuite, l'optimisation d'une chaîne de transmission d'images sur un canal MIMO-OFDM sans fil réaliste. La stratégie de transmission d'images optimisée s'appuie sur des techniques de décodage à entrées pondérées et une approche d'adaptation de lien. Ainsi, le schéma de transmission proposé offre la possibilité de mettre en oeuvre conjointement de l'UEP, de l'UPA, de la modulation adaptative, du codage de source adaptatif et de décodage conjoint pour améliorer la qualité de l'image à la réception. Dans une seconde partie, nous proposons un système robuste de transmission de flux progressifs basé sur le principe de turbo décodage itératif de codes concaténés offrant une stratégie de protection inégale de données. Ainsi, l'originalité de cette étude consiste à proposer des solutions performantes d'optimisation globale d'une chaîne de communication numérique pour améliorer la qualité de transmission.

  • Interactions ondes-courant-obstacle : application à la physique des trous noirs    - Euvé Léo-Paul  -  10 octobre 2017

    Voir le résumé
    Voir le résumé
    Le projet de recherche consiste à observer en laboratoire la radiation de Hawking, cette prédiction stupéfiante de l'astrophysicien anglais Stephen Hawking faite en 1974 : les trous noirs ne sont pas noirs. Autrement dit, ils n'absorbent pas tout ce qui est à leur portée mais émettent un rayonnement. En plus des complications du fait que ces objets célestes sont à des milliers d'années-lumière, ce rayonnement est tellement faible que cela reviendrait à essayer d'entendre un murmure dans un concert de rock. Mais William Unruh, en 1981, a proposé une solution : utiliser des systèmes hydrodynamiques qui présentent les mêmes équations mathématiques qu'en astrophysique. Plus précisément, dans notre cas, nous utilisons la correspondance entre la propagation des ondes lumineuses au voisinage d'un trou noir et celles des ondes de surface dans un contre-courant rendu inhomogène par la présence d'un obstacle immergé. Pour cela, une compréhension approfondie de la mécanique des ondes de surface est nécessaire (bathymétrie variable, vorticité, non-linéarités…). Du côté technique, une méthode de mesure de surface libre a été développée et optimisée.

  • Relations microstructure, propriétés mécaniques et résistance à l'oxydation de la phase MAX Ti3AlC2    - Drouelle Elodie  -  25 septembre 2017

    Voir le résumé
    Voir le résumé
    L'allègement des structures est devenu un enjeu majeur pour les industries du transport. Afin de répondre à cette demande, une stratégie de recherche d'élaboration de nouveaux matériaux, présentant des propriétés spécifiques égalant a minima les propriétés des matériaux en service, a été mise en place. C'est dans ce contexte général que s'inscrivent ces travaux sur la phase MAX Ti3AlC2. La tenue à l'oxydation et les propriétés en traction et en fluage traction à haute température (800-1000°C) ont été évaluées pour des échantillons élaborés au cours de cette étude par métallurgie des poudres (frittage naturel + frittage flash). Les différents essais menés en oxydation ont montré l'existence de deux comportements (oxydation passivante ou catastrophique suivant la nature des oxydes formés) majoritairement contrôlés par les caractéristiques microstructurales des échantillons (taille de grains, nature des éléments en site A, rugosité et porosité). Les premiers essais de fluage traction réalisés sur la phase MAX Ti3AlC2 ont souligné la bonne ductilité de ces matériaux. De plus, les propriétés spécifiques sont comparables, voire dépassent, celles de superalliages polycristallins et d'aluminures de titane. Une étude multi-échelle a mis en évidence une déformation se produisant par glissement aux joints de grains à 900 et 1000°C et par mouvement de dislocations à 800°C. Un endommagement de type cavitation accompagné par des phénomènes d'oxydation de fissures en surface des fûts a été mis en lumière.

  • Transformation de composés modèles soufrés et oléfiniques représentatifs d'une essence de FCC. Approche expérimentale et théorique    - Santos Alan Silva dos  -  19 septembre 2017

    Voir le résumé
    Voir le résumé
    Une des voies privilégiées pour réduire la teneur en soufre dans les essences commerciales est l'hydrodésulfuration sélective (HDS) des essences issues du procédé de FCC. Une essence étant composée d'un mélange de composés soufrés (1000 ppm) et d'oléfines (20-40%pds). Il est important de comprendre leur transformation de manière à améliorer l'HDS tout en minimisant l'hydrogénation (HYD) des oléfines. Par conséquent, la transformation de plusieurs molécules modèles soufrées (2-méthylthiophène, 3-méthylthiophène et le benzothiophène) et oléfiniques (hex-1-ène, 4-méthylpent-1-ène, 3,3-diméthylbut-1-ène et 2,3-diméthylbut-2-ène) a été étudiée dans les conditions opératoires d'HDS. Par une approche expérimentale couplée à de la modélisation cinétique, nous avons établi une échelle de réactivité entre les composés soufrés d'une part et les oléfines d'autre part. Le benzothiophène est le composé le plus réactif, mais aussi celui qui est le plus inhibiteur pour la transformation des autres composés soufrés. Concernant les oléfines, l'hex-1-ène est la plus réactive par rapport aux autres oléfines ramifiées. Lorsque ces composés sont en mélange, on constate des inhibitions mutuelles plus au moins conséquentes selon la structure des composés modèles. Ces effets qui résultent de compétitions à l'adsorption entre les molécules à la surface du catalyseur ont été modélisés et quantifiés (constantes cinétique et d'adsorption) à partir d'un modèle unique en considérant le formalisme de Langmuir-Hinshelwood.

  • Évaluation du contenu d'une image couleur par mesure basée pixel et classification par la théorie des fonctions de croyance    - Guettari Nadjib  -  10 juillet 2017

    Voir le résumé
    Voir le résumé
    De nos jours, il est devenu de plus en plus simple pour qui que ce soit de prendre des photos avec des appareils photo numériques, de télécharger ces images sur l'ordinateur et d'utiliser différents logiciels de traitement d'image pour appliquer des modification sur ces images (compression, débruitage, transmission, etc.). Cependant, ces traitements entraînent des dégradations qui influent sur la qualité visuelle de l'image. De plus, avec la généralisation de l'internet et la croissance de la messagerie électronique, des logiciels sophistiqués de retouche d'images se sont démocratisés permettant de falsifier des images à des fins légitimes ou malveillantes pour des communications confidentielles ou secrètes. Dans ce contexte, la stéganographie constitue une méthode de choix pour dissimuler et transmettre de l'information. Dans ce manuscrit, nous avons abordé deux problèmes : l'évaluation de la qualité d'image et la détection d'une modification ou la présence d'informations cachées dans une image. L'objectif dans un premier temps est de développer une mesure sans référence permettant d'évaluer de manière automatique la qualité d'une image en corrélation avec l'appréciation visuelle humaine. Ensuite proposer un outil de stéganalyse permettant de détecter, avec la meilleure fiabilité possible, la présence d'informations cachées dans des images naturelles. Dans le cadre de cette thèse, l'enjeu est de prendre en compte l'imperfection des données manipulées provenant de différentes sources d'information avec différents degrés de précision. Dans ce contexte, afin de profiter entièrement de l'ensemble de ces informations, nous proposons d'utiliser la théorie des fonctions de croyance. Cette théorie permet de représenter les connaissances d'une manière relativement naturelle sous la forme d'une structure de croyances. Nous avons proposé une nouvelle mesure sans référence d'évaluation de la qualité d'image capable d'estimer la qualité des images dégradées avec de multiple types de distorsion. Cette approche appelée wms-EVreg2 est basée sur la fusion de différentes caractéristiques statistiques, extraites de l'image, en fonction de la fiabilité de chaque ensemble de caractéristiques estimée à travers la matrice de confusion. À partir des différentes expérimentations, nous avons constaté que wms-EVreg2 présente une bonne corrélation avec les scores de qualité subjectifs et fournit des performances de prédiction de qualité compétitives par rapport aux mesures avec référence. Pour le deuxième problème abordé, nous avons proposé un schéma de stéganalyse basé sur la théorie des fonctions de croyance construit sur des sous-espaces aléatoires des caractéristiques. La performance de la méthode proposée a été évaluée sur différents algorithmes de dissimulation dans le domaine de transformé JPEG ainsi que dans le domaine spatial. Ces tests expérimentaux ont montré l'efficacité de la méthode proposée dans certains cadres d'applications. Cependant, il reste de nombreuses configurations qui résident indétectables.

  • Mesure inertielle pour l'analyse du mouvement humain. Optimisation des méthodologies de traitement et de fusion des données capteur, intégration anatomique    - Nez Alexis  -  06 juillet 2017

    Voir le résumé
    Voir le résumé
    Face aux limites auxquelles doivent faire face les systèmes optoélectroniques (matériel lourd, champ de mesure limité), les capteurs inertiels constituent une alternative prometteuse pour la mesure du mouvement humain. Grâce aux dernières avancées techniques, notamment en termes de miniaturisation des capteurs, leur utilisation en ambulatoire c’est-à-dire de façon autonome et embarquée est devenue possible. Mais ces opérations de miniaturisation ne sont pas sans effet sur les performances de ces capteurs. En effet, une telle mesure est dégradée par différents types de perturbations (stochastiques et déterministes) qui sont alors propagées au cours du processus dit de fusion des données visant à estimer l'orientation des segments humains. Classiquement, cette opération est réalisée à l'aide d'un filtre de Kalman dont le rôle est justement d'estimer une grandeur à partir d'une mesure bruitée en la confrontant à un modèle d'évolution. Dans ce contexte, nous proposons diverses méthodologies dans le but d'accéder à une mesure suffisamment précise pour être exploitée dans le cadre de l'analyse du mouvement humain. La première partie de cette thèse se focalise sur les capteurs. Tout d'abord, nous étudions les bruits de mesure issus des capteurs inertiels, puis nous leur attribuons un modèle afin de les prendre en compte au sein du filtre de Kalman. Ensuite, nous analysons les procédures de calibrage et évaluons leurs effets réels sur la mesure afin d'émettre quelques propositions en termes de compromis performance/facilité de réalisation. Dans une seconde partie, nous nous consacrons à l'algorithme de fusion des données. Après avoir proposé un filtre de Kalman adapté à la mesure du mouvement humain, nous nous focalisons sur un problème récurrent à ce stade : l'identification des matrices de covariance dont le rôle est d'attribuer une caractérisation globale aux erreurs de mesure. Cette méthode, basée sur une confrontation de la mesure avec une référence issue d'un système optoélectronique, met en évidence la nécessité de traiter ce problème rigoureusement. Dans une troisième partie, nous commençons à aborder les problèmes liés à l'utilisation des capteurs inertiels pour la mesure du mouvement humain, notamment le calibrage anatomique et le positionnement des capteurs. En conclusion, les gains apportés par les diverses propositions avancées dans cette thèse sont évalués et discutés.

|< << 1 2 3 4 5 6 7 8 >> >| thèses par page

Haut de page


  • Avec le service Ubib.fr, posez votre question par chat à un bibliothécaire dans la fenêtre ci-dessous.

 
 

Université de Poitiers - 15, rue de l'Hôtel Dieu - 86034 POITIERS Cedex - France - Tél : (33) (0)5 49 45 30 00 - Fax : (33) (0)5 49 45 30 50
these@support.univ-poitiers.fr - Crédits et mentions légales