Vous êtes ici : Accueil > Écoles doctorales > SISMI – Sciences et ingénierie des systèmes, mathématiques, informatique

SISMI – Sciences et ingénierie des systèmes, mathématiques, informatique

Les thèses soutenues à l'école doctorale "SISMI – Sciences et ingénierie des systèmes, mathématiques, informatique"

Pour être informé de la mise en ligne des nouvelles thèses correspondant à la recherche effectuée, abonnez-vous au flux RSS : rss

accès internet    accès intranet    confidentialité
51 ressources ont été trouvées. Voici les résultats 1 à 10
Tri :   Date Auteur Titre thèses par page
  • Analysis and design of a new 24 GHZ active phase shifter, integrated in a BiCMOS SIGE: C 0.25 µm technology for beamforming applications    - Jadav Bhanu Pratap Singh  -  13 décembre 2019

    Voir le résumé
    Voir le résumé
    Le travail présenté dans cette thèse consiste à développer un circuit intégré original dans le domaine des ondes millimétriques. Associé à un réseau d'antennes, ce dispositif permettra de réaliser de la formation de faisceaux (« beamforming »), c’est-à-dire qu’il permettra d’orienter et de contrôler le diagramme de rayonnement dans la direction désirée. Pour les ondes millimétriques, cette capacité à orienter le faisceau compense par son gain, les pertes dues à la montée en fréquence. Ce nouveau circuit assure un déphasage RF contrôlable entre l’entrée et la sortie. Il est réalisé à base d'un Oscillateur Contrôlé en Tension (OCT) «triple-push» verrouillé par l’injection d’un signal à 8 GHz. Dans ces conditions, la fréquence du signal de sortie est de 24 GHz. L'objectif de cette thèse a été de concevoir ce déphaseur RF actif, totalement intégré et implémenté avec la technologie BiCMOS SiGe:C 0,25 µm de NXP Semiconductors. Dans la première partie de ce travail, la conception de cette nouvelle architecture d’OCT différentiel «triple-push» à la fréquence de 24 GHz est présentée. Nous verrons que l’OCT «triple-push» est constitué de trois OCT différentiels couplés via des diodes varactors. Les résultats de simulations post-layout valident la méthodologie de conception avec un excellent niveau de réjection de la fréquence fondamentale et de la deuxième harmonique. Par la suite, une nouvelle architecture d'un déphaseur différentiel 120° accordable à la fréquence de 8 GHz est présentée. Ce déphaseur permet d'obtenir à partir d'un seul signal d'entrée, trois signaux de même amplitude et déphasés de 120° entre eux. Le circuit a été implémenté et les différents résultats de simulations post-layout obtenus ont été exposés. Enfin, le circuit global a été conçu et implémenté, en combinant le circuit déphaseur 120° et le circuit OCT «triple-push». Ce dernier est verrouillé par injection par le déphaseur 120°. Les résultats de simulations post-layout valident l’approche originale du système conçu et montrent une variation linéaire du déphasage dans tout le plan de phase. Ce déphaseur actif est destiné à être associé à une antenne élémentaire pour ensuite constituer un réseau antennaire complet qui pourra être utilisé pour la transmission de données, par exemple en technologie 5G.

  • Communications protocols for wireless sensor networks in perturbed environment    - Sarr Ndéye Bineta  -  31 janvier 2019

    Voir le résumé
    Voir le résumé
    Cette thèse s'inscrit dans le domaine du Smart Grid. Les SGs améliorent la sécurité des réseaux électriques et permettent une utilisation adaptée de l'énergie disponible de manière limitée. Ils augmentent également l'efficacité énergétique globale en réduisant la consommation. L'utilisation de cette technologie est la solution la plus appropriée car elle permet une gestion plus efficace de l'énergie. Dans ce contexte, des compagnies comme Hydro-Québec déploient des réseaux de capteurs pour contrôler les principaux équipements. Pour réduire les coûts de déploiement et la complexité du câblage, un réseau de capteurs semble être une solution optimale. Cependant, son déploiement nécessite une connaissance approfondie de l'environnement. Les postes à haute tension sont des points stratégiques du réseau électrique et génèrent un bruit impulsif qui dégrade les performances des communications sans fil. Les travaux dans cette thèse sont centrés sur le développement de protocoles de communication performants dans ces milieux fortement perturbés. Nous avons proposé une première approche basée sur la concaténation du code à métrique de rang et le code convolutif avec la modulation OFDM. C'est une technique très efficace pour réduire l'effet du bruit impulsif tout en ayant un niveau de complexité assez faible. Une autre solution basée sur un système multi-antennaire est développée. Nous avons aussi proposé un système MIMO coopératif codé en boucle fermée basée sur le code à métrique de rang et le précodeur max-dmin. La deuxième technique est également une solution optimale pour améliorer la fiabilité du système et réduire la consommation énergétique dans les réseaux de capteurs.

  • Distributed control of multi-agent systems under communication constraints : application to robotics    - Ajwad Syed Ali  -  04 septembre 2020

    Voir le résumé
    Voir le résumé
    Les Systèmes Multi-Agents (SMA) ont gagné en popularité en raison de leur vaste gamme d'applications. Les SMA sont utilisés pour atteindre des objectifs complexes qui ne pourraient être atteints par un seul agent. La communication et l'échange d'informations entre les agents d'un SMA sont essentiels pour contrôler son comportement coopératif. Les agents partagent leurs informations avec leurs voisins pour atteindre un objectif commun, ils n'ont donc pas besoin d'unité centrale de surveillance. Cependant, la communication entre les agents est soumise à diverses contraintes pratiques. Ces contraintes incluent des périodes d'échantillonnage irrégulières et asynchrones et la disponibilité d'états partiels uniquement. Ces contraintes posent des défis théoriques et pratiques importants. Dans cette thèse, nous étudions deux problèmes fondamentaux liés au contrôle coopératif distribué, à savoir le consensus et le contrôle de formation pour un SMA à double intégrateur sous ces contraintes. On considère que chaque agent du réseau ne peut mesurer et transmettre son état de position qu'à des instants d'échantillonnage non uniformes et asynchrones. De plus, la vitesse et l'accélération ne sont pas disponibles. Dans un premier temps, nous étudions le problème du contrôle distribué du suivi de consensus. Un algorithme de suivi de leader basé sur l'observateur à temps discret continu est proposé. L'observateur estime la position et la vitesse de l'agent et de son voisin en temps continu à partir des données de position échantillonnées disponibles. Ces états estimés sont ensuite utilisés pour le calcul de l'entrée de commande. Les scénarios de topologie fixe et de topologie commutée sont discutés. Deuxièmement, un protocole de suivi de formation distribué basé sur le consensus est conçu pour réaliser des modèles de formation fixes et variant dans le temps. Le problème d'évitement de collision est également étudié dans cette thèse. Un mécanisme d'évitement de collision basé sur la fonction de potentiel artificiel (APF) est incorporé à l'algorithme de suivi de formation pour empêcher les collisions entre les agents tout en convergeant vers la position souhaitée. Enfin, les algorithmes proposés sont appliqués sur un réseau multi-robots, composé de robots à entraînement différentiel utilisant Robot Operating System (ROS). Un nouveau schéma est proposé pour faire face aux contraintes non holonomiques du robot. L'efficacité des algorithmes sont démontrées à la fois par des résultats de simulation et des expérimentations.

  • Graph-based registration for biomedical images    - Pham Hong Nhung  -  11 février 2019

    Voir le résumé
    Voir le résumé
    Le contexte de cette thèse est le recalage d'images endomicroscopiques. Le microendoscope multiphotonique fournit différentes trajectoires de balayage que nous considérons dans ce travail. Nous proposons d'abord une méthode de recalage non rigide dont l'estimation du mouvement est transformée en un problème d'appariement d'attributs dans le cadre des Log-Demons et d'ondelettes sur graphes. Nous étudions les ondelettes de graphe spectral (SGW) pour capturer les formes des images, en effet, la représentation des données sur les graphes est plus adaptée aux données avec des structures complexes. Nos expériences sur des images endomicroscopiques montrent que cette méthode est supérieure aux techniques de recalage d'images non rigides existantes. Nous proposons ensuite une nouvelle stratégie de recalage d'images pour les images endomicroscopiques acquises sur des grilles irrégulières. La transformée en ondelettes sur graphe est flexible et peut être appliquée à différents types de données, quelles que soient la densité de points et la complexité de la structure de données. Nous montrons également comment le cadre des Log-Demons peut être adapté à l'optimisation de la fonction objective définie pour les images acquises avec un échantillonnage irrégulier.

  • Hierarchical Control for Building Microgrids    - Yassuda Yamashita Daniela  -  28 avril 2021

    Voir le résumé
    Voir le résumé
    Représentant plus d'un tiers de la consommation mondiale d'électricité, les bâtiments sont le secteur énergétique majeur pour promouvoir l’usage des énergies renouvelables. L'installation à la fois de sources d’énergie rénouvelable et d'un système de stockage d'énergie électrique dans les bâtiments peut favoriser la transition énergétique vers un système électrique à faible émission de carbone, tout en permettant aux consommateurs d'énergie finaux de bénéficier d'une énergie propre. Malgré tous ces avantages, cette topologie innovante et distribuée d’un Micro-réseau dédié au Bâtiment (MB)nécessite des changements importants dans le réseau actuel, qui dépend des politiques énergétiques et d’avancement technologiques. La conception d'un Système de Gestion de l'Energie (EMS) capable de gérer efficacement les composants électriques du micro-réseau sans menacer la stabilité du réseau principal est un obstacle au développement des MB. Pour atténuer les effets néfastes introduits par des acteurs d’énergie imprévisibles, le concept d'autoconsommation est de plus en plus adopté. Néanmoins, une analyse technico-économique plus approfondie est nécessaire pour piloter d’une manière optimaledes systèmes de stockage d'énergie afin d’atteindre des indices d'autoconsommation plus élevés. Face à ces enjeux, le but de ce doctorat est de proposer un EMS pour les micro-réseaux installés dans les bâtiments afin de maximiser leur taux d’autoconsommation à un coût d’exploitation minimum. Parmi les architectures de contrôle, la structure hiérarchique s'est avérée efficace pour gérer des objectifs contradictoires qui ne sont pas dans la même échelle de temps. Ainsi, une structure de contrôle Hiérarchique à Modèle Prédictif (HMPC) a été adoptée pour remédier aux incertitudes liées aux déséquilibres de puissance ainsi qu’établir un compromis entre la réduction du coût de fonctionnement et le respect du code de l’énergie français. Considérant que les bâtiments ne sont pas homogènes et nécessitent des solutions adaptées à leur besoin, le contrôleur proposé a été couplé à deux modules fonctionnant à base d’analyse de données. Le premier algorithme consiste à gérer les inexactitudes dans les modèles internes de l’HMPC. Sans avoir besoin de régler aucun paramètre, cet algorithme améliore la précision du modèle de batteries jusqu'à trois fois et augmente jusqu'à dix fois la précision du modèle de stockage d'hydrogène, réduisant ainsi la dépendance de l’EMS aux étapes de modélisation. Le deuxième algorithme détermine de manière autonome les paramètres de l’HMPC et facilite le compromis entre les aspects économiques et énergétiques. S'appuyant uniquement sur l'analyse des données de déséquilibre de puissance et des mesures, le contrôleur hiérarchique spécifie quel dispositif de stockage d'énergie doit fonctionner quotidiennement en fonction de l'estimation du taux d'autoconsommation et du coût de fonctionnement du micro-réseau. Ces estimations diminuent les dépenses annuelles du micro-réseau en évitant la pénalisation en ce qui concerne les exigences d'autoconsommation et en réduisant la dégradation et l'entretien des systèmes de stockage d'énergie. L’EMS proposé s'est également révélé capable de charger de préférence les batteries des véhicules électriques en période de surplus d’énergie et les décharger pendant les périodes de déficit pour réduire les échanges d’énergie avec le réseau principal. Les résultats ont aussi montré que la contribution des batteries de véhicules électriques dépend de la taille du parc de véhicules, de leur temps de connexion et du profil de déséquilibre de puissance. En conclusion, à travers les simulations utilisant le dimensionnement réel d'un bâtiment public et résidentiel, l’EMS hiérarchique s'est avéré efficace pour gérer de nombreux dispositifs de stockage d'énergie et contribuer à l’essor de micro-réseaux dédiés aux bâtiments à l’avenir.

  • Hyperspectral texture metrology    - Chu Rui Jian  -  07 juillet 2022

    Voir le résumé
    Voir le résumé
    Soixante ans après les conjectures de Julesz, de nombreuses méthodes d'extraction de caractéristiques de l’aspect texturé ont été publiées. Mais, peu l’ont été à des fins métrologiques. Selon la science de la mesure, une caractéristique doit être développée en conjonction avec la mesure de distance/similarité associée. Dans nos travaux sur la texture hyperspectrale, cela nécessite que la fonctionnalité soit indépendante de la technologie du capteur et donc du nombre de bandes spectrales, de la gamme de longueurs d'onde, etc. La fonctionnalité développée doit donc être générale avec des résultats strictement dépendants du contenu de la texture. Dans ce manuscrit de thèse, nous avons commencé par définir la texture comme la distribution conjointe des propriétés spectrales et spatiales. Alors que la première partie dicte la diversité spectrale ou la distribution des pixels, la second fait référence à la disposition spatiale ou à l'interaction entre les valeurs multivaluées des pixels. En conséquence, nous avons développé une analyse spectrale automatique adaptée à la nature continue du spectre. En travaillant dans l'espace métrique, le besoin de réduction de la dimensionnalité, par ex. l'analyse en composantes principales (ACP), est supprimée. De plus, la sélection de la référence spectrale est entièrement automatisée grâce à la maximisation de l'entropie. Une analogie entre notre approche et l'ACP est établie, la première se révélant plus robuste et fidèle à la physique du spectre. En nous inspirant de la matrice de cooccurrence de niveaux de gris (GLCM) et du motif binaire local (LBP), nous avons ensuite développé une analyse spatiale adaptée aux images d'un nombre quelconque de bandes spectrales. Nous avons combiné la précision des caractéristiques GLCM et l'efficacité de la mesure de similarité LBP pour proposer l'histogramme de différences de voisinage. Nous avons ensuite mis en relation la différence de voisinage avec la notion de gradient d'image pour poursuivre une approche sans paramètre. En rappelant les règles de base des dérivées, nous avons mis en évidence une décomposition mathématique du gradient spectral en parties chromatiques et achromatiques. Considérant la théorie de l'espace d'échelle, nous avons également développé une sélection automatique d'échelle afin de refléter la taille de la structure locale. Pour valider notre approche, nous avons soumis nos caractéristiques à des tâches de classification, de récupération et de segmentation de texture. Les résultats montrent que nos fonctionnalités fonctionnent à un niveau comparable à l'état de l'art. Plus important encore, nous démontrons l'interprétabilité physique de nos caractéristiques face à une multitude de diversité spectrale et spatiale. En adhérant à la métrologie, nous avons témoigné de l'efficacité d'une paire adaptée de caractéristique et de mesure de similarité sans avoir besoin de techniques sophistiquées d'apprentissage automatique ou profond.

  • Integration and non-intrusive human clinic machine learning for kidney assessment    - Do Quang Huy  -  16 novembre 2022

    Voir le résumé
    Voir le résumé
    La maladie rénale chronique et l’insuffisance rénale représentent un problème de santé publique majeur. Dans le contexte d’un nombre de cas en croissance permanente, la transplantation rénale est considérée comme une stratégie optimale de prise en charge. Elle a en effet pour avantage d'augmenter les chances de survie avec une qualité de vie supérieure et un coût réduit. Pour les reins destinés à la transplantation, il est essentiel de déterminer rapidement l'état fonctionnel et la méthode optimale de conservation du rein, ce qui reste à ce jour un problème. Les chirurgiens utilisent généralement des reins sous-optimaux ou excluent les greffons potentiellement meilleurs. Plus généralement, le choix de techniques d'imagerie pour analyser le rein dans différentes tâches cliniques, dont la transplantation, est un sujet de recherche à part entière. L’imagerie par résonance magnétique (IRM), notamment, présente un fort potentiel en tant que méthode non invasive pour récupérer des informations structurelles et fonctionnelles. La quantité et la complexité des données qu’elle génère demeure toutefois un verrou important à sa pleine exploitation. L'apprentissage automatique, en général, et l'apprentissage profond, en particulier, sont des domaines scientifiques largement étudiés qu’on retrouve dans de nombreuses applications et domaines de recherche. Les méthodes basées sur l'apprentissage permettent à un ordinateur de construire des concepts complexes à partir de concepts plus simples. Les avancées récentes de l'imagerie médicale et de l'apprentissage automatique ont incité de nombreux chercheurs à approfondir l’idée d’une imagerie anatomique et fonctionnelle augmentées pour l'aide au diagnostic. Par imagerie augmentée, nous entendons des modèles d'intelligence artificielle (IA) conçus pour assister les radiologues et leur permettre de réaliser un diagnostic optimal. Notre travail de thèse vise à améliorer l'évaluation de la qualité de greffons rénaux à l'aide de techniques d'IRM et d’apprentissage automatique. Ce travail comprend trois applications appartenant à deux tâches principales : la synthèse IRM super-résolution et ultra-haut champ pour l'amélioration de la qualité d'image ; et la translation intermodale. Notons que pour des raisons pratiques explicitées dans le document, une partie importante de nos travaux a été réalisée sur des données de cerveau humain. Dans la première application, nous développons une méthode basée sur des modèles auto-supervisés pour résoudre la super-résolution sur l'IRM 3T de routine grâce à un apprentissage sur des données appairées et non appairées. L’évaluation de nos résultats montre que les méthodes proposées peuvent produire une sortie haute résolution à partir d'une entrée basse résolution avec une faible distorsion. En outre, la solution explorée permet de surmonter la limitation des méthodes existantes exigeant des paires d’échantillons alignés. Dans le second volet, nous visons à synthétiser des données IRM ultra haut champ (7 Tesla, ou 7T) à partir de volumes 3T. Le modèle proposé obtient des résultats convaincants tant sur des critères objectifs que subjectifs. Les modèles finaux peuvent fonctionner de manière stable sur l'IRM cérébrale 3D, ce qui est très prometteur. Dans le dernier travail, nous nous concentrons sur la tâche de translation multimodale. Les modèles sont conçus pour générer des volumes de haute précision parmi différentes modalités telles que T1⟷T2, T1 ⟷T1c ou T1⟷T2-Flair. Les travaux actuels se concentrent sur la translation de l'IRM T1 à sa version à contraste augmenté T1c, ce scénario présentant un très fort potentiel vis-à-vis du principe de précaution quant aux injections de gadolinium pour l’obtention des séquences T1c. Une étude comparative entre les méthodes de la littérature et nos méthodes issues de travaux antérieurs est présentée. Les résultats démontrent que nos méthodes obtiennent un résultat stable sur l'ensemble de données de recherche.

  • Interacting stochastic systems with individual and collective reinforcement    - Mirebrahimi Seyedmeghdad  -  05 septembre 2019

    Voir le résumé
    Voir le résumé
    L'urne de Polya est l'exemple typique de processus stochastique avec renforcement. La limite presque sûre (p.s.) en temps existe, est aléatoire et non dégénérée. L'urne de Friedman est une généralisation naturelle dont la limite (proportion asymptotique en temps) n'est plus aléatoire. De nombreux modèles aléatoires sont fondés sur des processus de renforcement comme pour la conception d'essais cliniques au design adaptatif, en économie, ou pour des algorithmes stochastiques à des fins d'optimisation ou d'estimation non paramétrique. Dans ce mémoire, inspirés par de nombreux articles récents, nous introduisons une nouvelle famille de systèmes (finis) de processus de renforcement où l'interaction se traduit par un phénomène de renforcement collectif additif, de type champ moyen. Les deux taux de renforcement (l'un spécifique à chaque composante, l'autre collectif et commun à toutes les composantes) sont possiblement différents. Nous prouvons deux types de résultats mathématiques. Différents régimes de paramètres doivent être considérés : type de la règle (brièvement, Polya/Friedman), taux du renforcement. Nous prouvons l'existence d'une limite p.s. coommune à toutes les composantes du système (synchronisation). La nature de la limite (aléatoire/déterministe) est étudiée en fonction du régime de paramètres. Nous étudions également les fluctuations en prouvant des théorèmes centraux de la limite. Les changements d'échelle varient en fonction du régime considéré. Différentes vitesses de convergence sont ainsi établies.

  • Kostant principal filtration and paths in weight lattice    - Kusumastuti Nilamsari  -  24 octobre 2019

    Voir le résumé
    Voir le résumé
    Il existe plusieurs filtrations intéressantes définies sur la sous-algèbre de Cartan d'une algèbre de Lie simple complexe issues de contextes très variés : l'une est la filtration principale qui provient du dual de Langlands, une autre provient de l'algèbre de Clifford associée à une forme bilinéaire invariante non-dégénérée, une autre encore provient de l'algèbre symétrique et la projection de Chevalley, deux autres enfin proviennent de l'algèbre enveloppante et des projections de Harish-Chandra. Il est connu que toutes ces filtrations coïncident. Ceci résulte des travaux de Rohr, Joseph et Alekseev-Moreau. La relation remarquable entre les filtrations principale et de Clifford fut essentiellement conjecturée par Kostant. L'objectif de ce mémoire de thèse est de proposer une nouvelle démonstration de l'égalité entre les filtrations symétrique et enveloppante pour une algèbre de Lie simple de type A ou C. Conjointement au résultat et Rohr et le théorème d'Alekseev-Moreau, ceci fournit une nouvelle démonstration de la conjecture de Kostant, c'est-à-dire une nouvelle démonstration du théorème de Joseph. Notre démonstration est très différentes de la sienne. Le point clé est d'utiliser une description explicite des invariants via la représentation standard, ce qui est possible en types A et C. Nous décrivons alors les images de leurs différentielles en termes d'objects combinatoires, appelés des chemins pondérés, dans le graphe cristallin de la représentation standard. Les démonstrations pour les types A et C sont assez similaires, mais ne nouveaux phénomènes apparaissent en type C, ce qui rend la démonstration nettement plus délicate dans ce cas.

  • Linear analysis of the steady water waves flow over an obstacle in the single and multi-layer model    - Prihandono Bayu  -  04 mars 2021

    Voir le résumé
    Voir le résumé
    Nous étudions dans ce qui suit un problème de modélisation des ondes d’eau régulières générées par un obstacle dans un fluide de la couche N. Notre modèle est une version linéarisée des équations d’Euler multi-couche à surface libre autour d’un état de repos, où nous nous retrouvons avec un problème elliptique impliquant des conditions d’interface. Nous commençons par considérer le problème de Neumann-Kelvin en traitant un écoulement monocouche sur un obstacle situé au fond du domaine physique. Nous étudions le problème à la fois par la méthode variationnelle et par la méthode de Fourier. Nous faisons la distinction entre les cas sous-critiques et supercritiques. Des simulations numériques illustrent les deux cas. La résistance des ondes est également calculée, et des obstacles sans onde sont obtenus dans le cas sous-critique. Chapitre 2 généralise notre résultat du cas monocouche en considérant des variations de la vitesse à l’infini en amont, plus précisément comme une simple fonction de pas. L’intérêt de ce cas est qu’il représente la première étape dans le traitement du problème non linéaire. Ce contexte permet au flux de présenter certaines zones où il est supercritique et d’autres où il est sous-critique. Nous appelons ce cas un flux transcritique. Le cas du flux transcritique doit être traité avec plus de soin, et nous n’envisageons ici qu’une seule des deux situations transcritiques possibles. La solution variationnelle obtenue dans le cas transcritique ne sera pas une solution au problème initial puisqu’elle ne satisfait pas la condition d’harmonicité. La procédure de régularisation doit être effectuée pour corriger la solution variationnelle et obtenir la solution du problème initial. Dans Chaptire 3, nous étudions un fluide stratifié en considérant un écoulement à deux couches avec une approximation de couvercle rigide à la surface libre. Nous traitons le problème à la fois par la méthode variationnelle et par la transformée de Fourier. En utilisant la méthode variationnelle, nous pouvons prouver l’existence et l’unicité de la solution. La méthode de Fourier nous permet de déterminer explicitement la partie variationnelle et la partie sillage de la solution. Nous prouvons lorsque la densité de la couche supérieure est nulle, l’interface entre les couches se comporte exactement comme la surface libre pour le cas d’une seule couche, ce résultat sera également récupéré dans un cadre plus général dans la section suivante. Des simulations numériques complètent ces résultats. Enfin dans le dernier chapitre, nous nous concentrons sur le développement d’une théorie qualitative pour les fluides multicouches. Nous établissons d’abord une théorie générale qui pourrait s’appliquer à divers modèles linéaires stationnaires lorsque la méthode de Fourier est utilisée. Ainsi, l’étude de différents cas possibles liés à l’existence et à la multiplicité des racines réelles pour la relation de dispersion donne un traitement général du problème. Nous appliquons ensuite cette théorie au cas de la couche N avec couvercle rigide et obtenons la solution exacte pour chaque couche. Nous considérons également le cas à trois couches avec couvercle rigide, lorsque la densité de la couche supérieure est nulle, et nous comparons la solution aux interfaces avec le cas à deux couches avec la surface libre. Les simulations numériques illustrent la dynamique des fluides pour chaque couche, Pour les cas où la relation de dispersion présente une ou deux racines deux réelles, et donc où la solution oscille en aval, nous pouvons également construire des obstacles sans sillage.

|< << 1 2 3 4 5 6 >> >| thèses par page

Haut de page


  • Avec le service Ubib.fr, posez votre question par chat à un bibliothécaire dans la fenêtre ci-dessous :


    ou par messagerie électronique 7j/7 - 24h/24h, une réponse vous sera adressée sous 48h.
    Accédez au formulaire...
 
 

Université de Poitiers - 15, rue de l'Hôtel Dieu - 86034 POITIERS Cedex - France - Tél : (33) (0)5 49 45 30 00 - Fax : (33) (0)5 49 45 30 50
these@support.univ-poitiers.fr - Crédits et mentions légales