Vous êtes ici : Accueil > Sections CNU > 61 - Génie informatique, automatique et traitement du signal

61 - Génie informatique, automatique et traitement du signal

Les thèses se rapportant à la section CNU "61 - Génie informatique, automatique et traitement du signal"

Pour être informé de la mise en ligne des nouvelles thèses correspondant à la recherche effectuée, abonnez-vous au flux RSS : rss

accès internet    accès intranet    confidentialité
60 ressources ont été trouvées. Voici les résultats 1 à 10
Tri :   Date Auteur Titre thèses par page
  • Analyse de données RMN multimodales par intelligence artificielle pour la discrimination binaire du grade du gliome    - Dequidt Paul  -  05 février 2021

    Voir le résumé
    Voir le résumé
    Les gliomes sont des tumeurs cérébrales dont l'évolution de bas grade à haut grade signe un diagnostic sombre pour le patient. Le grade du gliome est connu via des techniques invasives : analyse de pièce chirurgicale ou biopsie. Le CHU de Poitiers propose une alternative non-invasive via un bilan d'imagerie par résonance magnétique multimodal, regroupant des données anatomiques, de diffusion, de perfusion et de spectroscopie. Dans ce travail de thèse, nous proposons d'implémenter des outils de classification automatique depuis l'analyse de ces images multivariées. Nous déployons pour cela des outils novateurs permettant d'analyser le comportement de classifieurs automatiques. Cela nous amène à pointer des incohérences au sein de la base de données la plus utilisée sur la tâche de classification binaire du grade du gliome. Nous proposons une alternative via un consensus de cinq experts radiologues. Puis, nous créons une chaîne de traitement complète allant de l'acquisition à la classification, et explorons comment les données multimodales améliorent les performances de classification automatique.

  • Mesure de l'intégrité d'une image : des modèles physiques aux modèles d'apprentissage profond    - Diallo Boubacar  -  15 décembre 2020

    Voir le résumé
    Voir le résumé
    Les images numériques sont devenues un outil de communication visuel puissant et efficace pour transmettre des messages, diffuser des idées et prouver des faits. L’apparition du smartphone avec une grande diversité de marques et de modèles facilite la création de nouveaux contenus visuels et leur diffusion dans les réseaux sociaux et les plateformes de partage d’images. Liés à ce phénomène de création et publication d'images et aidés par la disponibilité et la facilité d’utilisation des logiciels de manipulation d’images, de nombreux problèmes sont apparus allant de la diffusion de contenu illégal à la violation du droit d’auteur. La fiabilité des images numériques est remise en cause que ce soit pour de simples utilisateurs ou pour des professionnels experts tels que les tribunaux et les enquêteurs de police. Le phénomène des « fake news » est un exemple bien connu et répandu d’utilisation malveillante d’images numériques sur les réseaux. De nombreux chercheurs du domaine de la cybersécurité des images ont relevé les défis scientifiques liés aux manipulations des images. De nombreuses méthodes aux performances intéressantes ont été développées basées sur le traitement automatique des images et plus récemment l'adoption de l'apprentissage profond. Malgré la diversité des techniques proposées, certaines ne fonctionnent que pour certaines conditions spécifiques et restent vulnérables à des attaques malveillantes relativement simples. En effet, les images collectées sur Internet imposent de nombreuses contraintes aux algorithmes remettant en question de nombreuses techniques de vérification d’intégrité existantes. Il existe deux particularités principales à prendre en compte pour la détection d'une falsification : l’une est le manque d'informations sur l'acquisition de l'image d'origine, l'autre est la forte probabilité de transformations automatiques liées au partage de l'image telles que la compression avec pertes ou le redimensionnement. Dans cette thèse, nous sommes confrontés à plusieurs de ces défis liés à la cybersécurité des images notamment l’identification de modèles de caméra et la détection de falsification d’images. Après avoir passé en revue l'état de l'art du domaine, nous proposons une première méthode basée sur les données pour l’identification de modèles de caméra. Nous utilisons les techniques d’apprentissage profond basées sur les réseaux de neurones convolutifs (CNN) et développons une stratégie d’apprentissage prenant en compte la qualité des données d’entrée par rapport à la transformation appliquée. Une famille de réseaux CNN a été conçue pour apprendre les caractéristiques du modèle de caméra directement à partir d’une collection d’images subissant les mêmes transformations que celles couramment utilisées sur Internet. Notre intérêt s'est porté sur la compression avec pertes pour nos expérimentations, car c’est le type de post-traitement le plus utilisé sur Internet. L’approche proposée fournit donc une solution robuste face à la compression pour l’identification de modèles de caméra. Les performances obtenues par notre approche de détection de modèles de caméra sont également utilisées et adaptées pour la détection et la localisation de falsification d’images. Les performances obtenues soulignent la robustesse de nos propositions pour la classification de modèles de caméra et la détection de falsification d'images.

  • Distributed control of multi-agent systems under communication constraints : application to robotics    - Ajwad Syed Ali  -  04 septembre 2020

    Voir le résumé
    Voir le résumé
    Les Systèmes Multi-Agents (SMA) ont gagné en popularité en raison de leur vaste gamme d'applications. Les SMA sont utilisés pour atteindre des objectifs complexes qui ne pourraient être atteints par un seul agent. La communication et l'échange d'informations entre les agents d'un SMA sont essentiels pour contrôler son comportement coopératif. Les agents partagent leurs informations avec leurs voisins pour atteindre un objectif commun, ils n'ont donc pas besoin d'unité centrale de surveillance. Cependant, la communication entre les agents est soumise à diverses contraintes pratiques. Ces contraintes incluent des périodes d'échantillonnage irrégulières et asynchrones et la disponibilité d'états partiels uniquement. Ces contraintes posent des défis théoriques et pratiques importants. Dans cette thèse, nous étudions deux problèmes fondamentaux liés au contrôle coopératif distribué, à savoir le consensus et le contrôle de formation pour un SMA à double intégrateur sous ces contraintes. On considère que chaque agent du réseau ne peut mesurer et transmettre son état de position qu'à des instants d'échantillonnage non uniformes et asynchrones. De plus, la vitesse et l'accélération ne sont pas disponibles. Dans un premier temps, nous étudions le problème du contrôle distribué du suivi de consensus. Un algorithme de suivi de leader basé sur l'observateur à temps discret continu est proposé. L'observateur estime la position et la vitesse de l'agent et de son voisin en temps continu à partir des données de position échantillonnées disponibles. Ces états estimés sont ensuite utilisés pour le calcul de l'entrée de commande. Les scénarios de topologie fixe et de topologie commutée sont discutés. Deuxièmement, un protocole de suivi de formation distribué basé sur le consensus est conçu pour réaliser des modèles de formation fixes et variant dans le temps. Le problème d'évitement de collision est également étudié dans cette thèse. Un mécanisme d'évitement de collision basé sur la fonction de potentiel artificiel (APF) est incorporé à l'algorithme de suivi de formation pour empêcher les collisions entre les agents tout en convergeant vers la position souhaitée. Enfin, les algorithmes proposés sont appliqués sur un réseau multi-robots, composé de robots à entraînement différentiel utilisant Robot Operating System (ROS). Un nouveau schéma est proposé pour faire face aux contraintes non holonomiques du robot. L'efficacité des algorithmes sont démontrées à la fois par des résultats de simulation et des expérimentations.

  • Analyse d'objets par vision par ordinateur : géométrie et colorimétrie    - El Kabir Taoufik  -  18 juin 2020

    Voir le résumé
    Voir le résumé
    Le traitement d'images numérique offre la possibilité de faire du contrôle non destructif et d'en tirer des conclusions sur l'état des surfaces analysées. Dans le cadre médical, il permet d'améliorer la prise en charge des patients et d'assister les médecins dans le diagnostic et le suivi post-traitement. Les travaux réalisés dans cette thèse s'intéressent à l'une des méthodes d'extraction de l'information par le traitement d'images numérique qui est la Stéré-Photométrie. Elle repose sur l'acquisition de la surface analysée d'un point de vue fixe mais sous différents angles d'éclairages. Elle permet l'extraction simultanée de la géométrie et la colorimétrie des surfaces analysées. Cependant, son application exige la formulation de plusieurs hypothèses qui ne sont pas toujours valables dans des conditions réelles. Ainsi, nous proposons une solution à l'une des hypothèses les plus réductrices en lien avec la nature photométrique des surfaces analysées. D'un autre côté, une nouvelle formulation mathématique de la Stéréo-Photométrie est proposée afin d'éviter l'étape de l'intégration numérique pour l'estimation de la reconstruction 3D. Cette approche originale basée sur la géométrie discrète offre un cadre numérique inclusif avec un caractère spatial. Le volet applicatif de ce travail consiste à proposer un système d'aide au diagnostic pour le psoriasis, à partir de l'étude de la Stéréo-Photométrie réalisée auparavant. Les résultats obtenus à travers ces différentes contributions permettent d'étendre l'utilisation de la Stéréo-Photométrie et de montrer son potentiel dans un cadre d'application rigoureux.

  • Optical Image encryption based on apertured FrMT in the Diffraction domain    - Wang Mengmeng  -  18 décembre 2019

    Voir le résumé
    Voir le résumé
    Cette thèse se concentre sur l'étude de l'introduction de l'ouverture dans la transformation frationnelle de Mellin (TFrM) dans le domaine de diffraction et son application dans le système de cryptage d'images optiques. La faisabilité des schémas de cryptage proposés est vérifiée par une série de simulations numériques. Les travaux principaux sont les suivants: Tout d'abord, un système de cryptage d'images optiques basé sur la transformation fractionnelle de Mellin avec une ouverture dure (TFrM à ouverture dure) a été proposé. La TFrM à ouverture dure peut être effectuée par la transformation log-polar et la transformation fractionnelle de Fourier à ouverture dans le domaine de diffraction. Les longueurs latérales de l'ouverture dure servent de clé pour améliorer la sécurité et augmenter encore l'espace clé du système de cryptage. Cette ouverture dure n'est pas seulement utilisée pour contrôler la quantité de lumière passant la lentille en ajustant sa taille, mais réduit également la fuite de lumière, ce qui, dans une certaine mesure, améliorera la robustesse contre les attaques directes. Deuxièmement, l'ouverture gaussienne, comme une ouverture douce pour équilibrer entre l'ouverture dure et aucune ouverture, est introduite dans la TFrM à ouverture. Avec la TFrM à ouverture gaussienne dans le domaine de diffraction, une transformation de préservation de la réalité est proposée et utilisée pour cryptage d'images. Dans ce schéma de cryptage pour l'image en niveaux de gris, la transformation d’Arnold et l'opération d’XOR bitwise sont également adoptées pour cypter l'image afin d'améliorer la sécurité. Enfin, l'algorithme de cryptage basé sur la TFrM à ouverture gaussian et de préservation de la réalité (TFrMOGPR) utilisé pour l'image couleur est proposé. Outre TFrMOGPR non linéaire, rotation de l'espace couleur, avec brouillage 3D et XOR opération bitwise rend l'algorithme de cryptage d'image de couleur proposé bien performer. Les résultats de la simulation ont montré que les systèmes de cryptage proposés sont capables de résister à différentes attaques communes et robustes contre les attaques de bruit et d'occlusion.

  • Modélisation fractionnaire et identification d'impédance d'accumulateurs électrochimiques    - Nasser Eddine Achraf  -  06 décembre 2019

    Voir le résumé
    Voir le résumé
    L’impédance d’un accumulateur électrochimique est principalement caractérisée par trois phénomènes : la conduction électronique, le transfert de charge et la diffusion ionique. La modélisation de ces phénomènes fait intervenir des fonctions de transfert non rationnelles et non directement simulables dans le domaine temporel. Leur approximation par des modèles fractionnaires (ou modèles d’ordre non entier) devient alors judicieuse pour estimer les caractéristiques de l’impédance à partir non seulement de mesures fréquentielles (spectroscopie), mais aussi de mesures temporelles (chronopotentiométrie). La chronopotentiométrie permet en effet de s’affranchir des contraintes de la spectroscopie pour laquelle les mesures nécessitent un équipement plus complexe et des durées d’acquisition plus longues, en particulier aux basses fréquences. Des stratégies d’identification de ces modèles ont été développées et appliquées expérimentalement sur une cellule électrochimique de type Ferri ferrocyanure ainsi que sur des accumulateurs Lithium-ion et Nickel Métal-Hydrure. Les essais de caractérisation de ces éléments sont effectués à différents états de charge et les résultats obtenus montrent l’intérêt et la pertinence de la méthodologie utilisée.

  • Une approche du suivi de consensus pour les systèmes multi-agents    - Isfoula Fayrouz  -  03 décembre 2019

    Voir le résumé
    Voir le résumé
    Un système multi-agents est composé d’un ensemble d’agents interagissant entre eux et avec leur environnement, un agent étant vu comme un système dynamique autonome. La force des SMA repose sur la capacité des agents à coopérer entre eux pour atteindre un objectif qu’un agent seul ne pourrait atteindre. Chaque agent partage ses informations avec ses voisins, ce qui permet à l’ensemble des agents de s’accorder sur un objectif commun sans qu’il y ait pour autant une centralisation de l’information et de l’objectif. En ce sens, un système multi-agents peut être vu comme un réseau dans lequel l’information est distribuée. L’intérêt croissant pour le contrôle distribué et la coordination des réseaux constitués d’agents autonomes est motivé par l’absence de centralisation de l’information et la possibilité d’avoir une topologie du réseau variable. Les algorithmes de contrôle déployés sur ces réseaux sont de nature distribuée puisqu’ils s’appuient sur des informations locales, et sont robustes vis-à-vis des variations de topologie et de taille du réseau. Le problème le plus étudié dans le cadre de ces systèmes multi-agents est celui du consensus, qui peut être résumé ainsi : étant donné des conditions initiales pour chaque agent, quelles sont les conditions pour que les agents s’accordent asymptotiquement sur une valeur commune en n’échangeant que des informations entre agents voisins. Cette thèse traite du développement de commandes permettant d’atteindre ce consensus pour des topologies fixes et variables, en présence ou non d’un leader (suivi de consensus), et sur la qualité des informations transitant dans le réseau. En suivi de consensus, la notion de leader perceptif est développée et une commande est proposée pour une topologie fixe et variable.

  • Machine-to-Machine (M2M) Communications in Next Generation Networks: Spectrum management and energy efficiency .    - Dawaliby Samir  -  11 octobre 2019

    Voir le résumé
    Voir le résumé
    Cette thèse traite le problème de garantir la qualité de service (QoS) dans l'internet des objets (IoT) en termes d’urgence et de fiabilité. Pour atteindre cet objectif, nous avons proposé différentes solutions adaptées aux réseaux étendus LoRa (LoRaWAN). Premièrement, nous mettons en œuvre un découpage virtuel du réseau LoRa en plusieurs tranches et nous évaluons son impact en utilisant plusieurs stratégies statiques et dynamiques. Les résultats des simulations exécutés sur NS3 ont prouvé l'efficacité de l'isolation virtuelle des ressources physiques pour une tranche d'un réseau ayant des communications urgentes en réduisant l'impact venant des autres communications IoT. Motivés par ces résultats, une méthode d'optimisation est ensuite proposée pour chercher une meilleure configuration des nœuds LoRa en regardant plus en détail leur paramètres au niveau de la couche physique permettant d’améliorer ses performances en termes de QoS, de fiabilité et d’efficacité énergétique. Par contre, même avec le découpage du réseau en tranches virtuels, l’évolutivité de LoRa reste un défi en raison du manque de flexibilité lors de la gestion des réseaux sans fil actuels. Par conséquent, pour atteindre l'objectif global de garantir une bonne QoS dans un réseau IoT à grande échelle, les technologies SDN et le découpage virtuel du réseau sont adoptés simultanément pour proposer une architecture virtualisée et distribuée. Cette dernière proposition est basée sur la théorie des jeux et s'adapte plus rapidement aux changements dans un environnement IoT encombré en exploitant la prise de décision du découpage du réseau et la configuration des nœuds LoRa à la périphérie du réseau.

  • Prise en compte métrologique de la couleur dans un contexte de classification et d'indexation    - Chatoux Hermine  -  21 mai 2019

    Voir le résumé
    Voir le résumé
    Cette thèse aborde la question du traitement correct et complet de la couleur selon les contraintes métrologiques. Le manque d’approches adaptées a justifié la reformulation principaux outils de traitement d’images que sont le gradient, la détection et la description de points d’intérêt. Les approches proposées sont génériques : indépendantes du nombre de canaux d’acquisition (de la couleur à l’hyper-spectral), de la plage spectrale considérée et prenant en compte les courbes de sensibilité spectrales du capteur ou de l’œil. Le full-vector gradient nait de cet objectif métrologique. La preuve de concept est effectuée sur des images couleurs, multi et hyper-spectrales. L’extension développée pour l’analyse de la déficience visuelle ouvre également de nombreuses s perspectives intéressantes pour l’analyse du système visuel humain. Ce gradient est au cœur de la proposition d’un détecteur de points d’intérêt, lui aussi générique. Nous montrons la nécessité d’un choix mathématiquement valide de la distance entre attributs et l’importance de la cohérence de la paire attribut/distance. Une paire attribut/distance complète l’ensemble. Pour chaque développement, nous proposons des protocoles objectifs de validation liés à des générateurs d’images de synthèse explorant toute la complexité spatio-chromatique possible. Notre hypothèse est que la difficulté d’extraction du gradient/des points d’intérêts… est liée à la complexité de discrimination des distributions couleur dans la zone de traitement. Une confrontation aux approches courantes du domaine a été également mise en œuvre.

  • Quality assessment of stereoscopic 3D content based on binocular perception    - Fan Yu  -  03 mai 2019

    Voir le résumé
    Voir le résumé
    La grande avancée des technologies stéréoscopiques/3D conduit à une croissance remarquable des contenus 3D dans diverses applications grâce aux effets immersifs qu’ils offrent. Cependant, ces technologies ont également créé de enjeux concernant l’évaluation de la qualité et la compression, en raison des processus complexes de la vision binocu laire. Visant à évaluer et à optimiser les performances des systèmes d’imagerie 3D quant à leur capacité de stockage et leur qualité d’expérience (QoE), cette thèse porte sur deux parties principales: 1- les seuils de visibilité spatiale du système visuel humain (SVH) et 2- l’évaluation de la qualité des images stéréoscopiques. Il est bien connu que le SVH ne peut détecter les modifications dans une image compressée si ces dernières sont inférieures au seuil JND (Just Noticeable Difference). Par conséquent, une étude approfondie basée sur une analyse objective et subjective a été menée sur les modèles 3D-JND existants. En outre, un nouveau modèle 3D-JND basé sur des expériences psychophysiques visant à mesurer l’effet de la disparité binoculaire et du masquage spatial sur les seuils visuels a été proposé. Dans la deuxième partie, nous avons exploré la mesure de la qualité 3D. Ainsi, nous avons développé un modèle avec référence prenant en compte à la fois la qualité monoculaire et cyclopéenne. Nous avons ensuite proposé une nouvelle métrique de qualité sans référence reposant sur la combinaison de statistiques locales de contraste de la paire stéréo. Les deux modèles reposent sur les propriétés de fusion et de rivalité binoculaire du SVH afin de simuler avec précision le jugement humain de la qualité 3D.

|< << 1 2 3 4 5 6 >> >| thèses par page

Haut de page


  • Avec le service Ubib.fr, posez votre question par chat à un bibliothécaire dans la fenêtre ci-dessous.

 
 

Université de Poitiers - 15, rue de l'Hôtel Dieu - 86034 POITIERS Cedex - France - Tél : (33) (0)5 49 45 30 00 - Fax : (33) (0)5 49 45 30 50
these@support.univ-poitiers.fr - Crédits et mentions légales