DUVAUT Patrick

< Retour à ILB Patrimoine
Affiliations
  • 2018 - 2019
    Ecole nationale supérieure des mines de Paris
  • 2012 - 2014
    Equipes Traitement de l'Information et Systèmes
  • 2019
  • 2014
  • 2013
  • 2007
  • 2005
  • 2002
  • 2000
  • 1999
  • 1998
  • 1997
  • 1996
  • 1994
  • 1993
  • ValYooTrust : Plateforme de confiance et incitative pour l'innovation collaborative.

    Laurent DUPONT, Eric SEUILLET, Patrick DUVAUT
    Les écosystèmes d'innovation. Regards croisés des acteurs clés | 2019
    Pas de résumé disponible.
  • Détection automatique de la signature des défauts dans les pipelines à l'aide d'images d'épaisseur ultrasonique.

    Clement FOUQUET, Aymeric HISTACE, Patrick DUVAUT
    Proceedings of 14th ECNDT conference | 2014
    Pas de résumé disponible.
  • Aide à la détection et à la reconnaissance de défauts structurels dans les pipelines par analyse automatique des images XtraSonic.

    Clement FOUQUET, Patrick DUVAUT, Olivier ALATA, Patrick DUVAUT, Aymeric HISTACE, Frederic PRECIOSO, Michel PAINDAVOINE
    2014
    TRAPIL est une société Française ayant à charge l'exploitation et l'entretien de pipelines d'hydrocarbures. L'entretien de pipelines enterrés nécessite le passage de racleurs équipés de sondes ultrasons réalisant une cartographie de la structure du pipeline, qui est ensuite analysée à la main afin de détecter et d'identifier les différents défauts pouvant apparaître ou évoluer.L'objectif de ce travail de thèse est d'apporter une solution algorithmique permettant d'accélérer et de compléter le travail des analystes à l'aide des méthodes modernes de traitement d'images et du signal.Notre approche suit le mode opératoire des experts et est découpée en trois partie.Tout d'abord nous réalisons une détection des soudures d'aboutage permettant de séparer le pipelines en les différents tubes qui le composent. Les signaux de sondes représentant la circonférence du tube sont regroupés et compressés dans une détection de rupture par comparaison de moyenne à court et long terme, puis les signaux résultants sont fusionnés à l'aide d'une pondération unique permettant une augmentation majeure du contraste entre bruit et soudure, offrant une détection et une localisation presque sans faille.Les tubes subissent ensuite une première segmentation visant à éliminer le plus grand nombre de pixels sains. Usant de modélisation d'histogramme des valeurs d'épaisseur par un algorithme EM initialisé pour notre problématique, l'algorithme suit un principe récursif comparable aux méthodes de type split and merge pour détecter et isoler les zones dangereuses.Enfin, Les zones dangereuses sont identifiées à l'aide d'une foret aléatoire, apprise sur un grand nombre d'exemples de défauts. Cette troisième partie est centrée sur l'étude de différentes méthodes de reconnaissance de forme appliquées à notre nouvelle problématique.Au travers de ces différentes étapes, les solutions que nous avons apportées permettent à TRAPIL un gain de temps significatif sur les tâches les plus fastidieuses du processus d'analyse (par exemple 30% sur la détection de soudures) et leur offre de nouvelles possibilités commerciales, par exemple la possibilité de fournir un pré-rapport à leur clientèle en quelques jours pendant que l'analyse manuelle est réalisée pouvant prendre plus d'un mois.
  • Détection automatisée et segmentation fine de la signature des défauts dans les pipelines à l'aide d'images d'épaisseur US.

    Clement FOUQUET, Aymeric HISTACE, Leila MEZIOU, Patrick DUVAUT
    Proceedings of ICNDT 2013 | 2013
    Cette contribution présente un détecteur robuste et orienté vers le contenu des zones d'intérêt pour la localisation des défauts dans l'inspection intelligente des oléoducs, atteignant de bonnes performances par rapport au rapport de complexité. La méthode traite elle-même les données multidimensionnelles collectées par un dispositif d'inspection de pipeline équipé de nombreux capteurs ultrasoniques (jusqu'à 512). Elle introduit une nouvelle utilisation de l'algorithme EM orientée vers le contenu, adaptée à la nature très particulière des données pour isoler d'abord les zones candidates, suivie d'une étape de segmentation pour obtenir des contours fins des défauts et rejeter les fausses alarmes. Les performances obtenues en termes de spécificité et de sensibilité montrent que l'approche proposée est compatible avec une utilisation de routine par des spécialistes.
  • Suppression coopérative du bruit étranger dans le VDSL amont : une nouvelle approche orientée vers la décision.

    Pravesh BIYANI, Amitkumar MAHADEVAN, Shankar PRAKRIYA, Patrick DUVAUT, Surendra PRASAD
    IEEE Transactions on Communications | 2013
    Le bruit étranger dans le système de ligne d'abonné numérique à très haut débit (VDSL) vectorisé fait partie du bruit additif au niveau du récepteur et présente une forte corrélation entre les utilisateurs. Nous présentons un algorithme d'annulation coopérative du bruit étranger par tonalité (CoMAC) pour le VDSL amont (US) qui peut être appliqué après toute stratégie d'atténuation de la diaphonie lointaine (FEXT). CoMAC fonctionne en prédisant le bruit vu par un utilisateur donné sur la base des échantillons d'erreur des autres utilisateurs. Ces erreurs sont obtenues de manière pratique après avoir découpé le signal annulé par l'auto-PEXT de tous les utilisateurs vectorisés. Nous montrons que si l'estimation de ces erreurs est précise, l'annuleur d'aliénation proposé atteint la limite inférieure de Cramer-Rao (CRLB). En pratique, l'opération d'adaptation continue du débit (SRA), qui permet d'augmenter le débit binaire en augmentant la charge binaire par ton, peut provoquer des erreurs de décision dans toute stratégie dirigée par décision. Nous analysons également l'impact de ces erreurs de décision - une question non traitée dans la littérature. Nous proposons une stratégie de chargement de bits pendant l'opération SRA en formulant un problème d'optimisation max-min et démontrons la possibilité d'une amélioration garantie (minimale) du débit par utilisateur. Les simulations indiquent que les performances de l'algorithme peuvent dépasser la valeur minimale de manière significative dans des situations pratiques.
  • Approximation par région pour résoudre l'inférence dans les graphes factoriels bouclés : décodage des codes LDPC par la propagation de croyance généralisée.

    Jean christophe SIBEL, David DECLERCQ, Brigitte VALLEE, Sylvain REYNAL, Bane VASIC, Patrick DUVAUT, Charly POULLIAT
    2013
    Dans cette thèse, nous étudions le problème de l'inférence bayésienne dans les graphes factoriels, en particulier les codes LDPC, quasiment résolus par les algorithmes de message-passing. Nous réalisons en particulier une étude approfondie du Belief Propagation (BP) dont la question de la sous-optimalité est soulevée dans le cas où le graphe factoriel présente des boucles. A partir de l'équivalence entre le BP et l'approximation de Bethe en physique statistique qui se généralise à l'approximation basée régions, nous détaillons le Generalized Belief Propagation (GBP), un algorithme de message-passing entre des clusters du graphe factoriel. Nous montrons par des expériences que le GBP surpasse le BP dans les cas où le clustering est réalisé selon les structures topologiques néfastes qui empêchent le BP de bien décoder, à savoir les trapping sets. Au-delà de l'étude des performances en termes de taux d'erreur, nous confrontons les deux algorithmes par rapport à leurs dynamiques face à des événements d'erreur non triviaux, en particulier lorsqu'ils présentent des comportements chaotiques. Par des estimateurs classiques et originaux, nous montrons que l'algorithme du GBP peut dominer l'algorithme du BP.
  • Modèles multifactoriels et techniques de traitement du signal : application à la finance quantitative.

    Serge DAROLLES, Patrick DUVAUT, Emmanuelle JAY
    2013
    Avec l'apparition récente de multiples crises financières à grande échelle, amplifiées par des sources de risque interconnectées, un nouveau paradigme de la gestion des fonds a émergé. Ce nouveau paradigme s'appuie sur des processus et des méthodes quantitatifs "intégrés" pour fournir des pratiques "basées sur l'évaluation des risques" plus transparentes, adaptables, fiables et faciles à mettre en œuvre. Ce livre passe en revue les modèles factoriels les plus largement utilisés dans le domaine de l'évaluation des actifs financiers. À travers l'application concrète de l'évaluation des risques dans le secteur des fonds spéculatifs, les auteurs démontrent que les techniques de traitement du signal constituent une alternative intéressante à la sélection de facteurs (tant fondamentaux que statistiques) et peuvent fournir des procédures d'estimation plus efficaces, basées sur le filtrage de Kalman régularisé lq par exemple. Avec de nombreux exemples illustrant les marchés boursiers, ce livre répond aux besoins des praticiens de la finance et des étudiants diplômés en sciences, économétrie et finance.
  • Un filtre de Kalman régularisé (rgKF) pour les données en pics.

    Serge DAROLLES, Patrick DUVAUT, Emmanuelle JAY
    Multi-Factor Models and Signal Processing Techniques | 2013
    Ce chapitre présente une nouvelle famille d'algorithmes, appelés filtres de Kalman régularisés (rgKF), qui ont été conçus pour détecter et estimer les valeurs aberrantes exogènes qui peuvent apparaître dans l'équation d'observation d'un filtre de Kalman (KF) standard. Inspirés par le filtre de Kalman robuste (RKF) de Mattingley et Boyd, qui utilise une étape de l1-régularisation, les auteurs introduisent une étape de détection simple mais efficace dans les équations récursives du RKF. Cette solution est un moyen de résoudre le problème de l'adaptation de la valeur du paramètre de régularisation l1 : lorsqu'une valeur aberrante est détectée dans le terme d'innovation du KF, la valeur du paramètre de régularisation est fixée à une valeur qui permettra au problème d'optimisation basé sur l1 d'estimer l'amplitude du pic. Le chapitre traite de l'application de l'algorithme pour détecter les irrégularités dans les rendements des fonds spéculatifs.
  • Estimation des moindres carrés (LSE) et filtrage de Kalman (KF) pour la modélisation des facteurs : une perspective géométrique.

    Serge DAROLLES, Patrick DUVAUT, Emmanuelle JAY
    Multi-Factor Models and Signal Processing Techniques | 2013
    Ce chapitre présente, illustre et dérive l'estimation par les moindres carrés (LSE) et par le filtre de Kalman (KF) de l'alpha et du bêta d'un rendement, pour un nombre donné de facteurs qui ont déjà été sélectionnés. Il formalise le "modèle de facteur par rendement" et le concept d'estimation récursive de l'alpha et du bêta. Ce chapitre explique la mise en place, l'objectif, le critère, l'interprétation et les dérivations du LSE. La mise en place, les principales propriétés, l'objectif, l'interprétation, la pratique et la dérivation géométrique de KF sont également discutés. Le chapitre explique également le fonctionnement de LSE et de KF. De nombreux résultats de simulation sont affichés et commentés tout au long du chapitre pour illustrer les comportements, les performances et les limites de LSE et KF.
  • Sélection des facteurs.

    Serge DAROLLES, Patrick DUVAUT, Emmanuelle JAY
    Multi-Factor Models and Signal Processing Techniques | 2013
    Ce chapitre se concentre sur l'approche empirique ad hoc et présente trois modèles de référence largement utilisés dans la littérature. Ces modèles sont tous basés sur la représentation factorielle, mais mettent en évidence la nature des facteurs à utiliser pour expliquer les rendements de classes d'actifs spécifiques. Dans une section, les auteurs désignent par facteurs propres les facteurs obtenus à partir des observations en utilisant la décomposition en vecteurs propres de la matrice de covariance des rendements. Le chapitre décrit certaines techniques classiques, issues de la théorie de l'information. Il fournit des sections complémentaires qui apportent un éclairage sur des problèmes liés à cette approche, tels que l'estimation de la matrice de covariance des données, la similarité de l'approche avec les méthodes de sous-espace et l'extension de cette approche à de grandes données de panel.
  • Modèles factoriels et définition générale.

    Serge DAROLLES, Patrick DUVAUT, Emmanuelle JAY
    Multi-Factor Models and Signal Processing Techniques | 2013
    Ce chapitre présente la version commune des modèles factoriels linéaires et discute également de ses limites et développements. Il présente différentes notations et discute du modèle et de sa structure. Le chapitre énumère les raisons pour lesquelles les modèles factoriels sont généralement utilisés en finance, et explique ensuite les limites de cette approche. Il traite également des différentes étapes de la construction des modèles factoriels, à savoir la sélection des facteurs et l'estimation des paramètres. Enfin, le chapitre donne une perspective historique sur l'utilisation des modèles factoriels tels que le modèle d'évaluation des actifs financiers (CAPM), le modèle de marché de Sharpe et la théorie des prix d'arbitrage (APT) en finance.
  • Dérivation et optimisation de schèmes de codage turbo convolutif pour les modulations OFDM et DMT.

    Julien PONS, Patrick DUVAUT
    2007
    Les travaux de recherche présentés dans ce mémoire portent sur l'étude, conception et optimisation de schèmes de modulation partiellement turbo codés en vue d’améliorer les performances des systèmes de communication numérique large-bande sans-fils et filaires fondés sur des technologies OFDM et DMT. Plus particulièrement, nous nous concentrons sur la recherche de méthodes de codage améliorant le compromis entre performance, complexité, flexibilité et rétrocompatibilité avec les standards Wi-Fi, WiMAX et DSL. Notre première tentative vise à améliorer les systèmes filaires (DSL) via l’introduction d’un schème de codage multi-niveaux original, appelé hierarchical trellis coded modulation (HTCM), fondé sur la protection hiérarchique de trois niveaux non-binaires : le premier niveau à l’aide d’un turbo-code et les deux niveaux restant à l’aide d’une modulation codée treillis (TCM). Bien que pouvant sensiblement améliorer (parfois pas plus d’un décibel) le gain de codage d’un schème TCM de complexité équivalente, la structure HTCM est peu adaptée aux applications utilisant un code externe Reed-Solomon (RS), tel qu’en DSL. En alternative, nous suggérons un schème formé de la concaténation en série d’un code RS et d’une modulation turbo-codée à deux niveaux (TuCM) protégeant le premier niveau 24-aire avec un turbo-code et laissant le second niveau sans protection. Une optimisation approfondie du cœur TuCM montre qu’une structure employant le turbo-code des systèmes WiMAX peut atteindre un gain de codage de 7dB pour un taux d’erreur binaire de 10-7, cela en considérant un mot de code formé d’environ 900 sous-porteuses. Une modification de cette dernière structure pour les applications sans-fils consiste à ne pas employer de code RS externe et à protéger le second niveau TuCM avec un code convolutif. Par exemple, nous proposons une structure combinant les codes convolutif et turbo des systèmes WiMAX, et montrons que cette dernière améliore le compromis performance/complexité des solutions standardisées en Wi-Fi et WiMAX. La conception et l’optimisation de nos schèmes de codage ont menés au développement d’outils originaux, tels que de nouvelles bornes théoriques du taux d’erreur de schèmes de codage multi-niveaux, et un nouvel algorithme d’estimation de la distance libre d’un turbo-code. Finalement, nous proposons une méthode, dite de self-protection, pour améliorer la capacité de correction de paquets d’erreurs d’un système multi-porteuse originellement conçu pour corriger des erreurs isolées. La technique combine efficacement plusieurs concepts classiques tels qu’une marge de SNR, décodage à effacement, et une nouvelle forme d’entrelacement de canal. Cette méthode peut sensiblement réduire la latence de techniques plus traditionnelles (e. G. Entrelacement de canal ou codage RS).
  • Annuleur de Diaphonie-NEXT (Near End Crosstalk) et Modulation Clustering pour les systèmes ADSL (Asymetric Digital Subscriber Line).

    Laurent PIERRUGUES, Patrick DUVAUT
    2005
    Les travaux de cette thèse visent à améliorer la portée et le débit offerts sur la voie descendante d'une transmission ADSL. La première partie du mémoire détaille la chaîne de transmission ADSL, son canal de propagation ainsi que les bruits de diaphonie. La deuxième partie se focalise sur une solution diminuant l'impact du bruit NEXT chez l'abonné. A cet effet, un second capteur à « référence bruit seul » est introduit au récepteur et un algorithme par sous-porteuse maximise le SNR Une étude statistique confirment que ce système augmente significativement les performances. La troisième partie introduit la modulation «clustering » qui permet d'améliorer les performances sur de longues lignes quel que soit l'environnement de bruit. Cette modulation regroupe les tones, ne disposant pas d'un SNR suffisant pour accueillir une constellation « minimale », en « clusters » porteurs d'une même information. Par ce biais, la capacité inutilisée d'un symbole DMT s'avère réduite de près de 75%.
  • Détection en environnement non-gaussien.

    Emmanuelle JAY, Patrick DUVAUT
    2002
    Les échos radar provenant des diverses réflexions du signal émis sur les éléments de l'environnement (le fouillis) ont longtemps été modélisés par des vecteurs Gaussiens. La procédure optimale de détection se résumait alors en la mise en oeuvre du filtre adapté classique. Avec l'évolution technologique des systèmes radar, la nature réelle du fouillis s'est révélée ne plus être Gaussienne. Bien que l'optimalité du filtre adapté soit mise en défaut dans pareils cas, des techniques TFAC (Taux de Fausses Alarmes Constant) ont été proposées pour ce détecteur, dans le but d'adapter la valeur du seuil de détection aux multiples variations locales du fouillis. Malgré leur diversité, ces techniques se sont avérées n'être ni robustes ni optimales dans ces situations. A partir de la modélisation du fouillis par des processus complexes non-Gaussiens, tels les SIRP (Spherically Invariant Random Process), des structures optimales de détection cohérente ont pu être déterminées. Ces modèles englobent de nombreuses lois non-Gaussiennes, comme la K-distribution ou la loi de Weibull, et sont reconnus dans la littérature pour modéliser de manière pertinente de nombreuses situations expérimentales. Dans le but d'identifier la loi de leur composante caractéristique qu'est la texture, sans a priori statistique sur le modèle, nous proposons, dans cette thèse, d'aborder le problème par une approche bayésienne. Deux nouvelles méthodes d'estimation de la loi de la texture en découlent~: la première est une méthode paramétrique, basée sur une approximation de Padé de la fonction génératrice de moments, et la seconde résulte d'une estimation Monte Carlo. Ces estimations sont réalisées sur des données de fouillis de référence et donnent lieu à deux nouvelles stratégies de détection optimales, respectivement nommées PEOD (Padé Estimated Optimum Detector) et BORD (Bayesian Optimum Radar Detector). L'expression asymptotique du BORD (convergence en loi), appelée le "BORD Asymptotique", est établie ainsi que sa loi. Ce dernier résultat permet d'accéder aux performances théoriques optimales du BORD Asymptotique qui s'appliquent également au BORD dans le cas où la matrice de corrélation des données est non singulière. Les performances de détection du BORD et du BORD Asymptotique sont évaluées sur des données expérimentales de fouillis de sol. Les résultats obtenus valident aussi bien la pertinence du modèle SIRP pour le fouillis que l'optimalité et la capacité d'adaptation du BORD à tout type d'environnement.
  • Contribution a l'amelioration des systemes d'annulation d'echo acoustique.

    Frederic BERTHAULT, Patrick DUVAUT
    2000
    La necessite de realiser des traitements d'annulation d'echo acoustique survient des lors qu'une prise de son capte un echo genant provenant de la diffusion par un haut-parleur d'un signal sonore dans une piece ou un habitacle de vehicule. De nombreux ouvrages couvrent les differents aspects algorithmiques de cette discipline. Par ailleurs, les differentes options algorithmiques ont ete largement etudiees et l'evolution des processeurs permet desormais de realiser des annuleurs d'echo performants. Depuis le debut des annees 90, de nouvelles applications et la volonte de realiser des systemes stereophoniques restituant une communication naturelle en visioconference (reproduction de la position des locuteurs) ont oriente les recherches vers l'extension des traitements monophoniques au cas stereophonique. Les nouvelles difficultes rencontrees tiennent essentiellement au modele de prise de son de ce type d'application, qui genere des signaux fortement correles dont les consequences ont ete largement exposees. Au cours de cette these deux axes de recherche ont ete suivis : premierement, contribuer a l'amelioration des methodes d'annulation d'echo stereophonique appliquees aux systemes de visioconference, en s'interessant plus particulierement a l'extension des algorithmes de filtrage adaptatif frequentiels au cas stereophonique. Cette etude a ouvert la voie vers un nouvel algorithme frequentiel modifie qui traite la correlation des voies d'entree et dont l'application aux systemes de visioconference semble prometteuse. Deuxiemement, etudier la mise en oeuvre d'un systeme d'annulation d'echo stereophonique pour traiter l'echo d'un autoradio perturbant un systeme de reconnaissance vocale embarque dans un vehicule. Cette application n'a que tres peu ete etudiee, et les resultats des travaux menes sur ce domaine ont notamment permis la realisation d'un demonstrateur, realise a l'attention d'un constructeur automobile, autorisant le pilotage vocal des fonctions d'un autoradio.
  • Estimation de retards de signaux GPS en présence de multitrajet.

    Jerome SOUBIELLE, Patrick DUVAUT
    1999
    Le gps est un systeme de positionnement par satellite mis au point par les etats-unis dans les annees 60. A l'origine prevu a des fins militaires, ce systeme est present de nos jours dans de multiples applications civiles (radio-navigation aerienne, maritime, positionnement de telephones mobiles). Meme si le systeme rencontre un grand succes de par la diversite de ses capacites, il reste une source d'erreurs (imprecisions du positionnement) non negligeables dues a la presence de trajets secondaires dans certaines configurations ou le signal direct peut se reflechir sur la surface terrestre, des batiments l'objectif de la these est de remedier aux erreurs de positionnement generees par ces multitrajets. L'originalite du travail effectue est de presenter dans un premier temps les techniques de positionnement usuelles dans le contexte sans multitrajet. Les etudes parues sur les problemes d'estimation de retard de signaux gps presentent habituellement les methodes (algorithme, architecture,) de resolution sans les justifier. L'etude s'attache a demontrer que les choix retenus sont issus d'une etude du maximum de vraisemblance et que l'estimateur retenu est donc, en fait, optimal dans le cas sans multitrajet. De plus, nous demontrons les limitations (imprecisions de mesure) de cet estimateur dans le cas avec trajets multiples. Dans un deuxieme temps, nous analysons les proprietes physiques des signaux reflechis grace aux releves experimentaux de nos collaborateurs industriels (thomson-csf detexis), ceci afin de modeliser au mieux les reflexions et de connaitre les lois regissant de tels phenomenes physiques. Finalement, a partir des etudes precedentes et notamment en se basant sur la caracterisation des trajets multiples, l'objectif est de concevoir une methode d'estimation robuste tout aussi bien a l'absence qu'a la presence de ces trajets secondaires. Le choix retenu a ete de se consacrer a une etude du maximum de vraisemblance (dediee au contexte avec multitrajet donc fondee sur un modele avec trajets multiples) pour obtenir l'estimateur optimal dans le contexte etudie. On a montre que cela permet, alors, de conserver une certaine continuite des traitements (habituellement utilises en absence de multitrajet) et donc de prevoir une architecture (brevetee) simple et facile a mettre en oeuvre dans l'ensemble des traitements realises en vue du positionnement en presence de multitrajet.
  • Methodes mcmc pour l'analyse bayesienne de modeles de regression parametrique non lineaire. Application a l'analyse de raies et a la deconvolution impulsionnelle.

    Christophe ANDRIEU, Patrick DUVAUT
    1998
    Dans cette these le probleme de regression lineaire general, qui fait intervenir de maniere non lineaire certains parametres, est aborde dans un cadre bayesien. Cette approche permet theoriquement de traiter dans un meme cadre les problemes difficiles d'estimation de parametres non lineaires ainsi que le choix du modele permettant une representation parcimonieuse du signal observe. La mise en uvre effective de la statistique bayesienne necessite de faire appel a des procedures numeriques. Les procedures utilisees dans ce travail sont des methodes monte carlo par chaines de markov (mcmc) qui permettent de mener efficacement integration et optimisation sur une union d'espaces de differentes dimensions. Les procedures developpees sont appliquees au probleme d'analyse spectrale de sinusoides noyees dans du bruit blanc gaussien. Une etude monte carlo des performances de differentes procedures de selection de modele, issues des algorithmes developpes et des critere classiques, est presentee. Nous montrons ensuite comment il est possible d'etendre les procedures proposees precedemment a des cas pour lesquels le bruit d'observation peut etre non gaussien ou colore. Nous montrons aussi comment ces algorithmes peuvent etre appliques lorsque les donnees subissent un phenomene de seuillage, empechant l'observation du processus bruite au dela de certains seuils. Le probleme de deconvolution de processus ponctuels a temps continu filtres et bruites est lui aussi aborde dans un cadre bayesien et resolu au moyen de methodes mcmc. Le modele statistique et les algorithmes associes sont appliques a des donnees reelles de spectrometrie.
  • Apport du traitement du signal a la detection des instabilites aerodynamiques du compresseur axial d'un turboreacteur.

    Romuald PREVITALI, Patrick DUVAUT
    1998
    Decouvrir un moyen de controle actif systematique des instabilites aerodynamiques des compresseurs de turboreacteur est un des defis actuels des motoristes d'avions. Il donnerait acces a des moteurs plus performants et a risque minimal. L'objectif de cette etude est d'apporter un regard nouveau, celui du traiteur de signaux, sur ce probleme de dynamique des fluides. Pour ce faire, une problematique du controle non destructif et une formulation en terme de localisation de sources sont presentees. Elles permettent d'aboutir a des methodes performantes de detections mono et multicapteurs.
  • Apport des polynomes d'hermite a la modelisation non gaussienne et tests statistiques associes.

    David DECLERCQ, Patrick DUVAUT
    1998
    L'objectif de cette these est d'etudier les apports des polynomes d'hermite, lorsqu'ils ont pour arguments des variables aleatoires gaussiennes, a certains domaines du traitement du signal et des statistiques. Une famille de tests statistiques de gaussianite, appelee tests d'hermite, a ete introduite. Cette derniere utilise l'orthonogonalite des polynomes d'hermite par rapport au poids gaussien, au travers d'une statistique de sphericite. Nous avons conduit l'etude asymptotique du test d'hermite dans le cas de donnees standards, et une etude non asymptotique (avec comparaison de puissance) dans un cadre invariant. Les puissances exhibees montrent qu'outre l'avantage apporte par la modularite intrinseque des tests d'hermite, ceux-ci exhibent de bonnes performances par rapport aux tests habituellement utilises. Une classe de processus non-lineaires / non-gaussiens, appeles h-arma est etudiee. Ceux-ci se composent d'un filtrage lineaire du type arma d'une entree gaussienne, suivi d'une transformation polynomiale d'hermite instantanee. L'utilisation des polynomes d'hermite, et en particulier des formules de mehler et de kibble-slepian, a permis l'ecriture des cumulants temporels et spectraux de ces processus, ainsi que le calcul non asymptotique de leur variance d'estimation empirique. L'identification de ces modeles a tout d'abord ete conduite dans un contexte supervise, puis en aveugle. L'identification aveugle se heurte a la non-inversibilite de ces processus des que la non-linearite polynomiale n'est plus bi-univoque. Apres avoir souligne les limitations des methodes d'estimation traditionnelles (maximum de vraisemblance, methodes de cumulant, etc), nous avons employe des algorithmes stochastiques mcmc, tirant parti de l'augmentation du modele par des variables d'etat cachees. Mises en oeuvre dans le paradigme bayesien, ces methodes forunissent une premiere solution a l'identification de modeles non-lineaires / non-inversibles.
  • Methodes bayesiennes pour la restauration et la reconstruction d'images : application a la gammagraphie et tomographie par photofissions.

    Guillaume STAWINSKI, Patrick DUVAUT
    1998
    Cette these est consacree au developpement d'algorithmes bayesiens pour la resolution de problemes inverses rencontres en gammagraphie et tomographie par photofissions. Pour chacune de ces applications, les differentes transformations statistiques subies par le signal et dues au systeme de mesures ont ete etudiees. Deux modelisations possibles du systeme de mesures ont ete determinees pour chacune des applications : une modelisation classique relativement simple et une nouvelle modelisation basee sur les processus ponctuels cascades. Des algorithmes bayesiens em (expectation-maximization) et mcmc (markov chain monte carlo) de restauration et de reconstruction d'images, bases sur ces modelisations, ont ete developpes et ont ete compares. Il est apparu experimentalement que la modelisation par processus ponctuels cascades n'ameliore pas de maniere significative les resultats obtenus a partir d'une modelisation classique. Dans le cadre de la gammagraphie, nous avons propose alors deux approches originales permettant une amelioration des resultats. La premiere consiste a introduire un champ de markov inhomogene comme loi a priori, c'est-a-dire a faire varier spatialement le parametre de regularisation associe a un champ markovien gaussien classique. Cependant, l'estimation des hyperparametres necessaires a cette approche demeure un probleme majeur. Dans le cadre de la deconvolution de sources ponctuelles, une seconde approche consiste a introduire des modeles haut niveau. L'image est modelisee par une liste d'objets de formes connues mais de nombre et parametres inconnus. L'estimation est alors realisee en utilisant des methodes mcmc a sauts reversibles. Cette approche permet d'obtenir des resultats plus precis que ceux obtenus par une modelisation par champs markovien pour des temps de calcul reduits.
  • Etude des applications du procede flash aux systemes d'ecoute passive et optimisation par deconvolution bernoulli-gaussienne.

    Marc ROLLET, Patrick DUVAUT
    1997
    Le sujet de cette these a concerne l'etude des applications d'un nouveau procede aux systemes d'ecoute passive et son optimisation par une technique de deconvolution standard. Ce travail a comporte deux phases. La premiere a traite de l'application d'un nouveau concept denomme flash a l'ecoute passive large bande de signaux radars dans le domaine hyperfrequence. Dans un premier temps, apres une definition du contexte d'emploi, une technique de goniometrie par balayage electronique a ete etudiee. Apres avoir analyse l'analogie avec le concept flash, des proprietes ont ete mises en evidence et plusieurs scenarii ont ete envisages. Dans un second temps, la meme demarche a ete menee pour l'etude d'un frequencemetre large bande. Les differents cas de figure rencontres ont enfin fait l'objet de simulations numeriques qui ont debouche sur des conclusions partielles. La deuxieme phase a alors consiste a etudier l'emploi d'une technique de deconvolution multi-impulsionnelle pour ameliorer les resultats et la robustesse des dispositifs sous des contraintes de rsb degrades. La demarche, incrementale dans l'integration des contraintes, a mene mutatis mutandis a l'adaptation et l'implementation d'un algorithme bayesien de deconvolution bernoulli-gaussienne. Les resultats obtenus ont revele un fort gain en termes de performances.
  • Detection - estimation conjointes a partir des plans temps-echelles et temps-frequence.

    Herve ROUSSEAU, Patrick DUVAUT
    1997
    Le travail resume dans ce memoire a permis de developper deux methodes de detection-estimations conjointes appliquant un algorithme de deconvolution bernoulli-gaussien (dbg) apres une etude des specificites des representations que sont l'analyse multiresolution et la transformee de fourier a court terme (tfct). La 1ere methode realise une dbg en milieu non-gaussien. L'utilisation de l'analyse multiresolution est justifiee par l'effet gaussianisant qu'induit un filtrage lineaire provenant des projections sur chacunes des echelles via l'algorithme a trous. Un algorithme de dbg est alors applique sur ces echelles. Ces differents resultats sont ensuite fusionnes grace a la redondance d'informations d'une echelle a l'autre. On obtient ainsi une nouvelle version de l'algorithme dbg comme alternative a la version originelle lorsque le bruit additif est non-gaussien tel que le bruit poissonnien par exemple. La 2eme methode effectue une estimation de frequences instantanees (fi). Celle-ci repose sur une conjecture qui confere a la tfct une structure convolutive entre un noyau (dependant de l'atome temps-frequence (tf) utilise lors du calcul de la tfct) et des attributs tf tels que les fi et les retards de groupe. Ces 2 derniers sont supposes etre des processus composites ponctuels-continus (chirps). Cette structure permet deux modeles convolutifs duaux sur chacune des marginales temporelles et frequentielle. Apres une etape initiale d'identification du noyau tf, on propose une procedure en 3 etapes. L'etape 1 utilise une fonction de goniometrie pour detecter les principaux angles tf du signal. Pour chacun de ces angles, on dispose alors d'un atome tf adapte au chirp lineaire associe et du modele convolutif a considerer. L'etape 2 consiste a effectuer la dbg sur chaque tfct. L'etape 3 permet d'obtenir les fi par fusion des differents resultats. Cette formulation bayesienne a permis d'obtenir une methode performante d'estimation de ces frequences en apportant un gain d'environ 10 db par rapport aux methodes classiques.
  • Algorithmes monte carlo pour l'estimation bayesienne de modeles markoviens caches. Application au traitement de signaux de rayonnements.

    Arnaud DOUCET, Patrick DUVAUT
    1997
    Les modeles markoviens caches (mmc) permettent de modeliser de tres nombreux signaux dans des domaines varies incluant le domaine de la mesure nucleaire. Exceptes pour quelques cas simples, les problemes d'estimation bayesienne pour les mmc n'admettent pas de solution analytique. Cette these est consacree a la resolution algorithmique d'une partie de ces problemes par des methodes de monte carlo et a l'application de ces algorithmes au traitement de signaux de rayonnements. Apres avoir donne quelques elements sur les signaux de rayonnements et les mmc associes, les problemes d'estimation bayesienne sont formules. Nous proposons alors une synthese des algorithmes monte carlo pour l'estimation bayesienne en ligne des mmc non-lineaires et non-gaussiens et proposons plusieurs extensions originales des methodes existantes. Dans les chapitres suivants, des methodes d'estimation hors-ligne basees sur les methodes de monte carlo par chaines de markov (mcmc) sont presentees. Tout d'abord, l'augmentation de donnees et deux algorithmes originaux de type recuit simule bases sur l'augmentation de donnees sont proposes et etudies pour l'estimation des etats des modeles lineaires a sauts. Un algorithme de recuit simule s'appuyant sur l'augmentation de donnees est ensuite propose et etudie pour l'estimation des parametres au sens du maximum a posteriori des mmc a etats finis. Puis nous proposons des algorithmes mcmc pour l'estimation bayesienne de modeles arma excites par un melange fini et/ou continu de gaussiennes de parametres inconnus. Le premier algorithme est un echantillonneur de gibbs. Cet algorithme souffrant de plusieurs defauts, un second algorithme plus efficace base sur le concept de conditionnement partiel est propose. Il est applique a l'estimation de modeles arma a excitation impulsionnelle ainsi qu'a la deconvolution aveugle de processus bernoulli-gauss. Finalement, nous proposons un algorithme mcmc pour l'estimation bayesienne de modeles a observations non-gaussiennes. Deux procedures originales permettant la simulation du processus d'etat cache sont proposees. Cet algorithme est applique a l'estimation de l'intensite d'un processus de poisson doublement stochastique a partir de donnees de comptage.
  • Apport des corrélations d'ordre élevé à l'analyse de textures non-gaussiennes.

    Christophe COROYER, Patrick DUVAUT
    1996
    Pas de résumé disponible.
  • Contribution de la methodologie bayesienne a l'analyse spectrale de raies pures et a la goniometrie haute resolution.

    Frederic DUBLANCHET, Patrick DUVAUT
    1996
    Ce travail est entierement consacre a la resolution des problemes classiques de recherche de raies pures en analyse spectrale de series temporelles et d'analyse goniometrique en traitement d'antenne. Ceux-ci sont formules comme des problemes inverses et abordes dans le contexte de l'estimation bayesienne. Dans une analyse haute resolution, l'estimation du nombre de sources ou de raies spectrales (detection) joue un role determinant dans la mesure ou elle conditionne la qualite globale des resultats. La demarche methodologique traditionnelle, qui consiste a separer l'estimation du nombre de sources de leur localisation, souffre d'un certain nombre de limitations. Celles-ci sont recensees et explicitees dans un premier temps. Dans l'objectif d'y remedier, nous proposons de traiter ces deux taches de facon conjointe. A cet effet, nous exploitons une information supplementaire relative a la structure de la solution, a savoir son caractere impulsionnel. Dans le contexte de l'estimation statistique bayesienne, une telle structure est decrite de facon satisfaisante par des processus aleatoires composites. Deux types de modeles probabilistes sont envisages, inspires du domaine de la deconvolution d'impulsions: le modele bernoulli-gaussien et son extension poisson-gaussienne. Sur un plan algorithmique, la solution ainsi regularisee est obtenue par optimisation d'un critere mixte, compose d'un terme de fidelite aux donnees observees et d'un terme traduisant l'a priori introduit sur la solution: un unique critere est forme, qui inclut la dimension variable de la solution. Nous montrons l'interet des techniques d'exploration combinatoire pour optimiser les criteres de vraisemblance utilises. Enfin, des exemples de traitements mettent en evidence l'amelioration substantielle obtenue par cette nouvelle approche.
  • Apport de l'analyse multiresolution oblique et du rapport du vraisemblance generalise a la reconnaissance partiellement cooperative.

    Zyed TIRA, Patrick DUVAUT
    1996
    La surveillance des machines tournantes des centrales nucleaires d'edf requiert l'identification de la forme des transitoires des signaux vibratoires. L'attribution d'une forme se fait relativement a un ensemble de reference et est independante des parametres d'echelle, d'amplitude, de ligne de base et de temps d'arrivee. L'objet de cette these est d'automatiser cette procedure de reconnaissance de formes. Deux approches sont proposees pour resoudre ce probleme. Une approche directe fondee sur le rapport de vraisemblance generalise. Son avantage est qu'elle permet non seulement de reconnaitre la forme du transitoire, mais aussi d'estimer ses parametres inconnus. Son inconvenient majeur est qu'elle necessite un modele mathematique simple de la forme. La deuxieme approche est fondee sur un arbre hierarchique de decision. Elle met en uvre deux detecteurs multiechelles ainsi que des algorithmes de detection de sauts de parametres et de detection de raies dans un spectre. Ces algorithmes tiennent compte du fait que les signaux vibratoires traites sont echantillonnes avec un pas aleatoire. Le premier detecteur multiechelle est fonde sur le codage par les extremums de la decomposition en ondelettes. Il utilise une analyse multiresolution oblique redondante, qui est une extension de celle introduite par s. Mallat et est definie dans cette these. Le deuxieme detecteur utilise la technique du maximum de vraisemblance generalise pour decomposer le signal observe sur quatre ondelettes de reference. Les performances de ces detecteurs sont evaluees a l'appui des courbes cor. L'approche hierarchique pour la reconnaissance de formes est validee sur un parc de signaux synthetiques et evaluee sur un ensemble de signaux reels.
  • Contribution à l'analyse des signaux non stationnaires et/ou non gaussiens.

    Claude JORAND, Patrick DUVAUT
    1994
    La transformation de wigner-ville (twv) est un outil a present bien connu dans l'analyse de signaux non stationnaires. Sa structure non lineaire est source d'interferences entre les composantes du signal analyse, ce qui pose un probleme lors de l'extraction des informations pertinentes dans l'image resultante. Consideree comme un processus aleatoire bidimensionnel, cette image est generalement non gaussienne. Ainsi, cette transformation est le siege de trois non-qualites: non linearite, due a l'operateur, non stationnarite et non gaussianite, qui affectent le signal analyse ou produit. Dans cette etude, nous nous interessons aux deux non-qualites liees aux signaux: la non gaussianite, ou l'on aborde certaines techniques utilisant les statistiques d'ordre superieur a deux, puis la non stationnarite, qui fait intervenir la transformation en ondelettes comme second role. Enfin, dans un cadre etendu de la twv, on rencontre simultanement ces deux attributs. Un autre aspect fondamental de ce travail est une contribution au transfert des techniques du traitement du signal vers le domaine industriel, par le developpement d'un logiciel d'analyse non stationnaire et par sa mise en uvre dans l'analyse vibratoire d'un moteur automobile.
  • Contribution au choix d'architectures d'antennes a sous-reseaux.

    Lionel HAYOUN, Patrick DUVAUT
    1993
    Afin de reduire la complexite materielle et le cout financier d'une antenne reseau a formation de faisceau par le calcul, il est souvent necessaire de regrouper les capteurs elementaires en sous-reseaux. De cette facon, on preserve les caracteristiques fondamentales du reseau initial: puissances emise et recue, gain, finesse du faisceau. Il existe potentiellement un grand nombre de facons d'operer ces regroupements et il est legitime de chercher des configurations optimales vis-a-vis d'un ou de plusieurs criteres donnes. On propose et on analyse en detail un certain nombre de criteres d'optimalite. certains sont lies a la capacite de detection de l'antenne, tandis que d'autres caracterisent les performances en estimation. Nous avons, par ailleurs, mis en evidence des correlations entre ces differents criteres, montrant en particulier que certains sont antagonistes et qu'il n'existe donc pas de loi universelle optimisant unanimement tous les criteres. Le probleme du choix de la loi de regroupement peut se presenter au concepteur sous deux formes distinctes. soit il s'agira de determiner la meilleure topologie au sein d'une famille de lois predefinies, soit il s'agira de trouver la meilleure loi sans arbitraire initial. Pour cette seconde approche, nous proposons d'utiliser l'algorithme du recuit simule, qui s'est avere etre bien adapte aux fonctions de cout mises en jeu. Enfin, les nombreuses simulations realisees ont permis d'acquerir une certaine expertise, exprimee sous la forme de regles generales de design des architectures d'antenne a sous-reseaux.
  • Nouvelles methodes de detection et de localisation de fuites par emission acoustique.

    Pascal BOULANGER, Patrick DUVAUT
    1993
    La surveillance en temps reel des reseaux de tuyauteries des centrales nucleaires a eau pressurisee s'oriente vers l'integration de systemes de traitements numeriques. A ce titre, la methode d'emission acoustique exhibe des performances prometteuses. Son principe repose sur l'ecoute passive des bruits emis par des microdeplacements internes a un materiau sous contraintes qui se propagent sous la forme d'ondes elastiques. La faible quantite d'informations a priori disponibles concernant les signaux de fuite nous a conduit a approfondir la comprehension des phenomenes physiques sous-tendant la generation de bruit induite par un ecoulement. Nous rassemblons l'ensemble de ces resultats sous la forme d'un modele de fuite lie a la geometrie et au type d'ecoulement de la fissure. Les problematiques de detection et de localisation sont formulees selon le principe du maximum de vraisemblance. En detection, les methodes fondees sur une information de ressemblance (correlation, tricorrelation) semblent donner de meilleurs resultats par rapport aux methodes classiques (rms, enveloppe, banc de filtres). Pour la localisation, nous proposons un eventail de methodes classiques (intercorrelation generalisee) et innovantes (convolution, adaptatives, ordre superieur). Une derniere partie est devolue a l'etude des statistiques d'ordre superieur. L'analyse des estimateurs des grandeurs d'ordre superieur pour une famille de processus aleatoires non lineaires non gaussiens, l'amelioration des performances de la prediction non lineaire, le choix d'un ordre optimal sont abordes dans des cas analytiques simples. Enfin, quelques applications aux signaux de fuites sont presentees.
Les affiliations sont détectées à partir des signatures des publications identifiées dans scanR. Un auteur peut donc apparaître affilié à plusieurs structures ou tutelles en fonction de ces signatures. Les dates affichées correspondent seulement aux dates des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr