LELONG Jerome

< Retour à ILB Patrimoine
Affiliations
  • 2012 - 2020
    Laboratoire Jean Kuntzmann
  • 2013 - 2016
    Modèles et méthodes de l'evaluation thérapeutique des maladies chroniques
  • 2013 - 2016
    Institut camille jordan
  • 2012 - 2013
    Université Grenoble Alpes
  • 2006 - 2007
    Ecole nationale des ponts et chaussées
  • 2006 - 2007
    Centre d'Enseignement et de Recherche en Mathématiques et Calcul Scientifique
  • 2021
  • 2020
  • 2019
  • 2018
  • 2017
  • 2016
  • 2015
  • 2014
  • 2013
  • 2007
  • Prévision des transitions de notation : une approche par filtrage.

    Areski COUSIN, Jerome LELONG, Ragnar NORBERG, Tom PICARD
    2021
    L'analyse de l'effet du cycle économique sur les transitions de notation a fait l'objet d'un grand intérêt ces quinze dernières années, notamment en raison de la pression croissante exercée par les régulateurs en faveur des tests de résistance. Dans cet article, nous considérons que la dynamique des migrations de notation est régie par un facteur latent non observé. Dans un cadre de filtrage par processus ponctuel, nous expliquons comment l'état actuel du facteur caché peut être déduit efficacement des observations de l'historique des notations. Nous adaptons ensuite l'algorithme classique de Baum-Welsh à notre contexte et montrons comment estimer les paramètres du facteur latent. Une fois calibrés, nous pouvons révéler et détecter les changements économiques qui affectent la dynamique de la migration des classements, en temps réel. À cette fin, nous adaptons une formule de filtrage qui peut ensuite être utilisée pour prédire les probabilités de transition futures en fonction des régimes économiques sans utiliser de covariables externes. Nous proposons deux cadres de filtrage : une version discrète et une version continue. Nous démontrons et comparons l'efficacité des deux approches sur des données fictives et sur une base de données de notation de crédit d'entreprise. Les méthodes pourraient également être appliquées aux prêts de crédit aux particuliers.
  • Simulation d'événements rares pour la conception de circuits électroniques.

    Xavier JONSSON, Jerome LELONG
    2021
    Dans ce travail, nous proposons un algorithme pour simuler des événements rares pour la conception de circuits électroniques. Notre approche repose sur une utilisation intelligente de l'échantillonnage par importance, qui nous permet de traiter des probabilités de l'ordre de 10 -10. Non seulement nous pouvons calculer des probabilités de défaut très rares, mais nous pouvons également calculer le quantile associé à une probabilité de défaut donnée et son manque à gagner attendu. Nous montrons l'efficacité impressionnante de la méthode sur des circuits réels.
  • Régression par réseau neuronal pour l'évaluation des options des Bermudes.

    Bernard LAPEYRE, Jerome LELONG
    Monte Carlo Methods and Applications | 2021
    Pas de résumé disponible.
  • Variables de contrôle automatiques pour l'évaluation des options à l'aide de réseaux neuronaux.

    Zineb EL FILALI ECH CHAFIQ, Jerome LELONG, Adil REGHAI
    Monte Carlo Methods and Applications | 2021
    Pas de résumé disponible.
  • Variables de contrôle automatique pour l'évaluation des options à l'aide de réseaux neuronaux.

    Jerome LELONG, Zineb EL FILALI ECH CHAFIQ, Adil REGHAI
    2020
    Pas de résumé disponible.
  • Fixation du prix des options bermudiennes dépendant du chemin à l'aide de l'expansion du chaos de Wiener : une approche embarrassante et parallèle.

    Jerome LELONG
    2019
    Dans ce travail, nous proposons un nouvel algorithme d'itération de politique pour évaluer les options des Bermudes lorsque le processus de gain ne peut pas être écrit comme une fonction d'un processus de Markov levé. Notre approche est basée sur une modification de l'algorithme bien connu de Longstaff Schwartz, dans lequel nous remplaçons essentiellement la régression standard des moindres carrés par une expansion du chaos de Wiener. Cela nous permet non seulement de traiter un cadre non markovien, mais aussi de supprimer le goulot d'étranglement induit par la régression des moindres carrés, car les coefficients de l'expansion du chaos sont donnés par des produits scalaires sur l'espace L^2 et peuvent donc être approximés par des calculs de Monte Carlo indépendants. Cette caractéristique clé nous permet de fournir un algorithme embarrassant et parallèle.
  • Régression par réseau neuronal pour l'évaluation des options des Bermudes.

    Bernard LAPEYRE, Jerome LELONG
    2019
    L'évaluation des options bermudiennes revient à résoudre un principe de programmation dynamique, dans lequel la principale difficulté, surtout en grande dimension, provient du calcul de l'espérance conditionnelle impliquée dans la valeur de continuation. Ces espérances conditionnelles sont classiquement calculées par des techniques de régression sur un espace vectoriel de dimension finie. Dans ce travail, nous étudions l'approximation des réseaux neuronaux des espérances conditionnelles. Nous prouvons la convergence de l'algorithme bien connu de Longstaff et Schwartz lorsque la régression standard des moindres carrés est remplacée par une approximation par réseau neuronal.
  • Modélisation stochastique des effets thermiques sur une nanoparticule ferromagnétique.

    Stephane LABBE, Jerome LELONG
    Journal of Dynamics and Differential Equations | 2019
    Dans ce travail, nous nous intéressons au comportement d'une seule particule ferromagnétique mono-domaine soumise à un champ externe avec une perturbation stochastique. Ce modèle est un pas vers la compréhension mathématique des effets thermiques sur les ferromagnétiques. Dans une première partie, nous discutons des problèmes de modélisation et proposons plusieurs façons d'intégrer un bruit aléatoire dans le modèle déterministe. Ensuite, parmi toutes ces approches, nous nous concentrons sur la plus naturelle et étudions son comportement à long terme. Nous prouvons que le système converge vers l'unique équilibre stable du modèle déterministe et précisons le taux L^p de la convergence. Enfin, nous illustrons les résultats théoriques par des simulations numériques.
  • Réglage des files d'attente EASY-Backfilling.

    Jerome LELONG, Valentin REIS, Denis TRYSTRAM
    Lecture Notes in Computer Science | 2018
    EASY-Backfilling est une heuristique d'ordonnancement populaire pour l'allocation des tâches dans les plateformes de calcul haute performance à grande échelle. Bien que son mécanisme de réservation agressif soit rapide et empêche la famine des tâches, il n'essaie pas d'optimiser un objectif d'ordonnancement en soi. Nous considérons dans ce travail le problème de l'ajustement d'EASY en utilisant des politiques de réorganisation des files d'attente. Plus précisément, nous proposons de régler le réordonnancement à l'aide d'une méthodologie basée sur la simulation. Pour un système donné, nous choisissons la politique afin de minimiser le temps d'attente moyen. Cette méthodologie s'écarte de la règle du "premier arrivé, premier servi" et introduit un risque sur les valeurs maximales du temps d'attente, que nous contrôlons à l'aide d'un mécanisme de seuillage des files d'attente. Cette nouvelle approche est évaluée à travers une campagne expérimentale complète sur cinq journaux de production. En particulier, nous montrons que le comportement des systèmes étudiés est suffisamment stable pour apprendre une heuristique qui se généralise de manière train/test. En effet, le temps d'attente moyen peut être réduit de manière cohérente (entre 11% et 42% pour les journaux utilisés) par rapport à EASY, avec une augmentation quasi nulle des temps d'attente maximum. Ce travail s'écarte des approches précédentes basées sur l'apprentissage et montre que les heuristiques d'ordonnancement pour le calcul intensif peuvent être apprises directement dans un espace de politique.
  • Dual Pricing of American Options by Wiener Chaos Expansion.

    Jerome LELONG
    SIAM Journal on Financial Mathematics | 2018
    Dans ce travail, nous proposons un algorithme pour évaluer les options américaines en résolvant directement le problème de minimisation duale introduit par Rogers. Notre approche repose sur l'approximation de l'ensemble des martingales intégrables uniformément carrées par une expansion de chaos de Wiener de dimension finie. Ensuite, nous utilisons une technique d'approximation par moyenne d'échantillon pour résoudre efficacement le problème d'optimisation. Contrairement à toutes les méthodes basées sur la régression, notre méthode peut traiter de manière transparente les options dépendantes du chemin sans calculs supplémentaires et une implémentation parallèle s'écrit facilement avec très peu de communication et sans travail centralisé. Nous testons notre approche sur plusieurs options multidimensionnelles avec jusqu'à 40 actifs et montrons l'impressionnante évolutivité de l'implémentation parallèle.
  • Bibliothèque STochastic OPTimization en C++.

    Hugo GEVRET, Nicolas LANGRENE, Jerome LELONG, Xavier WARIN, Aditya MAHESHWARI
    2018
    La bibliothèque STochastic OPTimization (StOpt) vise à fournir des outils en C++ pour résoudre certains problèmes d'optimisation stochastique rencontrés en finance ou dans l'industrie. Un binding python est disponible pour certains objets C++ fournis permettant de résoudre facilement un problème d'optimisation par régression. Différentes méthodes sont disponibles :
    • méthodes de programmation dynamique basées sur Monte Carlo avec des régressions (régresseurs globaux, locaux et épars), pour des états sous-jacents suivant certaines équations différentielles stochastiques non contrôlées (binding python fourni).
    • Méthodes semi-lagrangiennes pour les équations générales de Hamilton Jacobi Bellman pour les états sous-jacents suivant certaines équations différentielles stochastiques contrôlées (C++ uniquement)
    • Méthodes de programmation dynamique double stochastique pour traiter les problèmes de gestion de stocks stochastiques en haute dimension. Un module SDDP en python est fourni. Pour utiliser ce module, le problème d'optimisation transitoire doit être écrit en C++ et mappé en python (exemples fournis).
    • Des méthodes sont fournies pour résoudre par Monte Carlo certains problèmes où l'état stochastique sous-jacent est contrôlé.
    • Certaines méthodes de Monte Carlo pures sont proposées pour résoudre certaines EDP non linéaires
    Pour chaque méthode, un cadre est fourni pour optimiser le problème et ensuite le simuler hors échantillon en utilisant les commandes optimales précédemment calculées. Des méthodes de parallélisation basées sur OpenMP et MPI sont fournies dans ce cadre permettant de résoudre des problèmes de haute dimension sur des clusters. La bibliothèque doit être suffisamment flexible pour être utilisée à différents niveaux selon la volonté de l'utilisateur.
  • Réglage en ligne de EASY-Backfilling à l'aide de politiques de réorganisation des files d'attente.

    Eric GAUSSIER, Jerome LELONG, Valentin REIS, Denis TRYSTRAM
    IEEE Transactions on Parallel and Distributed Systems | 2018
    L'heuristique EASY-FCFS est l'élément de base des politiques d'ordonnancement des tâches dans la plupart des plateformes parallèles de calcul haute performance. Malgré sa simplicité et la garantie de l'absence de famine pour les tâches, elle peut encore être améliorée pour chaque système. Un tel réglage est difficile en raison des non-linéarités du processus d'ordonnancement. L'étude menée dans cet article considère une approche en ligne pour le réglage automatique de l'heuristique EASY pour les plateformes HPC. Plus précisément, nous considérons le problème de la sélection d'une politique de réordonnancement pour la file d'attente des tâches sous plusieurs modes de rétroaction. Nous montrons via une validation expérimentale complète sur des logs réels que la simulation périodique de données historiques peut être utilisée pour récupérer des résultats existants à posteriori qui permettent de diviser le temps d'attente moyen par presque 2. Ce résultat est valable même lorsque les résultats du simulateur sont bruités. De plus, nous montrons que de bonnes performances peuvent encore être obtenues sans simulateur, dans le cadre de ce que l'on appelle le bandit feedback - lorsque nous ne pouvons observer que les performances de l'algorithme qui a été choisi sur le système réel. En effet, un simple algorithme de bandit à bras multiples peut réduire le temps d'attente moyen de 40 %.
  • Apprentissage pour le contrôle de plateformes parallèles à large échelle.

    Valentin REIS, Denis TRYSTRAM, Jerome LELONG, Arnaud LEGRAND, Emilie KAUFMANN, Kim thang NGUYEN, Alfredo GOLDMAN, Michela TAUFER
    2018
    Fournir les infrastructures de calcul nécessaires à la résolution des problèmescom-plexes de la société moderne constitue un défistratégique. Lesorganisations y répondent classiquement en mettant en place de largesinfrastructures de calcul parallèle et distribué. Les vendeurs de systèmes deCalcul Hautes Performances sont incités par la compétition à produire toujoursplus de puissance de calcul et de stockage, ce qui mène à des plateformes”Petascale“ spécifiques et sophistiquées, et bientôt à des machines”Exascale“. Ces systèmes sont gérés de manière centralisée à l’aide desolutions logicielles de gestion de jobs et de resources dédiées. Un problèmecrucial auquel répondent ces logiciels est le problème d’ordonnancement, pourlequel le gestionnaire de resources doit choisir quand, et sur quellesresources exécuter quelle tache calculatoire. Cette thèse fournit des solutionsà ce problème. Toutes les plateformes sont différentes. En effet, leurinfrastructure, le comportement de leurs utilisateurs et les objectifs del’organisation hôte varient. Nous soutenons donc que les politiquesd’ordonnancement doivent s’adapter au comportement des systèmes. Dans cemanuscrit, nous présentons plusieurs manières d’obtenir cette adaptativité. Atravers une approche expérimentale, nous étudions plusieurs compromis entre lacomplexité de l’approche, le gain potentiel, et les risques pris.
  • Couplage de l'échantillonnage par importance et de la méthode de Monte-Carlo multiniveau à l'aide de l'approximation de la moyenne des échantillons.

    Ahmed KEBAIER, Jerome LELONG
    Methodology and Computing in Applied Probability | 2017
    Dans ce travail, nous proposons une idée intelligente pour coupler l'échantillonnage par importance et la méthode de Monte-Carlo multiniveau (MLMC). Nous préconisons une approche par niveau avec autant de paramètres d'échantillonnage par importance que le nombre de niveaux, ce qui nous permet de calculer les différents niveaux indépendamment. La recherche des paramètres est effectuée en utilisant l'approximation par moyenne d'échantillon, qui consiste essentiellement à appliquer des techniques d'optimisation déterministes à une approximation de Monte Carlo plutôt que de recourir à une approximation stochastique. Notre estimateur innovant conduit à une procédure robuste et efficace réduisant à la fois l'erreur de discrétisation (le biais) et la variance pour un effort de calcul donné. Dans le cadre de diffusions discrétisées, nous prouvons que notre estimateur satisfait une loi des grands nombres forte et un théorème central limite avec une variance limite optimale, dans le sens où il s'agit de la variance obtenue par la meilleure mesure d'échantillonnage par importance (parmi la classe de changements que nous considérons), qui est cependant non traçable. Enfin, nous illustrons l'efficacité de notre méthode sur plusieurs défis numériques issus de la finance quantitative et montrons qu'elle surpasse l'estimateur MLMC standard.
  • Quelques contributions aux méthodes numériques probabilistes et à la modélisation stochastique.

    Jerome LELONG
    2017
    Pas de résumé disponible.
  • Intégration numérique adaptative robuste de fonctions irrégulières avec applications au panier et autres options exotiques multidimensionnelles.

    Christophe DE LUIGI, Jerome LELONG, Sylvain MAIRE
    Applied Numerical Mathematics | 2016
    Nous améliorons un algorithme d'intégration adaptatif proposé par deux des auteurs en introduisant une nouvelle stratégie de fractionnement basée sur un critère géométrique. Cet algorithme est testé notamment sur le pricing d'options vanilles multidimensionnelles dans le cadre de Black-Scholes qui met en avant les problèmes numériques d'intégration de fonctions non lisses. En haute dimension, ce nouvel algorithme est utilisé comme une variable de contrôle après une réduction de dimension basée sur l'analyse en composantes principales. Des tests numériques sont effectués sur le paquet Genz, sur le prix des options panier, put on minimum et digitales dans des dimensions allant jusqu'à dix.
  • Estimation de Stein de l'intensité d'un processus ponctuel de Poisson spatialement homogène.

    Marianne CLAUSEL, Jean francois COEURJOLLY, Jerome LELONG
    The Annals of Applied Probability | 2016
    Dans cet article, nous revisitons les idées originales de Stein et proposons un estimateur du paramètre d'intensité d'un processus ponctuel de Poisson homogène défini dans Rd et observé dans une fenêtre bornée. La procédure est basée sur une nouvelle formule générale d'intégration par parties pour les processus ponctuels de Poisson. Nous montrons que notre estimateur de Stein surpasse l'estimateur de vraisemblance maximale en termes d'erreur quadratique moyenne. En particulier, nous montrons que dans de nombreuses situations pratiques, nous obtenons un gain supérieur à 30%.
  • Échantillonnage d'importance pour les processus de saut et applications à la finance.

    Laetitia badouraly KASSIM, Jerome LELONG, Imane LOUMRHARI
    The Journal of Computational Finance | 2015
    Les techniques d'échantillonnage par importance adaptative sont largement connues pour le cadre gaussien des diffusions pilotées par les browniens. Dans ce travail, nous voulons les étendre aux processus de saut. Notre approche repose sur un changement de l'intensité du saut combiné à l'inclinaison exponentielle standard pour le mouvement brownien. Les paramètres libres de notre cadre sont optimisés en utilisant des techniques d'approximation par moyenne d'échantillon. Nous illustrons l'efficacité de notre méthode sur l'évaluation de produits financiers dérivés dans plusieurs modèles de saut.
  • Utilisation de Premia et de Nsp pour construire un repère de gestion des risques pour tester l'architecture parallèle.

    Jean philippe CHANCELIER, Bernard LAPEYRE, Jerome LELONG
    Concurrency and Computation: Practice and Experience | 2014
    Les institutions financières doivent effectuer des calculs massifs pendant la nuit, qui sont très exigeants en termes d'unités centrales consommées. Le défi consiste à évaluer de nombreux produits différents sur une architecture de type cluster. Nous avons utilisé le logiciel Premia pour évaluer les produits financiers dérivés. Dans ce travail, nous expliquons comment Premia peut être intégré dans Nsp, un logiciel scientifique comme Matlab, afin de fournir un outil puissant pour évaluer un portefeuille entier. Enfin, nous avons intégré une boîte à outils MPI dans Nsp pour permettre d'utiliser Premia pour résoudre un ensemble de problèmes d'évaluation sur un cluster. Ce cadre unifié peut ensuite être utilisé pour tester différentes architectures parallèles.
  • Comportement à long terme d'une nanoparticule stochastique.

    Pierre ETORE, Stephane LABBE, Jerome LELONG
    Journal of Differential Equations | 2014
    Dans cet article, nous nous intéressons au comportement d'une seule particule ferromagnétique mono-domaine soumise à un champ externe avec une perturbation stochastique. Ce modèle est la première étape vers la compréhension mathématique des effets thermiques sur un ferromagnétique. Dans une première partie, nous présentons le modèle stochastique et prouvons que l'équation différentielle stochastique associée est bien définie. La deuxième partie est consacrée à l'étude du comportement à long terme du moment magnétique et dans la troisième partie nous prouvons que la perturbation stochastique induit un phénomène de non réversibilité. Enfin, nous illustrons ces résultats par des simulations numériques de notre modèle stochastique. Les principaux résultats présentés dans cet article sont le taux de convergence de l'aimantation vers l'unique équilibre stable du modèle déterministe. Le second résultat est une estimation précise du phénomène d'hystérésis induit par la perturbation stochastique (rappelons qu'en l'absence de perturbation, le moment magnétique reste constant).
  • Un algorithme parallèle pour la résolution de BSDEs.

    Celine LABART, Jerome LELONG
    Monte Carlo Methods and Applications | 2013
    Nous présentons un algorithme parallèle pour la résolution d'équations différentielles stochastiques à rebours. Nous améliorons l'algorithme proposé dans Gobet Labart (2010), basé sur une méthode de Monte Carlo adaptative avec itérations de Picard, et nous en proposons une version parallèle. Nous testons notre algorithme sur des pilotes linéaires et non linéaires jusqu'à la dimension 8 sur un cluster de 312 CPUs. Nous avons obtenu des speedups très encourageants supérieurs à 0.7.
  • Modèles stochastiques de perte d'intensité locale avec des systèmes de particules en interaction.

    Aurelien ALFONSI, Celine LABART, Jerome LELONG
    Mathematical Finance | 2013
    Il est bien connu depuis les travaux de Schönbucher (2005) que les lois marginales d'un processus de perte peuvent être appariées par un processus de Markov inhomogène à temps croissant unitaire, dont l'intensité de saut déterministe est appelée intensité locale. Les modèles d'intensité locale stochastique (SLI) tels que celui proposé par Arnsdorf et Halperin (2008) permettent d'obtenir une intensité de saut stochastique tout en conservant les mêmes lois marginales. Ces modèles impliquent une EDS non linéaire avec des sauts. La première contribution de ce papier est de prouver l'existence et l'unicité de tels processus. Ceci est fait au moyen d'un système de particules en interaction, dont le taux de convergence vers l'EDS non linéaire est analysé. Deuxièmement, cette approche fournit un moyen puissant de calculer les espérances de chemin avec le modèle SLI : nous montrons que le coût de calcul est à peu près le même que celui d'un algorithme de Monte-Carlo grossier pour les EDD standard.
  • Normalité asymptotique des algorithmes stochastiques à troncature aléatoire.

    Jerome LELONG
    ESAIM: Probability and Statistics | 2013
    Nous étudions le taux de convergence des algorithmes stochastiques tronqués aléatoirement, qui consistent en la troncature de la procédure standard de Robbins-Monro sur une séquence croissante d'ensembles compacts. Une telle troncature est souvent requise en pratique pour assurer la convergence lorsque les algorithmes standards échouent parce que la fonction de valeur attendue croît trop rapidement. Dans ce travail, nous donnons une preuve autonome d'un théorème central limite pour cet algorithme sous des hypothèses locales sur la fonction de valeur attendue, qui sont assez faciles à vérifier en pratique.
  • Etude asymptotique des algorithmes stochastiques et calcul des prix des options Parisiennes.

    Jerome LELONG
    2007
    La première partie de cette thèse est consacrée à l'étude des algorithmes stochastiques aléatoirement tronqués de Chen et Zhu. La première étude de cet algorithme concerne sa convergence presque sûre. Dans le second chapitre, nous poursuivons l'étude de cet algorithme en nous intéressant à sa vitesse de convergence. Nous considérons également une version moyenne mobile de cet algorithme. Enfin nous terminons par quelques applications à la finance. La seconde partie de cette thèse s'intéresse à l'évaluation des options parisiennes en s'appuyant sur les travaux de Chesney, Jeanblanc et Yor. La méthode d'évaluation se base sur l'obtention de formules fermées pour les transformées de Laplace des prix par rapport à la maturité. Nous établissons ces formules pour les options parisiennes simple et double barrières. Nous étudions ensuite une méthode d'inversion numérique de ces transformées dont nous établissons la précision.
  • Etude asymptotique des algorithmes stochastiques et calcul des prix des options parisiennes.

    Jerome LELONG, Bernard LAPEYRE
    2007
    Cette thèse traite de deux sujets indépendants. La première partie est consacrée à l’étude des algorithmes stochastiques. Dans un premier chapitre introductif, je présente l’algorithme de dans un parallèle avec l’algorithme de Newton pour l’optimisation déterministe. Ces quelques rappels permettent alors d’introduire les algorithmes stochastiques aléatoirement tronqués de qui sont au coeur de cette thèse. La première étude de cet algorithme concerne sa convergence presque sûre qui est parfois établie sous des hypothèses assez changeantes. Ce premier chapitre est l’occasion de clarifier les hypothèses de la convergence presque sûre et d’en présenter une preuve simplifiée. Dans le second chapitre, nous poursuivons l’étude de cet algorithme en nous intéressant cette fois à sa vitesse de convergence. Plus exactement, nous considérons une version moyenne mobile de cet algorithme et démontrons un théorème centrale limite pour cette variante. Le troisième chapitre est consacré à deux applications de ces algorithmes à la finance : le premier exemple présente une méthode de calibration de la corrélation pour les modèles de marchés multidimensionnels alors que le second exemple poursuit les travaux de en améliorant ses résultats. La seconde partie de cette thèse s’intéresse à l’évaluation des options parisiennes en s’appuyant sur les travaux de Chesney, Jeanblanc-Picqué, and Yor. La méthode d’évaluation se base sur l’obtention de formules fermées pour les transformées de Laplace des prix par rapport à la maturité. Nous établissons ces formules pour les options parisiennes simple et double barrières. Nous étudions ensuite une méthode d’inversion numérique de ces transformées. Nous établissons un résultat sur la précision de cette méthode numérique tout à fait performante. A cette occasion, nous démontrons également des résultats liés à la régularité des prix et l’existence d’une densité par rapport à la mesure de Lebesgues pour les temps parisiens.
  • Étude asymptotique des algorithmes stochastiques et calcul du prix des options parisiennes.

    Jerome LELONG
    2007
    Cette thèse traite de deux sujets indépendants. La première partie est consacrée à l'étude des algorithmes stochastiques. Dans un premier chapitre introductif, je présente l'algorithme de [55] dans un parallèle avec l'algorithme de Newton pour l'optimisation déterministe. Ces quelques rappels permettent alors d'introduire les algorithmes stochastiques aléatoirement tronqués de [21] qui sont au cœur de cette thèse. La première étude de cet algorithme concerne sa convergence presque sûre qui est parfois établie sous des hypothèses assez changeantes. Ce premier chapitre est l'occasion de clarifier les hypothèses de la convergence presque sûre et d'en présenter une preuve simplifiée. Dans le second chapitre, nous poursuivons l'étude de cet algorithme en nous intéressant cette fois à sa vitesse de convergence. Plus exactement, nous considérons une version moyenne mobile de cet algorithme et démontrons un théorème centrale limite pour cette variante. Le troisième chapitre est consacré à deux applications de ces algorithmes à la finance : le premier exemple présente une méthode de calibration de la corrélation pour les modèles de marchés multidimensionnels alors que le second exemple poursuit les travaux de [7] en améliorant ses résultats. La seconde partie de cette thèse s'intéresse à l'évaluation des options parisiennes en s'appuyant sur les travaux de Chesney, Jeanblanc-Picqué, and Yor [23]. La méthode d'évaluation se base sur l'obtention de formules fermées pour les transformées de Laplace des prix par rapport à la maturité. Nous établissons ces formules pour les options parisiennes simple et double barrières. Nous étudions ensuite une méthode d'inversion numérique de ces transformées. Nous établissons un résultat sur la précision de cette méthode numérique tout à fait performante. A cette occasion, nous démontrons également des résultats liés à la régularité des prix et l'existence d'une densité par rapport à la mesure de Lebesgues pour les temps parisiens.
Les affiliations sont détectées à partir des signatures des publications identifiées dans scanR. Un auteur peut donc apparaître affilié à plusieurs structures ou tutelles en fonction de ces signatures. Les dates affichées correspondent seulement aux dates des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr