LAPEYRE Bernard

< Retour à ILB Patrimoine
Thématiques des productions
Affiliations
  • 2012 - 2020
    Centre d'Enseignement et de Recherche en Mathématiques et Calcul Scientifique
  • 2012 - 2019
    Mathematical risk handling
  • 2014 - 2015
    Centre de recherche insulaire et observatoire de l'environnement
  • 2014 - 2015
    Centre de recherche en biologie cellulaire de Montpellier
  • 2021
  • 2020
  • 2019
  • 2018
  • 2017
  • 2016
  • 2015
  • 2014
  • 2013
  • 2011
  • 2007
  • 2005
  • 2004
  • 2001
  • 2000
  • Régression par réseau neuronal pour l'évaluation des options des Bermudes.

    Bernard LAPEYRE, Jerome LELONG
    Monte Carlo Methods and Applications | 2021
    Pas de résumé disponible.
  • Facteur de volatilité stochastique de Jacobi pour le modèle de marché du Libor.

    Pierre edouard ARROUY, Alexandre BOUMEZOUED, Bernard LAPEYRE, Sophian MEHALLA
    2020
    Nous proposons une nouvelle méthode pour évaluer efficacement les dérivés de taux swap dans le cadre du modèle de marché LIBOR avec volatilité stochastique et diffusion déplacée (DDSVLMM). Cette méthode utilise des processus polynomiaux combinés à des techniques d'expansion de Gram-Charlier. La méthode d'évaluation standard de ce modèle repose sur le gel de la dynamique pour récupérer un modèle de type Heston pour lequel des formules analytiques sont disponibles. Cette approche prend du temps et des approximations efficaces basées sur les expansions de Gram-Charlier ont été récemment proposées. Dans cet article, nous discutons d'abord du fait que pour une classe de modèles de volatilité stochastique, y compris celui de Heston, la condition suffisante classique assurant la convergence de la série de Gram-Charlier ne peut être satisfaite. Ensuite, nous proposons un modèle d'approximation basé sur le processus de Jacobi pour lequel nous pouvons prouver la stabilité de l'expansion de Gram-Charlier. Pour cette approximation, nous avons pu prouver une forte convergence vers le modèle original. De plus, nous donnons une estimation du taux de convergence. Nous prouvons également un nouveau résultat sur la convergence de la série de Gram-Charlier lorsque le facteur de volatilité n'est pas borné par le bas. Enfin, nous illustrons nos résultats de convergence par des exemples numériques.
  • Analyse de l'erreur faible de discrétisation en temps et en particules d'équations différentielles stochastiques non linéaires au sens de McKean.

    Oumaima BENCHEIKH, Benjamin JOURDAIN, Bernard LAPEYRE, Benjamin JOURDAIN, Noufel FRIKHA, Lukasz SZPRUCH, Mireille BOSSY, Jean francois CHASSAGNEUX, Stephane MENOZZI, Noufel FRIKHA, Lukasz SZPRUCH
    2020
    Cette thèse est consacrée à l'étude théorique et numérique de l'erreur faible de discrétisation en temps et en particules d'Équations Différentielles Stochastiques non linéaires au sens de McKean. Nous abordons dans la première partie l'analyse de la vitesse faible de convergence de la discrétisation temporelle d'EDS standards. Plus spécifiquement, nous étudions la convergence en variation totale du schéma d'Euler-Maruyama appliqué à des ED d-dimensionnelles avec un coefficient de dérive mesurable et un bruit additif. Nous obtenons, en supposant que le coefficient de dérive est borné, un ordre de convergence faible 1/2. En rajoutant plus de régularité sur la dérive, à savoir une divergence spatiale au sens des distributions L[rho]-intégrable en espace uniformément en temps pour un certain [rho] supérieur ou égal à d, nous atteignons un ordre de convergence égal à 1 (à un facteur logarithmique près) au temps terminal. En dimension 1, ce résultat est préservé lorsque la dérivée spatiale de la dérive est une mesure en espace avec une masse totale bornée uniformément en temps. Dans la deuxième partie de la thèse, nous analysons l'erreur faible de discrétisation à la fois en temps et en particules de deux classes d'EDS non-linéaires au sens de McKean. La première classe consiste en des EDS multi-dimensionnelles avec des coefficients de dérive et de diffusion réguliers dans lesquels la dépendance en loi intervient au travers de moments. La deuxième classe, quant à elle, consiste en des EDS uni-dimensionnelles avec un coefficient de diffusion constant et un coefficient de dérive singulier où la dépendance en loi intervient au travers de la fonction de répartition. Nous approchons les EDS par les schémas d'Euler-Maruyama des systèmes de particules associés et nous obtenons pour les deux classes un ordre de convergence faible égal à 1 en temps et en particules. Dans la seconde classe, nous prouvons aussi un résultat de propagation du chaos d'ordre optimal 1/2 en particules ainsi qu'un ordre fort de convergence égal à 1 en temps et 1/2 en particules. Tous nos résultats théoriques sont illustrés par des simulations numériques.
  • Une équation à terme pour le calcul de l'exposition aux produits dérivés.

    Bernard LAPEYRE, Marouan iben TAARIT
    International Journal of Theoretical and Applied Finance | 2019
    Pas de résumé disponible.
  • Régression par réseau neuronal pour l'évaluation des options des Bermudes.

    Bernard LAPEYRE, Jerome LELONG
    2019
    L'évaluation des options bermudiennes revient à résoudre un principe de programmation dynamique, dans lequel la principale difficulté, surtout en grande dimension, provient du calcul de l'espérance conditionnelle impliquée dans la valeur de continuation. Ces espérances conditionnelles sont classiquement calculées par des techniques de régression sur un espace vectoriel de dimension finie. Dans ce travail, nous étudions l'approximation des réseaux neuronaux des espérances conditionnelles. Nous prouvons la convergence de l'algorithme bien connu de Longstaff et Schwartz lorsque la régression standard des moindres carrés est remplacée par une approximation par réseau neuronal.
  • Valorisation des ajustements Xva : de l’exposition espérée aux risques adverses de corrélation.

    Marouan IBEN TAARIT, Bernard LAPEYRE, Monique JEANBLANC, Bernard LAPEYRE, Romuald ELIE, Etienne VARLOOT, Stephane CREPEY, Frederic ABERGEL
    2018
    Nous entamons ce rapport de thèse par l’évaluation de l’espérance espérée qui représente une des composantes majeures des ajustements XVA. Sous l’hypothèse d’indépendance entre l’exposition et les coûts de financement et de crédit, nous dérivons dans le chapitre 3 une représentation nouvelle de l’exposition espérée comme la solution d’une équation différentielle ordinaire par rapport au temps d’observation du défaut. Nous nous basons, pour le cas unidimensionnel, sur des arguments similaires à ceux de la volatilité locale de Dupire. Et pour le cas multidimensionnel, nous nous référons à la formule de la Co-aire. Cette représentation permet d’expliciter l’impact de la volatilité sur l’exposition espérée : Cette valeur temps fait intervenir la volatilité des sous-jacents ainsi que la sensibilité au premier ordre du prix, évalués sur un ensemble fini de points. Malgré des limitations numériques, cette méthode est une approche précise et rapide pour la valorisation de la XVA unitaire en dimension 1 et 2.Les chapitres suivants sont dédiés aux aspects du risque de corrélations entre les enveloppes d’expositions et les coûts XVA. Nous présentons une modélisation du risque général de corrélation à travers une diffusion stochastique multivariée, comprenant à la fois les sous-jacents des dérivés et les intensités de défaut. Dans ce cadre, nous exposons une nouvelle approche de valorisation par développements asymptotiques, telle que le prix d’un ajustement XVA correspond au prix de l’ajustement à corrélation nulle, auquel s’ajoute une somme explicite de termes correctifs. Le chapitre 4 est consacré à la dérivation technique et à l’étude de l’erreur numérique dans le cadre de la valorisation de dérivés contingents au défaut. La qualité des approximations numériques dépend uniquement de la régularité du processus de diffusion de l’intensité de crédit, et elle est indépendante de la régularité de la fonction payoff. Les formules de valorisation pour CVA et FVA sont présentées dans le chapitre 5. Une généralisation des développements asymptotiques pour le cadre bilatéral de défaut est adressée dans le chapitre 6.Nous terminons ce mémoire en abordant un cas du risque spécifique de corrélation lié aux contrats de migration de rating. Au-delà des formules de valorisation, notre contribution consiste à présenter une approche robuste pour la construction et la calibration d’un modèle de transition de ratings consistant avec les probabilités de défaut implicites de marché.
  • Analyse de la dynamique du ph?nom?ne de contagion entre les obligations souveraines europ?ennes au cours des r?cents ?pisodes de crises financi?res.

    Marc henri THOUMIN, Alain GALLI, Bernard LAPEYRE, Alain GALLI, Margaret ARMSTRONG, Sandrine UNGARI, Delphine LAUTIER, Siem jan KOOPMAN
    2017
    Les p?riodes marqu?es par une aversion au risque intense sont souvent l?origine de distorsions notables dans les prix de march?, et de pertes substantielles pour les investisseurs. Chaque ?pisode de crise financi?re montre que les mouvements de ventes g?n?ralis?es sur les march?s ont des cons?quences tr?s n?gatives sur l??conomie r?elle. Ainsi, explorer le ph?nom?ne d?aversion au risque et la dynamique de propagation du sentiment de panique sur les march?s financiers peut aider ? appr?hender ces p?riodes de forte volatilit?.Dans ce rapport de th?se, nous explorons diff?rentes dimensions du ph?nom?ne d?aversion au risque, dans le cadre de portefeuilles d?obligations souveraines Europ?ennes. Le rendement des obligations d?Etat, quott? par les traders, est sens? refl?ter entre autre le risque que le Tr?sor fasse d?faut sur sa dette, avant que l?obligation vienne ? maturation. Il s?agit l? du risque souverain. Les crises financi?res habituellement occasionnent un mouvement important des rendements vers des niveaux plus ?lev?s. Ce type de correction refl?te un accroissement du risque souverain, et implique n?cessairement une hausse du co?t de financement pour les Tr?sors nationaux. Un objectif de ce rapport est donc de fournir des d?tails in?dits aux Tr?sors sur la mani?re dont les rendements obligataires sont sens?s se d?t?riorer en p?riode d?aversion au risque.Chapitre I explore le risque souverain dans le cadre d?un mod?le probabiliste impliquant des distributions ? queues lourdes, ainsi que la m?thode GAS qui permet de capturer la dynamique de la volatilit?. L?ajustement obtenu avec les distributions Hyperboliques G?n?ralis?es est robuste, et les r?sultats laissent penser que notre approche est particuli?rement efficace durant les p?riodes marqu?es par une volatilit? erratique. Dans un but de simplification, nous d?crivons la mise en place d?un estimateur de volatilit? intemporel, sens? refl?ter la volatilit? intrins?que de chaque obligation. Cet estimateur sugg?re que la volatilit? croit de mani?re quadratique lorsque celle-ci est exprim?e en fonction de la fonction de r?partition des variations de rendements. Dans un second temps nous explorons une version bivari?e du mod?le. La calibration, robuste, met en valeur les corr?lations entre chaque obligation. En guise d?observation g?n?rale, notre analyse confirme que les distributions ? queues ?paisses sont tout ? fait appropri?es pour l?exploration des prix de march? en p?riode de crise financi?re.Chapitre II explore diff?rentes mani?res d?exploiter notre mod?le probabiliste. Afin d?identifier la dynamique de la contagion entre les obligations souveraines, nous analysons la r?action attendue du march? ? une s?rie de chocs financiers. Nous consid?rons un niveau important de granularit? pour ce qui est de la s?v?rit? du choc sous-jacent, et ceci nous permet d?identifier des lois empiriques suppos?es g?n?raliser le comportement de la r?action de march? lorsque l?aversion au risque s?intensifie. Puis, nous incorporons nos estimateurs de volatilit? et de r?action de march? ? certaines approches reconnues d?optimisation de portefeuille et nous notons une am?lioration de la r?sistance des portefeuilles, dans cette nouvelle version. Finalement, nous d?veloppons une nouvelle m?thodologie d?optimisation de portefeuille bas?e sur le principe de mean-reversion.Chapitre III est d?di? au pricing de produits d?riv?s de taux. Nous consid?rons maintenant que l?aversion au risque cause l??mergence de discontinuit?s dans les prix de march?, que nous simulons par le biais de processus ? sauts. Notre mod?le se concentre sur les processus de Hawkes qui ont l?avantage de capturer la pr?sence d?auto-excitation dans la volatilit?. Nous d?veloppons une proc?dure de calibration qui se distingue des proc?dures habituelles. Les r?sultats de volatilit? implicite sont coh?rents avec la volatilit? r?alis?e, et sugg?rent que les coefficients de prime de risque ont ?t? estim?s avec succ?s.
  • Un modèle simple basé sur le PIB pour les investissements publics à risque.

    Bernard LAPEYRE, Emile QUINET
    Journal of Benefit-Cost Analysis | 2017
    Les règles de décision d'investissement en situation de risque ont été largement analysées pour les entreprises. La plupart des recherches se concentrent sur les options financières et le large éventail de méthodes basées sur la programmation dynamique actuellement utilisées par les entreprises pour décider si et quand réaliser un investissement irréversible en situation d'incertitude. La situation est très différente pour les investissements publics, qui sont décidés et largement financés par les autorités publiques. Ces investissements sont évalués par les autorités publiques, non pas en fonction de critères de marché, mais par des procédures publiques d'analyse coûts-bénéfices (ACB). Curieusement, ces procédures accordent peu d'attention au risque et à l'incertitude. Le présent texte vise à combler cette lacune. Nous abordons le problème classique de savoir si et quand un investissement doit être mis en œuvre. Ce problème de temps d'arrêt est établi dans un cadre où le taux d'actualisation est typiquement lié au PIB, qui suit un mouvement brownien, et où les bénéfices et le coût de la mise en œuvre suivent des mouvements browniens liés. Nous constatons que la règle de décision dépend d'une valeur seuil du ratio avantages/coûts de la première année. Ce seuil peut être exprimé sous une forme fermée comprenant les moyennes, les écarts types et les corrélations des variables stochastiques. Les simulations avec les valeurs actuelles sensibles de ces paramètres montrent que le risque systémique, provenant de la corrélation entre les bénéfices de l'investissement et la croissance économique, n'est pas si élevé, et que plus d'attention devrait être accordée aux risques liés au coût de construction de l'investissement. en outre, des règles simples sont conçues pour estimer le seuil mentionné ci-dessus.
  • Entretien des infrastructures, régénération et économie de la qualité de service : Un exemple ferroviaire.

    Marc GAUDRY, Bernard LAPEYRE, Emile QUINET
    Transportation Research Part B: Methodological | 2016
    Cet article propose un cadre formalisé pour l'optimisation économique conjointe de la maintenance continue et de la régénération périodique de l'infrastructure de transport ferroviaire en tenant compte de la production consistant non seulement en niveaux de trafic mais aussi en qualité de service de la voie. Contrairement à de nombreux travaux d'optimisation portant sur des travaux d'entretien contigus dans l'espace, l'accent économique principal et l'objectif sont centrés sur l'allocation optimale des dépenses d'entretien courant et de renouvellement périodique, sur leur répartition annuelle entre les grandes partitions du réseau et sur la tarification de l'infrastructure. Les équations du modèle sont basées sur des hypothèses très simples de lois de dégradation de l'infrastructure et sur la fonction objectif d'un gestionnaire optimisé par des procédures de contrôle optimal. Les équations sont testées sur des bases de données nationales de segments de voies ferrées françaises en utilisant des transformations Box-Cox et correspondent aux pratiques de régénération et d'entretien des voies ferrées en vigueur en France. Plus généralement, l'article apporte une large contribution à la théorie du capital, sur la maintenance et le renouvellement optimaux des équipements, et définit une méthode applicable non seulement aux autres infrastructures de transport mais aussi à un large éventail de biens d'équipement, notamment les logements, les voitures et les machines industrielles.
  • Entretien des infrastructures, régénération et économie de la qualité de service : Un exemple ferroviaire.

    Marc GAUDRY, Bernard LAPEYRE, Emile QUINET
    2015
    Une version antérieure du 6 octobre 2010 par Gaudry et Quinet, intitulée Optimisation de l'entretien et de la régénération d'une infrastructure : exploration d'hypothèses, a bénéficié des commentaires de Bernard Caillaud et Matthieu de Lapparent et a été présentée sans tests économétriques à la conférence Kuhmo Nectar sur l'économie des transports à Stockholm le 1er juillet 2011 sous le titre " Joint optimization of continuous maintenance and periodic renewal ". Les auteurs remercient Marc Antoni, Richard Arnott, David Meunier et Yves Puttalaz pour les discussions ou commentaires, Cong-Liem Tran pour l'assistance informatique et sont reconnaissants à la Société nationale des chemins de fer français (SNCF) pour son soutien financier et pour avoir permis l'inclusion dans cette version d'estimations basées sur les bases de données construites par Michel Ikonomov et Pascaline Boyer. Les estimations exploratoires obtenues à partir de spécifications de régression à forme fixe ont été présentées à la conférence Kuhmo Nectar sur l'économie des transports à Berlin le 21 juin 2012 grâce aux bons offices de David Meunier.
  • Modélisation du smile de volatilité pour les produits dérivés de taux d'intérêt.

    Ernesto PALIDDA, Bernard LAPEYRE, Nicole EL KAROUI, Bernard LAPEYRE, Aurelien ALFONSI, Christophe MICHEL, Damiano BRIGO, Martino GRASSELLI
    2015
    L'objet de cette thèse est l'étude d'un modèle de la dynamique de la courbe de taux d'intérêt pour la valorisation et la gestion des produits dérivées. En particulier, nous souhaitons modéliser la dynamique des prix dépendant de la volatilité. La pratique de marché consiste à utiliser une représentation paramétrique du marché, et à construire les portefeuilles de couverture en calculant les sensibilités par rapport aux paramètres du modèle. Les paramètres du modèle étant calibrés au quotidien pour que le modèle reproduise les prix de marché, la propriété d'autofinancement n'est pas vérifiée. Notre approche est différente, et consiste à remplacer les paramètres par des facteurs, qui sont supposés stochastiques. Les portefeuilles de couverture sont construits en annulant les sensibilités des prix à ces facteurs. Les portefeuilles ainsi obtenus vérifient la propriété d’autofinancement.
  • TRM6/61 relie PKCα au contrôle de la traduction par la stabilisation du tRNAiMet : impact sur la tumorigenèse.

    F MACARI, Y EL HOUFI, G BOLDINA, H XU, S KHOURY HANNA, J OLLIER, L YAZDANI, G ZHENG, I BIECHE, N LEGRAND, D PAULET, S DURRIEU, A BYSTROM, S DELBECQ, B LAPEYRE, L BAUCHET, J PANNEQUIN, F HOLLANDE, T PAN, M TEICHMANN, S VAGNER, A DAVID, A CHOQUET, D JOUBERT
    Oncogene | 2015
    Une accumulation de preuves suggère que les changements de la machinerie de synthèse protéique altèrent la traduction d'ARNm spécifiques et participent à la transformation maligne. Nous montrons ici que la protéine kinase C α (PKCα) interagit avec TRM61, la sous-unité catalytique de la méthyltransférase d'ARNt TRM6/61. Le complexe TRM6/61 est connu pour méthyler l'adénosine 58 de l'ARNt initiateur méthionine (tRNAiMet), une modification post-transcriptionnelle nucléaire associée à la stabilisation de ce composant crucial du processus d'initiation de la traduction. La déplétion du TRM6/61 réduit la prolifération et augmente la mort des cellules de gliome C6, effets qui peuvent être partiellement corrigés par la surexpression du tRNAiMet. En revanche, l'expression élevée de TRM6/61 régule la traduction d'un sous-ensemble d'ARNm codant pour des protéines impliquées dans le processus tumorigène et augmente la capacité des cellules C6 à former des colonies dans de la gélose molle ou des sphères lorsqu'elles sont cultivées en suspension. Dans les cellules surexprimant TRM6/61/tRNAiMet, la surexpression de PKCα a diminué l'expression de tRNAiMet et les potentiels de formation de colonies et de sphères. Une augmentation concomitante de l'expression de l'ARNm TRM6/TRM61 et de l'ARNiMet avec une diminution de l'expression de l'ARNm PKCα a été détectée dans les glioblastomes multiforme hautement agressifs par rapport aux glioblastomes de grade II/III, soulignant la pertinence clinique de nos résultats. Dans l'ensemble, nous suggérons que PKCα contrôle étroitement l'activité de TRM6/61 pour empêcher la dérégulation de la traduction qui favoriserait le développement néoplasique.
  • Effets de rétroaction en finance : applications à l'exécution optimaleet aux modèles de volatilité.

    Pierre BLANC, Aurelien ALFONSI, Bernard LAPEYRE, Aurelien ALFONSI, Michel CROUHY, Jean philippe BOUCHAUD, Olivier GUEANT, Mathieu ROSENBAUM, Jim GATHERAL
    2015
    Dans cette thèse, nous considérons deux types d'application des effets de rétroaction en finance. Ces effets entrent en jeu quand des participants de marché exécutent des séquences de transactions ou prennent part à des réactions en chaîne, ce qui engendre des pics d'activité. La première partie présente un modèle d'exécution optimale dynamique en présence d'un flux stochastique et exogène d'ordres de marché. Nous partons du modèle de référence d'Obizheva et Wang, qui définit un cadre d'exécution optimale avec un impact de prix mixte. Nous y ajoutons un flux d'ordres modélisé à l'aide de processus de Hawkes, qui sont des processus à sauts présentant une propriété d'auto-excitation. A l'aide de la théorie du contrôle stochastique, nous déterminons la stratégie optimale de manière analytique. Puis nous déterminons les conditions d'existence de Stratégies de Manipulation de Prix, telles qu'introduites par Huberman et Stanzl. Ces stratégies peuvent être exclues si l'auto-excitation du flux d'ordres se compense exactement avec la résilience du prix. Dans un deuxième temps, nous proposons une méthode de calibration du modèle, que nous appliquons sur des données financières à haute fréquence issues de cours d'actions du CAC40. Sur ces données, nous trouvons que le modèle explique une partie non-négligeable de la variance des prix. Une évaluation de la stratégie optimale en backtest montre que celle-ci est profitable en moyenne, mais que des coûts de transaction réalistes suffisent à empêcher les manipulations de prix. Ensuite, dans la deuxième partie de la thèse, nous nous intéressons à la modélisation de la volatilité intra-journalière. Dans la littérature, la plupart des modèles de volatilité rétroactive se concentrent sur l'échelle de temps journalière, c'est-à-dire aux variations de prix d'un jour sur l'autre. L'objectif est ici d'étendre ce type d'approche à des échelles de temps plus courtes. Nous présentons d'abord un modèle de type ARCH ayant la particularité de prendre en compte séparément les contributions des rendements passés intra-journaliers et nocturnes. Une méthode de calibration de ce modèle est étudiée, ainsi qu'une interprétation qualitative des résultats sur des rendements d'actions américaines et européennes. Dans le chapitre suivant, nous réduisons encore l'échelle de temps considérée. Nous étudions un modèle de volatilité à haute fréquence, dont l'idée est de généraliser le cadre des processus Hawkes pour mieux reproduire certaines caractéristiques empiriques des marchés. Notamment, en introduisant des effets de rétroaction quadratiques inspirés du modèle à temps discret QARCH nous obtenons une distribution en loi puissance pour la volatilité ainsi que de l'asymétrie temporelle.
  • Fixation du prix des produits dérivés sur les unités de traitement graphique à l'aide de la simulation de Monte Carlo.

    Lokman a. ABBAS TURKI, Stephane VIALLE, Bernard LAPEYRE, Patrick MERCIER
    Concurrency and Computation: Practice and Experience | 2014
    Cet article porte sur l'utilisation de l'approche de Monte Carlo existante pour l'évaluation des contrats européens et américains sur une architecture GPU (graphics processing unit) de pointe. Tout d'abord, nous adaptons sur un cluster de GPU deux paradigmes différents de parallélisation des générateurs de nombres aléatoires, qui ont été développés pour des clusters de CPU. Étant donné que dans les applications financières, nous demandons des résultats en quelques secondes après la simulation, les calculs suffisamment importants doivent être mis en œuvre sur un cluster de machines. Ainsi, nous effectuons la comparaison du contrat européen entre les CPU et les GPU en utilisant de un à 16 nœuds d'un cluster CPU/GPU. Nous montrons que l'utilisation des GPU pour les contrats européens réduit le temps d'exécution de ∼ 40 et diminue l'énergie consommée de ∼ 50 pendant la simulation. Dans la deuxième série d'expériences, nous étudions les avantages de l'utilisation de la parallélisation des GPU pour l'évaluation des options américaines qui nécessitent la résolution d'un problème d'arrêt optimal et que nous mettons en œuvre en utilisant la méthode de régression de Longstaff et Schwartz. Le résultat d'accélération obtenu pour les options américaines varie entre 2 et 10 selon le nombre de chemins générés, les dimensions et la discrétisation temporelle.
  • Modélisation Stochastique des carnets d'ordres.

    Aymen JEDIDI, Frederic ABERGEL, Jim GATHERAL, Frederic ABERGEL, Bernard LAPEYRE, Mathieu ROSEMBAUM, Emmanuel BACRY, Jean philippe BOUCHARD, Bernard LAPEYRE, Mathieu ROSEMBAUM
    2014
    Cette thèse étudie quelques aspects de la modélisation stochastique des carnets d'ordres. Nous analysons dans la première partie un modèle dans lequel les temps d'arrivées des ordres sont Poissoniens indépendants. Nous démontrons que le carnet d'ordres est stable (au sens des chaines de Markov) et qu'il converge vers sa distribution stationnaire exponentiellement vite. Nous en déduisons que le prix engendré dans ce cadre converge vers un mouvement Brownien aux grandes échelles de temps. Nous illustrons les résultats numériquement et les comparons aux données de marché en soulignant les succès du modèle et ses limites. Dans une deuxième partie, nous généralisons les résultats à un cadre où les temps d'arrivés sont régis par des processus auto et mutuellement existants, moyennant des hypothèses sur la mémoire de ces processus. La dernière partie est plus appliquée et traite de l'identification d'un modèle réaliste multivarié à partir des flux des ordres. Nous détaillons deux approches : la première par maximisation de la vraisemblance et la seconde à partir de la densité de covariance, et réussissons à avoir une concordance remarquable avec les données. Nous appliquons le modèle ainsi estimé à deux problèmes concrets de trading algorithmique, à savoir la mesure de la probabilité d'exécution et le coût d'un ordre limite.
  • Accélération de la méthode de Monte Carlo pour des processus de diffusions et applications en Finance.

    Kaouther HAJJI, Ahmed KEBAIER, Mohamed BEN ALAYA, Gilles PAGES, Jean stephane DHERSIN, Gersende FORT, Yueyun HU, Denis TALAY, Bernard LAPEYRE
    2014
    Dans cette thèse, on s’intéresse à la combinaison des méthodes de réduction de variance et de réduction de la complexité de la méthode Monte Carlo. Dans une première partie de cette thèse, nous considérons un modèle de diffusion continu pour lequel on construit un algorithme adaptatif en appliquant l’importance sampling à la méthode de Romberg Statistique Nous démontrons un théorème central limite de type Lindeberg Feller pour cet algorithme. Dans ce même cadre et dans le même esprit, on applique l’importance sampling à la méthode de Multilevel Monte Carlo et on démontre également un théorème central limite pour l’algorithme adaptatif obtenu. Dans la deuxième partie de cette thèse,on développe le même type d’algorithme pour un modèle non continu à savoir les processus de Lévy. De même, nous démontrons un théorème central limite de type Lindeberg Feller. Des illustrations numériques ont été menées pour les différents algorithmes obtenus dans les deux cadres avec sauts et sans sauts.
  • Utilisation de Premia et de Nsp pour construire un repère de gestion des risques pour tester l'architecture parallèle.

    Jean philippe CHANCELIER, Bernard LAPEYRE, Jerome LELONG
    Concurrency and Computation: Practice and Experience | 2014
    Les institutions financières doivent effectuer des calculs massifs pendant la nuit, qui sont très exigeants en termes d'unités centrales consommées. Le défi consiste à évaluer de nombreux produits différents sur une architecture de type cluster. Nous avons utilisé le logiciel Premia pour évaluer les produits financiers dérivés. Dans ce travail, nous expliquons comment Premia peut être intégré dans Nsp, un logiciel scientifique comme Matlab, afin de fournir un outil puissant pour évaluer un portefeuille entier. Enfin, nous avons intégré une boîte à outils MPI dans Nsp pour permettre d'utiliser Premia pour résoudre un ensemble de problèmes d'évaluation sur un cluster. Ce cadre unifié peut ensuite être utilisé pour tester différentes architectures parallèles.
  • Propriétés empiriques et modélisation d’actifs en haute fréquence.

    Riadh ZAATOUR, Frederic ABERGEL, Bernard LAPEYRE, Frederic ABERGEL, Fulvio BALDOVIN, Emmanuel BACRY, Stephane TYC, Bernard LAPEYRE, Fulvio BALDOVIN
    2013
    Cette thèse explore théoriquement et empiriquement certains aspects de la formation et de l’évolution des prix des actifs financiers observés en haute fréquence. Nous commençons par l’étude de la dynamique jointe de l’option et de son sous-jacent. Les données haute fréquence rendant observable le processus de volatilité réalisée du sous-jacent, nous cherchons à savoir si cette information est utilisée pour fixer les prix des options. Nous trouvons que le marché ne l’exploite pas. Les modèles de volatilité stochastique sont donc à considérer comme des modèles à forme réduite. Cette étude permet néanmoins de tester la pertinence d’une mesure de couverture empirique que nous appelons delta effectif. C’est la pente de la régression des rendements des prix de l’option sur ceux du sous-jacent. Elle fournit un indicateur de couverture assez satisfaisant et indépendant de toute modélisation. Pour la dynamique des prix, nous nous tournons dans les chapitres suivants vers des modèles plus explicites de la microstructure du marché. L’une des caractéristiques de l’activité de marché est son regroupement, ou clustering. Les processus de Hawkes, processus ponctuels présentant cette caractéristique, fournissent donc un cadre mathématique adéquat pour l’étude de cette activité. La représentation Markovienne de ces processus, ainsi que leur caractère affine quand le noyau est exponentiel, permettent de recourir aux puissants outils analytiques que sont le générateur infinitésimal et la formule de Dynkin pour calculer différentes quantités qui leur sont reliées, telles que les moments ou autocovariances du nombre d’évènements sur un intervalle donné. Nous commençons par un cadre monodimensionnel, assez simple pour éclairer la démarche, mais suffisamment riche pour permettre des applications telles que le groupement des instants d’arrivée d’ordres de marché, la prévision de l’activité de marché à venir sachant l’activité passée, ou la caractérisation de formes inhabituelles, mais néanmoins observées, de signature plot où la volatilité mesurée décroît quand la fréquence d’échantillonnage augmente. Nos calculs nous permettent aussi de rendre la calibration des processus de Hawkes instantanée en recourant à la méthode des moments. La généralisation au cas multidimensionnel nous permet ensuite de capturer, avec le clustering, le phénomène de retour à la moyenne qui caractérise aussi l’activité de marché observée en haute fréquence. Des formules générales pour le signature plot sont alors obtenues et permettent de relier la forme de celui-ci à l’importance relative du clustering ou du retour à la moyenne. Nos calculs permettent aussi d’obtenir la forme explicite de la volatilité associée à la limite diffusive, connectant la dynamique de niveau microscopique à la volatilité observée macroscopiquement, par exemple à l’échelle journalière. En outre, la modélisation des activités d’achat et de vente par des processus de Hawkes permet de calculer l’impact d’un méta ordre sur le prix de l’actif. On retrouve et on explique alors la forme concave de cet impact ainsi que sa relaxation temporelle. Les résultats analytiques obtenus dans le cas multidimensionnel fournissent ensuite le cadre adéquat à l’étude de la corrélation. On présente alors des résultats généraux sur l’effet Epps, ainsi que sur la formation de la corrélation et du lead lag.
  • A Forward Solution for Computing Risk-Neutral Derivatives Exposure.

    Marouan IBEN TAARIT, Bernard LAPEYRE
    SSRN Electronic Journal | 2013
    Dans cet article, nous dérivons une formule analytique avancée pour calculer l'exposition attendue des produits financiers dérivés. Sous des hypothèses générales concernant le processus de diffusion sous-jacent, nous donnons une décomposition pratique de l'exposition en deux termes : Le premier terme est une partie de la valeur intrinsèque qui est directement déduite de la structure des termes de l'évaluation à terme du marché. Le second terme exprime la variabilité du mark-to-market futur et représente la partie valeur temps. Résumé Dans l'esprit de l'équation de Dupire pour la volatilité locale, notre représentation établit une équation différentielle pour l'évolution de l'exposition attendue par rapport aux dates d'observation. Nos résultats sont de deux ordres : Premièrement, nous dérivons analytiquement une formule intégrale pour l'espérance de l'exposition et nous mettons en évidence des liens directs avec les temps locaux et la formule de co-zone. Deuxièmement, nous montrons que, d'un point de vue numérique, notre solution peut être considérablement efficace par rapport aux méthodes numériques standard. La précision et l'efficacité temporelle de la représentation prospective présentent un intérêt particulier pour l'évaluation comparative des ajustements d'évaluation XVA au niveau de la transaction.
  • Méthodes et modèles numériques appliqués aux risques du marché et à l’évaluation financière.

    Jose arturo INFANTE ACEVEDO, Tony LELIEVRE, Bernard LAPEYRE, Tony LELIEVRE, Mohamed BACCOUCHE, Aurelien ALFONSI, Frederic ABERGEL, Yves ACHDOU
    2013
    Ce travail de thèse aborde deux sujets : (i) L'utilisation d'une nouvelle méthode numérique pour l'évaluation des options sur un panier d'actifs, (ii) Le risque de liquidité, la modélisation du carnet d'ordres et la microstructure de marché. Premier thème : Un algorithme glouton et ses applications pour résoudre des équations aux dérivées partielles. L'exemple typique en finance est l'évaluation d'une option sur un panier d'actifs, laquelle peut être obtenue en résolvant l'EDP de Black-Scholes ayant comme dimension le nombre d'actifs considérés. Nous proposons d'étudier un algorithme qui a été proposé et étudié récemment dans [ACKM06, BLM09] pour résoudre des problèmes en grande dimension et essayer de contourner la malédiction de la dimension. L'idée est de représenter la solution comme une somme de produits tensoriels et de calculer itérativement les termes de cette somme en utilisant un algorithme glouton. La résolution des EDP en grande dimension est fortement liée à la représentation des fonctions en grande dimension. Dans le Chapitre 1, nous décrivons différentes approches pour représenter des fonctions en grande dimension et nous introduisons les problèmes en grande dimension en finance qui sont traités dans ce travail de thèse. La méthode sélectionnée dans ce manuscrit est une méthode d'approximation non-linéaire appelée Proper Generalized Decomposition (PGD). Le Chapitre 2 montre l'application de cette méthode pour l'approximation de la solution d'une EDP linéaire (le problème de Poisson) et pour l'approximation d'une fonction de carré intégrable par une somme des produits tensoriels. Un étude numérique de ce dernier problème est présenté dans le Chapitre 3. Le problème de Poisson et celui de l'approximation d'une fonction de carré intégrable serviront de base dans le Chapitre 4 pour résoudre l'équation de Black-Scholes en utilisant l'approche PGD. Dans des exemples numériques, nous avons obtenu des résultats jusqu'en dimension 10. Outre l'approximation de la solution de l'équation de Black-Scholes, nous proposons une méthode de réduction de variance des méthodes Monte Carlo classiques pour évaluer des options financières. Second thème : Risque de liquidité, modélisation du carnet d'ordres, microstructure de marché. Le risque de liquidité et la microstructure de marché sont devenus des sujets très importants dans les mathématiques financières. La dérégulation des marchés financiers et la compétition entre eux pour attirer plus d'investisseurs constituent une des raisons possibles. Dans ce travail, nous étudions comment utiliser cette information pour exécuter de façon optimale la vente ou l'achat des ordres. Les ordres peuvent seulement être placés dans une grille des prix. A chaque instant, le nombre d'ordres en attente d'achat (ou vente) pour chaque prix est enregistré. Dans [AFS10], Alfonsi, Fruth et Schied ont proposé un modèle simple du carnet d'ordres. Dans ce modèle, il est possible de trouver explicitement la stratégie optimale pour acheter (ou vendre) une quantité donnée d'actions avant une maturité. L'idée est de diviser l'ordre d'achat (ou de vente) dans d'autres ordres plus petits afin de trouver l'équilibre entre l'acquisition des nouveaux ordres et leur prix. Ce travail de thèse se concentre sur une extension du modèle du carnet d'ordres introduit par Alfonsi, Fruth et Schied. Ici, l'originalité est de permettre à la profondeur du carnet d'ordres de dépendre du temps, ce qui représente une nouvelle caractéristique du carnet d'ordres qui a été illustré par [JJ88, GM92, HH95, KW96]. Dans ce cadre, nous résolvons le problème de l'exécution optimale pour des stratégies discrètes et continues. Ceci nous donne, en particulier, des conditions suffisantes pour exclure les manipulations des prix au sens de Huberman et Stanzl [HS04] ou de Transaction-Triggered Price Manipulation (voir Alfonsi, Schied et Slynko).
  • Processus matriciels : simulation et mod?lisation de la d?pendance en finance.

    Abdelkoddousse AHDIDA, Bernard LAPEYRE, Nizar TOUZI, Bernard LAPEYRE, Aur?lien ALFONSI, Lorenzo BERGOMI, Josef TEICHMANN, Arturo KOHATSU HIGA
    2011
    La premi?re partie de cette th?se est consacr?e ? la simulation des ?quations diff?rentielles stochastiques d?finies sur le c?ne des matrices sym?triques positives. Nous pr?sentons de nouveaux sch?mas de discr?tisation d'ordre ?lev? pour ce type d'?quations diff?rentielles stochastiques, et ?tudions leur convergence faible. Nous nous int?ressons tout particuli?rement au processus de Wishart, souvent utilis? en mod?lisation financi?re. Pour ce processus nous proposons ? la fois un sch?ma exact en loi et des discr?tisations d'ordre ?lev?. A ce jour, cette m?thode est la seule qui soit utilisable quels que soient les param?tres intervenant dans la d?finition de ces mod?les. Nous montrons, par ailleurs, comment on peut r?duire la complexit? algorithmique de ces m?thodes et nous v?rifions les r?sultats th?oriques sur des impl?mentations num?riques. Dans la deuxi?me partie, nous nous int?ressons ? des processus ? valeurs dans l'espace des matrices de corr?lation. Nous proposons une nouvelle classe d'?quations diff?rentielles stochastiques d?finies dans cet espace. Ce mod?le peut ?tre consid?r? comme une extension du mod?le Wright-Fisher (ou processus Jacobi) ?l'espace des matrice de corr?lation. Nous ?tudions l'existence faible et forte des solutions. Puis, nous explicitons les liens avec les processus de Wishart et les processus de Wright-Fisher multi-all?les. Nous d?montrons le caract?re ergodique du mod?le et donnons des repr?sentations de Girsanov susceptibles d'?tre employ?es en finance. En vue d'une utilisation pratique, nous explicitons deux sch?mas de discr?tisation d'ordre ?lev?. Cette partie se conclut par des r?sultats num?riques illustrant le comportement de la convergence de ces sch?mas. La derni?re partie de cette th?se est consacr?e ? l'utilisation des ces processus pour des questions de mod?lisation multi-dimensionnelle en finance. Une question importante de mod?lisation, aujourd'hui encore difficile ? traiter, est l'identification d'un type de mod?le permettant de calibrer ? la fois le march? des options sur un indice et sur ses composants. Nous proposons, ici, deux types de mod?les : l'un ? corr?lation locale et l'autre ? corr?lation stochastique. Dans ces deux cas, nous expliquons quelle proc?dure on doit adopter pour obtenir une bonne calibration des donn?es de march?.
  • Etude asymptotique des algorithmes stochastiques et calcul des prix des options parisiennes.

    Jerome LELONG, Bernard LAPEYRE
    2007
    Cette thèse traite de deux sujets indépendants. La première partie est consacrée à l’étude des algorithmes stochastiques. Dans un premier chapitre introductif, je présente l’algorithme de dans un parallèle avec l’algorithme de Newton pour l’optimisation déterministe. Ces quelques rappels permettent alors d’introduire les algorithmes stochastiques aléatoirement tronqués de qui sont au coeur de cette thèse. La première étude de cet algorithme concerne sa convergence presque sûre qui est parfois établie sous des hypothèses assez changeantes. Ce premier chapitre est l’occasion de clarifier les hypothèses de la convergence presque sûre et d’en présenter une preuve simplifiée. Dans le second chapitre, nous poursuivons l’étude de cet algorithme en nous intéressant cette fois à sa vitesse de convergence. Plus exactement, nous considérons une version moyenne mobile de cet algorithme et démontrons un théorème centrale limite pour cette variante. Le troisième chapitre est consacré à deux applications de ces algorithmes à la finance : le premier exemple présente une méthode de calibration de la corrélation pour les modèles de marchés multidimensionnels alors que le second exemple poursuit les travaux de en améliorant ses résultats. La seconde partie de cette thèse s’intéresse à l’évaluation des options parisiennes en s’appuyant sur les travaux de Chesney, Jeanblanc-Picqué, and Yor. La méthode d’évaluation se base sur l’obtention de formules fermées pour les transformées de Laplace des prix par rapport à la maturité. Nous établissons ces formules pour les options parisiennes simple et double barrières. Nous étudions ensuite une méthode d’inversion numérique de ces transformées. Nous établissons un résultat sur la précision de cette méthode numérique tout à fait performante. A cette occasion, nous démontrons également des résultats liés à la régularité des prix et l’existence d’une densité par rapport à la mesure de Lebesgues pour les temps parisiens.
  • Méthodes de Monte Carlo et valorisation d' options.

    Nicola MORENI, Bernard LAPEYRE, Guido MONTAGNA
    2005
    Pas de résumé disponible.
  • Méthodes de Monté Carlo et algorithmes stochastiques.

    Bouhari AROUNA, Bernard LAPEYRE
    2004
    Pas de résumé disponible.
  • Méthodes numériques et algorithmes probalistiques pour l'évaluation des dérivées exotiques des taux d'intérêts dans le cadre des modèles de marché des taux Libor et taux de Swap.

    Mouaoya NOUBIR, Bernard LAPEYRE
    2001
    Cette thèse traite le problème de l'évaluation des options exotiques sur taux d'intérêt dans le cadre des modèles de marché de taux Libor et taux de swap. Elle est constituée de quatre chapitres. Le premier chapitre est consacré à la construction théorique et la calibration des modèles de marché de taux Libor et taux de swap. Le deuxième chapitre présente l'évaluation des options exotique sur taux d'intérêt en utilisant des approximations par formules fermées. Nous présentons aussi une étude théorique et numérique de l'erreur de ces approximations. Le troisième chapitre présente l'évaluation des produits exotiques sur taux d'intérêt par les méthodes de Monte Carlo et Quasi-Monte Carlo. Nous comparons numériquement ces méthodes en utilisant plusieurs suites à discrépances faibles. Nous étudions aussi, numériquement, la vitesse de convergence des schémas d'Euler et Milstein et la méthode d'extrapolation de Richardson. Le quatrième chapitre traite l'évaluation des options américaines et Bermuda sur taux d'intérêt. Nous introduisons des approximations des équations différentielles stochastiques qui régissent les modèles de Marché de taux Libor et taux de swap. Ces approximations réduisent la dimension des modèles de marché et permettent l'évaluation des options américaines et Bermuda par les techniques d'évaluation classiques (équations aux dérivées partielles, inégalités variationnelles, la méthode de l'arbre, etc. ). Nous évaluons, numériquement et théoriquement, et comparons cette approche à d'autres méthodes, basées sur la méthode de Monte Carlo, proposées récemment pour l'évaluation des options américaines et Bermuda en grande dimension.
  • Couverture approchée d'options exotiques : pricing des options asiatiques.

    Emmanuel TEMAM, Bernard LAPEYRE
    2001
    Pas de résumé disponible.
  • Automatisation de méthodes de réduction de variance pour la résolution de l'équation de transport.

    Jean marc DEPINAY, Bernard LAPEYRE
    2000
    Les méthodes de Monte-Carlo sont souvent utilisées pour la résolution des problèmes de neutroniques. La grande dimension du problème et la complexité des géométries réelles rendent, en effet, les méthodes numériques traditionnelles difficiles à implémenter. Ces méthodes sont relativement faciles à mettre en œuvre mais ont le défaut de converger lentement, la précision du calcul étant en 1/racine carré n où n est le nombre de simulations. Des nombreuses études ont été menées en vue d'accélérer la convergence de ce type d'algorithme. Ce travail s'inscrit dans cette mouvance et vise à rechercher et décrire des techniques d'accélération de convergence facilement implémentables et automatisables. Dans cette thèse, nous nous intéressons à des méthodes d'échantillonnage préférentiel. Ces techniques classiques pour les équations de transport utilisent des paramètres qui sont usuellement fixés de façon ernpirique par des spécialistes. La principale originalité de notre travail est de proposer des méthodes qui s'automatisent facilement. L'originalité de l'algorithme tient d'une part à l'utilisation d'un échantillonnage préférentiel sur la variable angulaire (biaisage angulaire), utilisé en plus de l'échantillonnage de la variable de position, d'autre part en la description d'une technique de calcul explicite de tous les paramètres utiles dans la réduction de variance. Ce dernier point permet l'automatisation quasi-complète de la procédure de réduction de variance.
Les affiliations sont détectées à partir des signatures des publications identifiées dans scanR. Un auteur peut donc apparaître affilié à plusieurs structures ou tutelles en fonction de ces signatures. Les dates affichées correspondent seulement aux dates des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr