PAGES Gilles

< Retour à ILB Patrimoine
Thématiques des productions
Affiliations
  • 2018 - 2021
    Mondes anciens et medievaux
  • 2012 - 2021
    Laboratoire de Probabilités, Statistique et Modélisation
  • 2012 - 2020
    Laboratoire de probabilités et modèles aléatoires
  • 2015 - 2017
    Université Paris 6 Pierre et Marie Curie
  • 2021
  • 2020
  • 2019
  • 2018
  • 2017
  • 2016
  • 2015
  • 2014
  • 2013
  • 2012
  • 2011
  • 2010
  • 2009
  • 2008
  • 2006
  • 2005
  • 2003
  • 2000
  • Quantification du risque par l'ampleur et la propension.

    Olivier p. FAUGERAS, Gilles PAGES
    2021
    Nous proposons une nouvelle approche dans l'évaluation d'une variable aléatoire de risque $X$ en introduisant des mesures de risque magnitude-propension $(m_X,p_X)$. Cette mesure bivariée vise à rendre compte du double aspect du risque, où les magnitudes $x$ de $X$ indiquent l'importance des pertes encourues, tandis que les probabilités $P(X=x)$ révèlent la fréquence à laquelle on doit s'attendre à subir de telles pertes. L'idée de base est de quantifier simultanément la gravité $m_X$ et la propension $p_X$ du risque à valeur réelle $X$. Cette approche est à mettre en contraste avec les mesures de risque univariées traditionnelles, comme la VaR ou l'Expected shortfall, qui confondent généralement les deux effets. Dans sa forme la plus simple, $(m_X,p_X)$ est obtenu par transport de masse dans la métrique de Wasserstein de la loi $P^X$ de $X$ vers une distribution discrète à deux points $\{0, m_X\}$ avec la masse $p_X$ à $m_X$. L'approche peut également être formulée comme un problème de quantification optimale sous contrainte. Cela permet une comparaison informative des risques à l'échelle de la magnitude et de la propension. Plusieurs exemples illustrent l'approche proposée.
  • Ordre convexe monotone pour les processus McKean-Vlasov.

    Yating LIU, Gilles PAGES
    2021
    Dans cet article, nous établissons l'ordre convexe monotone entre deux processus de McKean-Vlasov à valeurs $\mathbb{R}$ $X=(X_t)_{t\in [0, T]}$ et $Y=(Y_t)_{t\in [0, T]}$ définis sur un espace de probabilité filtré $(\Omega, \mathcal{F}, (\mathcal{F}_{t})_{t\geq0}, \mathbb{P})$ par \begin{align} &dX_{t}=b(t, X_{t}, \mu_{t})dt+\sigma(t, X_{t}, \mu_{t})dB_{t}, \quad X_{0}\in L^{p}(\mathbb{P})\. \text{with}\. p\geq 2,\nonumber\\ &dY_{t}=\beta(t, Y_{t}, \nu_{t})dt+\theta(t, \,Y_{t}, \nu_{t})\,dB_{t}, \,\quad Y_{0}\in L^{p}(\mathbb{P}), \nonumber\end{align} où $\pour tout\, t\in [0, T],\ : \mu_{t}=\mathbb{P}\circuit X_{t}^{-1}, \:\nu_{t}=\mathbb{P}\circuit Y_{t}^{-1}. Si nous faisons l'hypothèse de convexité et de monotonie (seulement) sur $b$ et $|\sigma|$ et si $b\leq \beta$ et $|\sigma|\leq |\theta|$, alors l'ordre convexe monotone pour la variable aléatoire initiale $X_0\preceq_{\,\text{mcv}} Y_0$ peut être propagé à l'ensemble du chemin des processus $X$ et $Y$. Autrement dit, si nous considérons une fonction convexe non décroissante $F$ définie sur l'espace des chemins avec une croissance polynomiale, nous avons $\mathbb{E}\, F(X)\leq \mathbb{E}\, F(Y)$. pour une fonction convexe non décroissante $G$ définie sur l'espace produit impliquant l'espace des chemins et son espace de distribution marginale, on a $\mathbb{E}\, G(X, (\mu_{t})_{t\in [0, T]})\leq \mathbb{E}\, G(Y, (\nu_{t})_{t\in [0, T]})$ sous des conditions appropriées. Le cadre symétrique est également valable, c'est-à-dire que si $Y_0\preceq_{\,\text{mcv}} X_0$ et $|\theta|\leq |\sigma|$, alors $\mathbb{E}\, F(Y)\leq \mathbb{E}\, F(X)$ et $\mathbb{E}\, G(Y, (\nu_{t})_{t\in [0, T]})\leq \mathbb{E}\, G(X, (\mu_{t})_{t\in [0, T]})$. La preuve est basée sur plusieurs principes de programmation dynamique en avant et en arrière et sur la convergence du schéma d'Euler tronqué de l'équation de McKean-Vlasov.
  • Fast Hybrid Schemes for Fractional Riccati Equations (Rough Is Not So Tough).

    Giorgia CALLEGARO, Martino GRASSELLI, Gilles PAGES
    Mathematics of Operations Research | 2021
    Nous résolvons une famille d'équations Riccati fractionnaires avec des coefficients constants (éventuellement complexes). Ces équations apparaissent, par exemple, dans les modèles de volatilité stochastique fractionnelle de Heston, qui ont reçu une grande attention dans la littérature financière récente en raison de leur capacité à reproduire un comportement de volatilité grossier. Nous considérons d'abord le cas d'une valeur initiale nulle correspondant à la fonction caractéristique du log-prix. Ensuite, nous étudions le cas d'une valeur initiale générale associée à une transformation impliquant également le processus de volatilité. La solution de l'équation de Riccati fractionnelle prend la forme de séries de puissance, dont le domaine de convergence est typiquement fini. Ceci suggère naturellement un algorithme numérique hybride pour obtenir explicitement la solution également au-delà du domaine de convergence de la série puissance. Des tests numériques montrent que l'algorithme hybride est extrêmement rapide et stable. Appliquée au prix des options, notre méthode surpasse largement la seule alternative disponible, basée sur la méthode d'Adams.
  • Modélisation et stratégies optimales sur les marchés énergétiques à court terme.

    Laura TINSI, Peter TANKOV, Arnak DALALYAN, Gilles PAGES, Peter TANKOV, Arnak DALALYAN, Gilles PAGES, Almut e. d. VERAART, Huyen PHAM, Olivier FERON, Marc HOFFMANN, Almut e. d. VERAART, Huyen PHAM
    2021
    Cette thèse vise à fournir des outils théoriques pour soutenir le développement et la gestion des énergies renouvelables intermittentes sur les marchés court terme de l'électricité.Dans la première partie, nous développons un modèle d'équilibre exploitable pour la formation des prix sur les marchés infrajournaliers de l'électricité. Pour cela, nous proposons un jeu non coopératif entre plusieurs producteurs interagissant sur le marché et faisant face à une production renouvelable intermittente. En utilisant la théorie des jeux et celle du contrôle stochastique, nous dérivons des stratégies optimales explicites pour ces producteurs ainsi qu'un prix d'équilibre en forme fermée pour différentes structures d'information et caractéristiques des joueurs. Notre modèle permet de reproduire et d'expliquer les principaux faits stylisés du marché intraday tels que la dépendance temporelle spécifique de la volatilité et la corrélation entre le prix et les prévisions de production renouvelable.Dans la deuxième partie, nous étudions des prévisions probabilistes dynamiques sous la forme de processus de diffusion. Nous proposons plusieurs modèles d'équations différentielles stochastiques pour capturer l'évolution dynamique de l'incertitude associée à une prévision, nous dérivons les densités prédictives associées et nous calibrons le modèle sur des données météorologiques réelles. Nous l'appliquons ensuite au problème d'un producteur éolien recevant des mises à jour séquentielles des prévisions probabilistes de la vitesse du vent, utilisées pour prédire sa production, et prendre des décisions d'achat ou de vente sur le marché. Nous montrons dans quelle mesure cette méthode peut être avantageuse comparée à l'utilisation de prévisions ponctuelles dans les processus décisionnels.Enfin, dans la dernière partie, nous proposons d'étudier les propriétésdes réseaux de neurones peu profonds agrégés. Nous explorons le cadre PAC-Bayesien comme alternative à l'approche classique de minimisation du risque empirique. Nous nous concentrons sur les priors Gaussiens et dérivons des bornes de risque non asymptotiques pour les réseaux de neurones agrégés. Ces bornes donnent des vitesses de convergence minimax pour l'estimation dans des espaces de Sobolev.Cette analyse fournit également une base théorique pour le réglage des paramètres et offre de nouvelles perspectives pour des applicationsdes réseaux de neurones agrégés à des problèmes pratiques de haute dimension, de plus en plus présents dans les processus de décision liés à l'énergie et impliquant des moyens de production renouvelable ou du stockage.
  • Méthodes numériques par quantification optimale en finance.

    Thibaut MONTES, Gilles PAGES, Vincent LEMAIRE, Benjamin JOURDAIN, Idris KHARROUBI, Huyen PHAM, Abass SAGNA, Giorgia CALLEGARO, Benoite de SAPORTA
    2020
    Cette thèse est divisée en quatre parties pouvant être lues indépendamment. Dans ce manuscrit, nous apportons quelques contributions à l’étude théorique et aux applications en finance de la quantification optimale. Dans la première partie, nous rappelons les fondements théoriques de la quantification optimale ainsi que les méthodes numériques classiques pour construire des quantifieurs optimaux. La seconde partie se concentre sur le problème d’intégration numérique en dimension 1. Ce problème apparait lorsque l’on souhaite calculer numériquement des espérances, tel que l’évaluation de produits dérivés. Nous y rappelons les résultats d’erreurs forts et faibles existants et étendons les résultats des convergences d’ordre 2 à d’autres classes de fonctions moins réguliers. Dans un deuxième temps, nous présentons un résultat de développement d’erreur faible en dimension 1 et un second développement en dimension supérieure pour un quantifieur produit. Dans la troisième partie, nous nous intéressons à une première application numérique. Nous introduisons un modèle de Heston stationnaire dans lequel la condition initiale de la volatilité est supposée aléatoire de loi la distribution stationnaire de l’EDS du CIR régissant la volatilité. Cette variante du modèle de Heston original produit pour les options européennes sur les maturités courtes un smile de volatilité implicite plus prononcé que le modèle standard. Nous développons ensuite une méthode numérique à base de quantification récursive produit pour l’évaluation d’options bermudiennes et barrières. La quatrième et dernière partie traite d’une deuxième application numérique, l’évaluation d’options bermudiennes sur taux de change dans un modèle 3 facteurs. Ces produits sont connus sur les marchés sous le noms de PRDC. Nous proposons deux schémas pour évaluer ce type d’options toutes deux basées sur de la quantification optimale produit et établissons des estimations d’erreur à priori.
  • Algorithme de Langevin non ajusté avec bruit multiplicatif : Variation totale et limites de Wasserstein.

    Gilles PAGES, Fabien PANLOUP
    2020
    Dans cet article, nous nous concentrons sur les limites non-asymptotiques liées au schéma d'Euler d'une diffusion ergodique avec un terme de diffusion éventuellement multiplicatif (coefficient de diffusion non-constant). Plus précisément, l'objectif de cet article est de contrôler la distance entre le schéma d'Euler standard à pas décroissant (généralement appelé algorithme de Langevin non ajusté dans la littérature de Monte-Carlo) et la distribution invariante d'une telle diffusion ergodique. Dans un cadre de Lyapunov approprié et sous des hypothèses d'ellipticité uniforme sur le coefficient de diffusion, nous établissons (ou améliorons) de telles limites pour la variation totale et les distances L 1-Wasserstein dans des cadres multiplicatifs et additifs. Ces limites s'appuient sur des expansions d'erreurs faibles utilisant l'analyse stochastique adaptée au cadre des pas décroissants.
  • Nouvelles limites d'erreur faibles et expansions pour la quantification optimale.

    Vincent LEMAIRE, Thibaut MONTES, Gilles PAGES
    Journal of Computational and Applied Mathematics | 2020
    Nous proposons de nouvelles limites d'erreur faibles et une expansion en dimension un pour la formule de cubature optimale basée sur la quantification pour différentes classes de fonctions, telles que les fonctions affines par morceaux, les fonctions convexes Lipschitz ou les fonctions différentiables avec des dérivées localement Lipschitz ou α-Hölder définies par morceaux. Ces nouveaux résultats reposent sur les comportements locaux des quantificateurs optimaux, le problème de l'inadéquation des distributions L r-L s et le théorème de Zador. Cette nouvelle expansion soutient la définition d'une extrapolation de Richardson-Romberg donnant un meilleur taux de convergence pour la formule de cubature. Une extension de cette expansion est ensuite proposée en dimension supérieure pour la première fois. Nous proposons ensuite une nouvelle méthode de réduction de la variance pour les estimateurs de Monte-Carlo, basée sur des quantificateurs optimaux unidimensionnels.
  • L'impact du marché dans le trading systématique et la fixation du prix des options.

    Emilio SAID, Frederic ABERGEL, Gilles PAGES, Mathieu ROSENBAUM, Aurelien ALFONSI, Damien CHALLET, Sophie LARUELLE, Mathieu ROSENBAUM, Aurelien ALFONSI
    2020
    L’objectif principal de cette thèse est de comprendre les divers aspects du market impact. Elle se compose de quatre chapitres dans lesquelles le market impact est étudié dans différents contextes et à différentes échelles. Le premier chapitre présente une étude empirique du market impact des ordres limites sur les marchés actions européens. Dans le deuxième chapitre, nous avons étendu la méthodologie présentée pour les marchés actions aux marchés options. Cette étude empirique a mis en évidence que notre définition d’un métaordre options nous permet de retrouver la totalité des résultats mis en évidence sur les marchés actions. Le troisième chapitre s’intéresse au market impact dans le contexte de l’évaluation des produits dérivés. Ce chapitre tente d’apporter une composante microstructure à l’évaluation des options notamment en proposant une théorie des perturbations du market impact au cours du processus de re-hedging. Nous explorons dans le quatrième chapitre un modèle assez simple pour la relaxation des métaordres. La relaxation des métaordres est traitée dans cette partie en tant que processus informationnel qui se transmet au marché. Ainsi, partant du point de départ qu’à la fin de l’exécution d’un métaordre l’information portée par celui-ci est maximale, nous proposons une interprétation du phénomène de relaxation comme étant le résultat de la dégradation de cette information au détriment du bruit extérieur du marché.
  • Apprentissage conditionnel de Monte Carlo pour les diffusions I : méthodologie principale et application aux équations différentielles stochastiques à rebours.

    Lokman ABBAS TURKI, G. PAGES, B DIALLO
    2020
    Nous présentons un nouvel algorithme basé sur un One-layered Nested Monte Carlo (1NMC) pour simuler les fonctionnelles U d'un processus de Markov X. L'originalité principale de la méthodologie proposée vient du fait qu'elle fournit une recette pour simuler U_{t≥s} conditionnellement sur X_s. En raison de la structure imbriquée qui permet une expansion de type Taylor, il est possible d'utiliser une base très réduite pour la régression. Bien que cette méthodologie puisse être adaptée à un grand nombre de situations, nous l'appliquons ici uniquement pour la simulation d'équations différentielles stochastiques rétroactives (BSDE). La généralité et la stabilité de cet algorithme, même en haute dimension, font sa force. Il est plus lourd qu'un simple Monte Carlo (MC) mais il est beaucoup plus précis pour simuler des quantités qui sont presque impossibles à simuler avec MC. L'aptitude au parallélisme de 1NMC le rend réalisable en un temps de calcul raisonnable. Cet article explique la version principale de cet algorithme et fournit les premiers résultats des estimations d'erreurs. Nous donnons également plusieurs exemples numériques avec une dimension égale à 100 qui sont exécutés de quelques secondes à quelques minutes sur une unité de traitement graphique (GPU).
  • Jeux différentiels stochastiques non-Markoviens etdynamiques de Langevin à champ-moyen.

    Kaitong HU, Nizar TOUZI, Caroline HILLAIRET, Nizar TOUZI, Stephane VILLENEUVE, Johannes MUHLE KARBE, Zhenjie REN, Gilles PAGES, Jean francois CHASSAGNEUX, Stephane VILLENEUVE, Johannes MUHLE KARBE
    2020
    Cette thèse se compose de deux parties indépendantes et la première regroupant deux problématiques distinctes. Dans la première partie, nous étudions d’abord le problème de Principal-Agent dans des systèmes dégénérés, qui apparaissent naturellement dans des environnements à l’observation partielle où l’Agent et le Principal n’observent qu’une partie du système. Nous présentons une approche se basant sur le principe du maximum stochastique, dont le but est d’étendre les travaux existants qui utilisent le principe de la programmation dynamique dans des systèmes non-dégénérés. D’abord nous résolvons le problème du Principal dans un ensembledes contrats élargi donné par la condition du premier ordre du problème de l’Agent sous forme d’une équation différentielle stochastique progressive-rétrograde (abrégée EDSPR) dépendante de la trajectoire. Ensuite nous utilisons la condition suffisante du problème de l’Agent pour vérifier que le contrat optimal obtenu est bien implémentable. Une étude parallèle est consacrée à l’existence et l’unicité de la solution d'EDSPRs dépendantes de la trajectoire dans le chapitre IV. Nous étendons la méthode de champ de découplage aux cas où les coefficients des équations peuvent dépendre de la trajectoire du processus forward. Nous démontrons également une propriété de stabilité pour ce genre d'EDSPRs. Enfin, nous étudions le problème de hasard moral avec plusieurs Principals. L’Agent ne peut travailler que pour un seul Principal à la fois et fait donc face à un problème de switching optimal. En utilisant la méthode de randomisation nous montrons que la fonction valeur de l’Agent et son effort optimal sont donnés par un processus d’Itô. Cette représentation nous aide à résoudre ensuite le problème du Principal lorsqu’il y a une infinité de Principals en équilibre selon un jeu à champ-moyen. Nous justifions la formulation à champ-moyen par un argument de propagation de chaos.La deuxième partie de cette thèse est constituée des chapitres V et VI. La motivation de ces travaux est de donner un fondement théorique rigoureux pour la convergence des algorithmes du type descente de gradient très souvent utilisés dans la résolution des problème non-convexes comme la calibration d’un réseau de neurones. Pour les problèmes non-convexes du type réseaux de neurones à une couche cachée, l’idée clé est de transformer le problème en un problème convexe en le relevant dans l’espace des mesures. Nous montrons que la fonction d’énergie correspondante admet un unique minimiseur qui peut être caractérisé par une condition du premier ordre utilisant la dérivation dans l’espace des mesures au sens de Lions. Nous présentons ensuite une analyse du comportement à long terme de la dynamique de Langevin à champ-moyen, qui possède une structure de flot de gradient dans la métrique de 2-Wasserstein. Nous montrons que le flot de la loi marginale induite par la dynamique de Langevin à champ-moyen converge vers une loi stationnaire en utilisant le principe d’invariance de La Salle, qui est le minimiseur de la fonction d’énergie.Dans le cas des réseaux de neurones profonds, nous les modélisons à l’aide d’un problème de contrôle optimal en temps continu. Nous donnons d’abord la conditiondu premier ordre à l’aide du principe de Pontryagin, qui nous aidera ensuiteà introduire le système d’équation de Langevin à champ-moyen, dont la mesure invariante correspond au minimiseur du problème de contrôle optimal. Enfin, avec la méthode de couplage par réflexion nous montrons que la loi marginale du système de Langevin à champ-moyen converge vers la mesure invariante avec une vitesse exponentielle.
  • Nouvelle approche de la quantification vectorielle avide.

    Rancy EL NMEIR, Harald LUSCHGY, Gilles PAGES
    2020
    Nous étendons certains résultats de taux de convergence de séquences de quantification avides déjà étudiés dans [16]. Nous montrons, pour une classe plus générale de distributions satisfaisant un certain contrôle, que l'erreur de quantification de ces séquences a un taux de convergence n - 1 d et que la propriété de mauvaise correspondance de la distorsion est satisfaite. Nous donnerons quelques estimations non asymptotiques de type Pierce. Le caractère récursif de la quantification vectorielle gourmande permet certaines améliorations de l'algorithme de calcul de ces séquences et l'implémentation d'une formule récursive d'intégration numérique basée sur la quantification. De plus, nous établissons d'autres propriétés de sous-optimalité des séquences de quantification gourmande.
  • Taux de convergence de la quantification optimale et application à la performance de regroupement de la mesure empirique.

    Yating LIU, Gilles PAGES
    2020
    Nous étudions le taux de convergence de la quantification optimale pour une suite de mesures de probabilité (µn) n∈N* sur R^d convergeant dans la distance de Wasserstein sous deux aspects : le premier est le taux de convergence du quantificateur optimal x (n) ∈ (R d) K de µn au niveau K. L'autre est le taux de convergence de la fonction de distorsion évaluée à x^(n), appelé "performance" de x^(n). De plus, nous étudions également la performance moyenne de la quantification optimale pour la mesure empirique d'une distribution µ avec un second moment fini mais un support éventuellement non borné. Comme application, nous montrons que la performance moyenne pour la mesure empirique de la distribution normale multidimensionnelle N (m, Σ) et des distributions avec des queues hyper-exponentielles se comporte comme O(log n √ n). Ceci étend les résultats de [BDL08] obtenus pour les distributions à support compact. Nous dérivons également une borne supérieure qui est plus nette dans le niveau de quantification K mais sous-optimale en n en appliquant les résultats de [FG15].
  • Modèle stationnaire de Heston : Calibrage et tarification des exotiques à l'aide de la quantification récursive de produit.

    Vincent LEMAIRE, Thibaut MONTES, Gilles PAGES
    2020
    Un inconvénient majeur du modèle de Heston standard est que sa surface de volatilité implicite ne produit pas un sourire suffisamment raide lorsqu'on examine les échéances courtes. Pour cette raison, nous introduisons le modèle de Heston stationnaire où nous remplaçons la condition initiale déterministe de la volatilité par sa mesure invariante et montrons, sur la base de paramètres calibrés, que ce modèle produit un sourire plus raide pour les maturités courtes que le modèle de Heston standard. Nous présentons également une solution numérique basée sur la quantification récursive de produit pour l'évaluation des options exotiques (options Bermudan et Barrier).
  • Erreur faible pour la méthode de Monte-Carlo multiniveau emboîtée.

    Daphne GIORGI, Vincent LEMAIRE, Gilles PAGES
    Methodology and Computing in Applied Probability | 2020
    Cet article traite des estimateurs MLMC avec et sans poids, appliqués aux attentes imbriquées de la forme E [f (E [F (Y, Z)|Y ])]. Plus précisément, nous nous intéressons aux hypothèses nécessaires pour respecter le cadre MLMC, selon que la fonction de gain f est lisse ou non. Un nouveau résultat à notre connaissance est donné lorsque f n'est pas lisse dans le développement de l'erreur faible à un ordre supérieur à 1, qui est nécessaire pour une utilisation réussie des estimateurs MLMC avec poids.
  • Contrôle stochastique : des méthodes de gradient et de la programmation dynamique à l'apprentissage statistique.

    Gilles PAGES, Olivier PIRONNEAU
    2020
    Dans cet article, les auteurs souhaitent contribuer à l'évaluation de l'apprentissage statistique pour le contrôle stochastique. Nous passerons en revue les méthodes bien connues de contrôle stochastique et comparerons leurs performances numériques à celles d'un réseau de neurones. Ceci sera fait sur un exemple simple mais pratique, celui des quotas de pêche pour préserver la biomasse de poissons.
  • Analyse des erreurs faibles et fortes de la quantification récursive : une approche générale avec une application aux diffusions par saut.

    Gilles PAGES, Abass SAGNA
    IMA Journal of Numerical Analysis | 2020
    Pas de résumé disponible.
  • Quelques aspects du rôle central de la microstructure des marchés financiers : dynamique de la volatilité, négociation optimale et conception du marché.

    Paul JUSSELIN, Mathieu ROSENBAUM, Nicole EL KAROUI, Mathieu ROSENBAUM, Jean philippe BOUCHAUD, Darrell DUFFIE, Gilles PAGES, Peter TANKOV, Marc HOFFMANN, Nizar TOUZI, Jean philippe BOUCHAUD, Darrell DUFFIE
    2020
    Cette thèse est organisée en trois parties. Dans la première on examine les relations entre la dynamique microscopique et macroscopique du marché en se concentrant sur les propriétés de la volatilité. Dans la deuxième partie on s'intéresse au contrôle optimal stochastique de processus ponctuels. Finalement dans la troisième partie on étudie deux problématiques de market design.On commence cette thèse par l'étude des liens entre le principe d'absence d'opportunité d'arbitrage et l'irrégularité de la volatilité. A l'aide d'une méthode de changement d'échelle on montre que l'on peut effectivement connecter ces deux notions par l'analyse du market impact des métaordres. Plus précisément on modélise le flux des ordres marchés en utilisant des procesus de Hawkes linéaires. Puis on montre que le principe d'absence d'opportunité d'arbitrage ainsi que l'existence d'un market impact non trivial impliquent que la volatilité est rugueuse et plus précisément qu'elle suit un modèle rough Heston. On examine ensuite une classe de modèles microscopiques où le flux d'ordre est un processus de Hawkes quadratique. L'objectif est d'étendre le modèle rough Heston à des modèles continus permettant de reproduire l'effet Zumbach. Finalement on utilise un de ces modèles, le modèle rough Heston quadratique, pour la calibration jointe des nappes de volatilité du SPX et du VIX.Motivé par l'usage intensif de processus ponctuels dans la première partie, on s'intéresse dans la deuxième au contrôle stochastique de processus ponctuels. Notre objectif est de fournir des résultats théoriques en vue d'applications en finance. On commence par considérer le cas du contrôle de processus de Hawkes. On prouve l'existence d'une solution puis l'on propose une méthode permettant d'appliquer ce contrôle en pratique. On examine ensuite les limites d'échelles de problèmes de contrôles stochastiques dans le cadre de modèles de dynamique de population. Plus exactement on considère une suite de modèles de dynamique d'une population discrète qui converge vers un modèle pour une population continue. Pour chacun des modèles on considère un problème de contrôle. On prouve que la suite des contrôles optimaux associés aux modèles discrets converge vers le contrôle optimal associé au modèle continu. Ce résultat repose sur la continuité, par rapport à différents paramètres, de la solution d'une équation différentielle schostatique rétrograde.Dans la dernière partie on s'intéresse à deux problèmatiques de market design. On examine d'abord la question de l'organisation d'un marché liquide de produits dérivés. En se concentrant sur un marché d'options, on propose une méthode en deux étapes pouvant facilement être appliquée en pratique. La première étape consiste à choisir les options qui seront listées sur le marché. Pour cela on utilise un algorithme de quantification qui permet de sélectionner les options les plus demandées par les investisseurs. On propose ensuite une méthode d'incitation tarifaire visant à encourager les market makers à proposer des prix attractifs. On formalise ce problème comme un problème de type principal-agent que l'on résoud explicitement. Finalement, on cherche la durée optimale d'une enchère pour les marchés organisés en enchères séquentielles, le cas de la durée nulle correspondant à celui d'une double enchère continue. On utilise un modèle où les market takers sont en compétition et on considère que la durée optimale est celle correspondant au processus de découverte du prix le plus efficace. Après avoir prouvé l'existence d'un équilibre de Nash pour la compétition entre les market takers, on applique nos résultats sur des données de marchés. Pour la plupart des actifs, la durée optimale se trouve entre 2 et 10 minutes.
  • Quantification et couplages martingales.

    Benjamin JOURDAIN, Gilles PAGES
    2020
    Pas de résumé disponible.
  • Quantificateurs doubles optimaux de distributions log-concaves 1D : unicité et algorithme de type Lloyd.

    Benjamin JOURDAIN, Gilles PAGES
    2020
    Nous établissons pour la quantification duale la contrepartie du résultat d'unicité de Kieffer pour les distributions de probabilité unidimensionnelles à support compact ayant une densité $\log$-concave (aussi appelée fortement unimodale) : pour de telles distributions, les quantificateurs duaux $L^r$-optimaux sont uniques à chaque niveau $N$, la grille optimale étant le point critique unique de l'erreur de quantification. Un exemple de distribution non fortement unimodale pour laquelle l'unicité des points critiques échoue est présenté. Dans le cas quadratique $r=2$, nous proposons un algorithme pour calculer le quantificateur dual optimal unique. Il fournit une contrepartie de l'algorithme de la méthode~I de Lloyd dans un cadre de Voronoï. Enfin, des formes semi-fermées de double quantificateurs optimaux à L^r$ sont établies pour des distributions de puissance sur des intervalles compacts et des distributions exponentielles tronquées.
  • Calcul récursif des distributions invariantes des processus de Feller.

    Gilles PAGES, Clement REY
    Stochastic Processes and their Applications | 2020
    Pas de résumé disponible.
  • Méthodes numériques et apprentissage profond pour les problèmes de contrôle stochastique et les équations aux dérivées partielles.

    Come HURE, Huyen PHAM, Frederic ABERGEL, Gilles PAGES, Huyen PHAM, Frederic ABERGEL, Gilles PAGES, Romuald ELIE, John g. m. SCHOENMAKERS, Charles albert LEHALLE, Emmanuel GOBET, Jean francois CHASSAGNEUX, Romuald ELIE, John g. m. SCHOENMAKERS
    2019
    La thèse porte sur les schémas numériques pour les problèmes de décisions Markoviennes (MDPs), les équations aux dérivées partielles (EDPs), les équations différentielles stochastiques rétrogrades (ED- SRs), ainsi que les équations différentielles stochastiques rétrogrades réfléchies (EDSRs réfléchies). La thèse se divise en trois parties.La première partie porte sur des méthodes numériques pour résoudre les MDPs, à base de quan- tification et de régression locale ou globale. Un problème de market-making est proposé: il est résolu théoriquement en le réécrivant comme un MDP. et numériquement en utilisant le nouvel algorithme. Dans un second temps, une méthode de Markovian embedding est proposée pour réduire des prob- lèmes de type McKean-Vlasov avec information partielle à des MDPs. Cette méthode est mise en œuvre sur trois différents problèmes de type McKean-Vlasov avec information partielle, qui sont par la suite numériquement résolus en utilisant des méthodes numériques à base de régression et de quantification.Dans la seconde partie, on propose de nouveaux algorithmes pour résoudre les MDPs en grande dimension. Ces derniers reposent sur les réseaux de neurones, qui ont prouvé en pratique être les meilleurs pour apprendre des fonctions en grande dimension. La consistance des algorithmes proposés est prouvée, et ces derniers sont testés sur de nombreux problèmes de contrôle stochastique, ce qui permet d’illustrer leurs performances.Dans la troisième partie, on s’intéresse à des méthodes basées sur les réseaux de neurones pour résoudre les EDPs, EDSRs et EDSRs réfléchies. La convergence des algorithmes proposés est prouvée. et ces derniers sont comparés à d’autres algorithmes récents de la littérature sur quelques exemples, ce qui permet d’illustrer leurs très bonnes performances.
  • Précision de la caractérisation du papier pour le recyclage.

    Gilles PAGES, Victor REUTENAUER
    2019
    Pas de résumé disponible.
  • Évaluation des options bermudiennes basée sur la quantification dans le monde des changes.

    Jean michel FAYOLLE, Vincent LEMAIRE, Thibaut MONTES, Gilles PAGES
    2019
    Cet article propose deux solutions numériques basées sur la quantification optimale du produit pour l'évaluation des options bermudiennes à long terme liées au taux de change, par exemple les options Power Reverse Dual Currency des Bermudes, où nous prenons en compte les taux d'intérêt stochastiques nationaux et étrangers en plus du taux de change stochastique, et où nous considérons donc un modèle à trois facteurs. Pour ces deux méthodes numériques, nous donnons une estimation de l'erreur $L^2$ induite par ces approximations et nous les illustrons avec des exemples basés sur le marché qui mettent en évidence la rapidité de ces méthodes.
  • Analyse d'incertitudes et de robustesse pour les modèles à entrées et sorties fonctionnelles.

    Mohamed EL AMRI, Clementine PRIEUR, Celine HELBERT, Herve MONOD, Julien BECT, Delphine SINOQUET, Miguel MUNOZ ZUNIGA, Gilles PAGES, Josselin GARNIER
    2019
    L'objectif de cette thèse est de résoudre un problème d'inversion sous incertitudes de fonctions coûteuses à évaluer dans le cadre du paramétrage du contrôle d'un système de dépollution de véhicules.L'effet de ces incertitudes est pris en compte au travers de l'espérance de la grandeur d'intérêt. Une difficulté réside dans le fait que l'incertitude est en partie due à une entrée fonctionnelle connue à travers d'un échantillon donné. Nous proposons deux approches basées sur une approximation du code coûteux par processus gaussiens et une réduction de dimension de la variable fonctionnelle par une méthode de Karhunen-Loève.La première approche consiste à appliquer une méthode d'inversion de type SUR (Stepwise Uncertainty Reduction) sur l'espérance de la grandeur d'intérêt. En chaque point d'évaluation dans l'espace de contrôle, l'espérance est estimée par une méthode de quantification fonctionnelle gloutonne qui fournit une représentation discrète de la variable fonctionnelle et une estimation séquentielle efficace à partir de l'échantillon donné de la variable fonctionnelle.La deuxième approche consiste à appliquer la méthode SUR directement sur la grandeur d'intérêt dans l'espace joint des variables de contrôle et des variables incertaines. Une stratégie d'enrichissement du plan d'expériences dédiée à l'inversion sous incertitudes fonctionnelles et exploitant les propriétés des processus gaussiens est proposée.Ces deux approches sont comparées sur des fonctions jouets et sont appliquées à un cas industriel de post-traitement des gaz d'échappement d'un véhicule. La problématique est de déterminer les réglages du contrôle du système permettant le respect des normes de dépollution en présence d'incertitudes, sur le cycle de conduite.
  • Quantification optimale : Théorème limite, regroupement et simulation de l'équation McKean-Vlasov.

    Yating LIU, Gilles PAGES, Marc HOFFMANN, Gerard BIAU, Francois BOLLEY, Jean francois CHASSAGNEUX, Clementine PRIEUR, Benjamin JOURDAIN, Harald LUSCHGY
    2019
    Cette thèse contient deux parties. Dans la première partie, on démontre deux théorèmes limites de la quantification optimale. Le premier théorème limite est la caractérisation de la convergence sous la distance de Wasserstein d’une suite de mesures de probabilité par la convergence simple des fonctions d’erreur de la quantification. Ces résultats sont établis en Rd et également dans un espace de Hilbert séparable. Le second théorème limite montre la vitesse de convergence des grilles optimales et la performance de quantification pour une suite de mesures de probabilité qui convergent sous la distance de Wasserstein, notamment la mesure empirique. La deuxième partie de cette thèse se concentre sur l’approximation et la simulation de l’équation de McKean-Vlasov. On commence cette partie par prouver, par la méthode de Feyel (voir Bouleau (1988)[Section 7]), l’existence et l’unicité d’une solution forte de l’équation de McKean-Vlasov dXt = b(t, Xt, μt)dt + σ(t, Xt, μt)dBt sous la condition que les fonctions de coefficient b et σ sont lipschitziennes. Ensuite, on établit la vitesse de convergence du schéma d’Euler théorique de l’équation de McKean-Vlasov et également les résultats de l’ordre convexe fonctionnel pour les équations de McKean-Vlasov avec b(t,x,μ) = αx+β, α,β ∈ R. Dans le dernier chapitre, on analyse l’erreur de la méthode de particule, de plusieurs schémas basés sur la quantification et d’un schéma hybride particule- quantification. À la fin, on illustre deux exemples de simulations: l’équation de Burgers (Bossy and Talay (1997)) en dimension 1 et le réseau de neurones de FitzHugh-Nagumo (Baladron et al. (2012)) en dimension 3.
  • Calcul récursif des distributions invariantes des processus de Feller : Exemples révisés et nouvelles applications.

    Gilles PAGES, Clement REY
    Monte Carlo Methods and Applications | 2019
    Pas de résumé disponible.
  • Nouvelles limites d'erreur faibles et expansions pour la quantification optimale.

    Vincent LEMAIRE, Thibaut MONTES, Gilles PAGES
    2019
    Nous proposons de nouvelles limites d'erreur faibles et une expansion en dimension un pour la formule de cubature optimale basée sur la quantification pour différentes classes de fonctions, telles que les fonctions affines par morceaux, les fonctions convexes Lipschitz ou les fonctions différentiables avec des dérivées localement Lipschitz ou α-Hölder définies par morceaux. Ces nouveaux résultats reposent sur les comportements locaux des quantificateurs optimaux, le problème de l'inadéquation des distributions L r-L s et le théorème de Zador. Cette nouvelle expansion soutient la définition d'une extrapolation de Richardson-Romberg donnant un meilleur taux de convergence pour la formule de cubature. Une extension de cette expansion est ensuite proposée en dimension supérieure pour la première fois. Nous proposons ensuite une nouvelle méthode de réduction de la variance pour les estimateurs de Monte-Carlo, basée sur des quantificateurs optimaux unidimensionnels.
  • Caractérisation de la mesure de probabilité par la fonction d'erreur de quantification L^p.

    Yating LIU, Gilles PAGES
    Bernoulli | 2019
    Nous établissons des conditions pour caractériser les mesures de probabilité par leurs fonctions d'erreur de quantification L^p dans les cadres R^d et Hilbert. Cette caractérisation est double : statique (identité de deux distributions) et dynamique (convergence pour la distance L^p-Wasserstein). Nous proposons d'abord un critère sur le niveau de quantification N, valable pour toute norme sur Rd et tout ordre p, basé sur une approche géométrique impliquant le diagramme de Voronoï. Ensuite, nous prouvons que dans le cas L^2 sur un espace de Hilbert (séparable), la condition sur le niveau N peut être réduite à N = 2, ce qui est optimal. D'autres cas de caractérisation basés sur la quantification en dimension 1 et une discussion sur la complétude d'une distance définie par la fonction d'erreur de quantification se trouvent à la fin de cet article.
  • Ordre convexe, quantification et approximations monotones des modèles ARCH.

    Benjamin JOURDAIN, Gilles PAGES
    2019
    Nous nous intéressons à proposer des approximations d'une séquence de mesures de probabilité dans l'ordre convexe par des mesures de probabilité à support fini toujours dans l'ordre convexe. Nous proposons d'alterner les transitions en fonction d'un noyau de Markov martingale mettant en correspondance une mesure de probabilité de la séquence avec les étapes de quantification suivantes et doubles. Dans le cas des modèles ARCH et en particulier du schéma d'Euler d'une diffusion brownienne sans dérive, le bruit doit être tronqué pour permettre l'étape de quantification double. Nous analysons l'erreur entre le modèle ARCH original et son approximation avec un bruit tronqué et exposons les conditions sous lesquelles le second est dominé par le premier dans l'ordre convexe au niveau des chemins d'échantillon. Enfin, nous analysons l'erreur du schéma combinant les étapes de double quantification avec la troncature du bruit selon la quantification primale.
  • X-Valuation ajuste les calculs par simulation imbriquée sur les processeurs graphiques.

    Babacar DIALLO, Stephane CREPEY, Agathe GUILLOUX, Stephane CREPEY, Agathe GUILLOUX, Aurelien ALFONSI, Lokmane ABBAS TURKI, Gilles PAGES, Aurelien ALFONSI
    2019
    Cette thèse traite du calcul des X-valorisation d'ajustement, où X englobe C pour le crédit, F pour le financement, M pour la marge et K pour le capital. Nous étudions différentes approches basées sur la simulation imbriquée et implémentées sur des unités de traitement graphique (GPU). Nous examinons d'abord le problème, pour une assurance ou une banque, du calcul numérique de son capital économique sous la forme d'une "value-at-risk" ou d'une "expected shortfall" de sa perte sur un horizon de temps donné. En utilisant une approche d'approximation stochastique sur la value-at-risk, ou l'expected shortfall nous établissons la convergence des schémas résultants de la simulation du capital économique. Ensuite, nous présentons une approche de Monte Carlo imbriquée (NMC) pour le calcul des XVA. Nous montrons que le calcul global des XVA implique cinq niveaux de dépendance. Les couches les plus hautes sont d'abord lancées et déclenchent des simulations imbriquées à la volée si nécessaire pour calculer un élément à partir d'une couche inférieure. Enfin, nous présentons un algorithme basé sur un Monte Carlo imbriqué à une couche (1NMC) pour simuler les fonctions U d'un processus de Markov X. La principale originalité de la méthode proposée provient du fait qu'elle fournit une recette pour simuler U_{t>=s} conditionnellement à X_s. La généralité, la stabilité et le caractère itératif de cet algorithme, même en haute dimension, en font la force.
  • Contrôle optimal, apprentissage statistique et modélisation du carnet d'ordres.

    Othmane MOUNJID, Mathieu ROSENBAUM, Bruno BOUCHARD DENIZE, Mathieu ROSENBAUM, Charles albert LEHALLE, Gilles PAGES, Eric MOULINES, Sophie LARUELLE, Jean philippe BOUCHAUD, Olivier GUEANT, Xin GUO
    2019
    L'objectif principal de cette thèse est de comprendre les interactions entre les agents financiers et le carnet d'ordres. Elle se compose de six chapitres inter-connectés qui peuvent toutefois être lus indépendamment.Nous considérons dans le premier chapitre le problème de contrôle d'un agent cherchant à prendre en compte la liquidité disponible dans le carnet d'ordres afin d'optimiser le placement d'un ordre unitaire. Notre stratégie permet de réduire le risque de sélection adverse. Néanmoins, la valeur ajoutée de cette approche est affaiblie en présence de temps de latence: prédire les mouvements futurs des prix est peu utile si le temps de réaction des agents est lent.Dans le chapitre suivant, nous étendons notre étude à un problème d'exécution plus général où les agents traitent des quantités non unitaires afin de limiter leur impact sur le prix. Notre tactique permet d'obtenir de meilleurs résultats que les stratégies d'exécution classiques.Dans le troisième chapitre, on s'inspire de l'approche précédente pour résoudre cette fois des problèmes de market making plutôt que des problèmes d'exécution. Ceci nous permet de proposer des stratégies pertinentes compatibles avec les actions typiques des market makers. Ensuite, nous modélisons les comportements des traders haute fréquence directionnels et des brokers institutionnels dans le but de simuler un marché où nos trois types d'agents interagissent de manière optimale les uns avec les autres.Nous proposons dans le quatrième chapitre un modèle d'agents où la dynamique des flux dépend non seulement de l'état du carnet d'ordres mais aussi de l'historique du marché. Pour ce faire, nous utilisons des généralisations des processus de Hawkes non linéaires. Dans ce cadre, nous sommes en mesure de calculer en fonction de flux individuels plusieurs indicateurs pertinents. Il est notamment possible de classer les market makers en fonction de leur contribution à la volatilité.Pour résoudre les problèmes de contrôle soulevés dans la première partie de la thèse, nous avons développé des schémas numériques. Une telle approche est possible lorsque la dynamique du modèle est connue. Lorsque l'environnement est inconnu, on utilise généralement les algorithmes itératifs stochastiques. Dans le cinquième chapitre, nous proposons une méthode permettant d'accélérer la convergence de tels algorithmes.Les approches considérées dans les chapitres précédents sont adaptées pour des marchés liquides utilisant le mécanisme du carnet d'ordres. Cependant, cette méthodologie n'est plus nécessairement pertinente pour des marchés régis par des règles de fonctionnement spécifiques. Pour répondre à cette problématique, nous proposons, dans un premier temps, d'étudier le comportement des prix sur le marché très particulier de l'électricité.
  • Modèles non linéaires à urne aléatoire : un point de vue d'approximation stochastique.

    Sophie LARUELLE, Gilles PAGES
    2018
    Cet article étend le lien entre la théorie de l'approximation stochastique (SA) et les modèles d'urne randomisée développés dans Laruelle, Pagès (2013), et leurs applications aux essais cliniques introduites dans Bai, HU (1999,2005) et Bai, Hu, Shen (2002). Nous ne supposons plus que la règle de tirage est uniforme parmi les boules de l'urne (qui contient d couleurs), mais peut être renforcée par une fonction f. C'est une façon de modéliser l'aversion au risque. Tout d'abord, en considérant que f est concave ou convexe et en reformulant la dynamique de la composition de l'urne comme un algorithme SA avec reste, nous dérivons la convergence a.s. et la normalité asymptotique (Central Limit Theorem, CLT) de la procédure normalisée en faisant appel aux méthodes dites ODE et SDE. Une analyse approfondie du cas d=2 montre deux comportements différents : Un seul point d'équilibre lorsque f est concave, et lorsque f est convexe, une phase de transition d'un seul équilibre d'attraction à un système avec deux points d'équilibre d'attraction et un point d'équilibre de répulsion. Le dernier cas est résolu en utilisant des résultats sur la non-convergence vers des "pièges" bruyants et non bruyants afin de déduire la convergence a.s. vers un des points d'attraction. Ensuite, le cas particulier d'une urne de Polya (lorsque la règle d'addition est la matrice d'identité) est analysé, toujours en utilisant les résultats de la théorie de l'AS sur les ``traps''. Enfin, ces résultats sont appliqués à une fonction à variation régulière et à une allocation d'actifs optimale en finance.
  • Méthodes numériques pour les équations différentielles stochastiques : deux exemples.

    Paul eric chaudru DE RAYNAL, Gilles PAGES, Clement REY
    ESAIM: Proceedings and Surveys | 2018
    Pas de résumé disponible.
  • Séminaire de Probabilités XLIX.

    Emmanuel BOISSARD, Patrick CATTIAUX, Arnaud GUILLIN, Laurent MICLO, Florian BOUGUET, J. BROSSARD, C. LEURIDAN, Mireille CAPITAINE, Nicolas CHAMPAGNAT, Kolehe abdoulaye COULIBALY PASQUIER, Denis VILLEMONAIS, Henri elad ALTMAN, Peter KRATZ, Etienne PARDOUX, Antoine LEJAY, Paul MCGILL, Gilles PAGES, Benedikt WILBERTZ, Pierre PETIT, B. RAJEEV, Laurent SERLET, Hiroshi TSUKADA
    Lecture Notes in Mathematics | 2018
    Pas de résumé disponible.
  • Simulation de Monte Carlo biaisée, paradigme multi-niveaux.

    Gilles PAGES
    Numerical Probability | 2018
    Pas de résumé disponible.
  • Méthodes de quantification optimale I : Cubatures.

    Gilles PAGES
    Numerical Probability | 2018
    Pas de résumé disponible.
  • Amélioration des limites d'erreur pour les schémas numériques basés sur la quantification pour les BSDE et le filtrage non linéaire.

    Gilles PAGES, Abass SAGNA
    Stochastic Processes and their Applications | 2018
    Nous profitons de résultats récents (voir~\cite{GraLusPag1, PagWil}) et nouveaux sur la théorie de la quantification optimale pour améliorer les limites d'erreur quadratique de quantification optimale pour les équations différentielles stochastiques rétroactives (BSDE) et les problèmes de filtrage non linéaire. Pour ces deux problèmes, une première amélioration repose sur un théorème de Pythagore pour l'espérance conditionnelle quantifiée. Tout en permettant certaines densités conditionnelles de fonctions localement Lipschitz dans le filtrage non linéaire, l'analyse de l'erreur met en jeu un nouveau résultat de robustesse sur les quantificateurs optimaux, la propriété dite de distorsion mismatch : les quantificateurs optimaux $L^r$-quadratiques de taille $N$ se comportent en $L^s$ en terme d'erreur moyenne au même taux $N^{-\frac 1d}$, $0
  • La méthode du pont de diffusion : Application aux options dépendant du chemin (II).

    Gilles PAGES
    Numerical Probability | 2018
    Pas de résumé disponible.
  • Réduction de la variance.

    Gilles PAGES
    Numerical Probability | 2018
    Pas de résumé disponible.
  • Probabilité numérique.

    Gilles PAGES
    Universitext | 2018
    Pas de résumé disponible.
  • La finance quantitative sous une volatilité grossière.

    Omar EL EUCH, Mathieu ROSENBAUM, Jean JACOD, Bruno BOUCHARD DENIZE, Jean philippe BOUCHAUD, Gilles PAGES, Peter TANKOV, Nizar TOUZI, Josef TEICHMANN, Walter SCHACHERMAYER
    2018
    Cette thèse a pour objectif la compréhension de plusieurs aspects du caractère rugueux de la volatilité observé de manière universelle sur les actifs financiers. Ceci est fait en six étapes. Dans une première partie, on explique cette propriété à partir des comportements typiques des agents sur le marché. Plus précisément, on construit un modèle de prix microscopique basé sur les processus de Hawkes reproduisant les faits stylisés importants de la microstructure des marchés. En étudiant le comportement du prix à long terme, on montre l’émergence d’une version rugueuse du modèle de Heston (appelé modèle rough Heston) avec effet de levier. En utilisant ce lien original entre les processus de Hawkes et les modèles de Heston, on calcule dans la deuxième partie de cette thèse la fonction caractéristique du log-prix du modèle rough Heston. Cette fonction caractéristique est donnée en terme d’une solution d’une équation de Riccati dans le cas du modèle de Heston classique. On montre la validité d’une formule similaire dans le cas du modèle rough Heston, où l’équation de Riccati est remplacée par sa version fractionnaire. Cette formule nous permet de surmonter les difficultés techniques dues au caractère non markovien du modèle afin de valoriser des produits dérivés. Dans la troisième partie, on aborde la question de la gestion des risques des produits dérivés dans le modèle rough Heston. On présente des stratégies de couverture utilisant comme instruments l’actif sous-jacent et la courbe variance forward. Ceci est fait en spécifiant la structure markovienne infini-dimensionnelle du modèle. Étant capable de valoriser et couvrir les produits dérivés dans le modèle rough Heston, nous confrontons ce modèle à la réalité des marchés financiers dans la quatrième partie. Plus précisément, on montre qu’il reproduit le comportement de la volatilité implicite et historique. On montre également qu’il génère l’effet Zumbach qui est une asymétrie par inversion du temps observée empiriquement sur les données financières. On étudie dans la cinquième partie le comportement limite de la volatilité implicite à la monnaie à faible maturité dans le cadre d’un modèle à volatilité stochastique général (incluant le modèle rough Bergomi), en appliquant un développement de la densité du prix de l’actif. Alors que l’approximation basée sur les processus de Hawkes a permis de traiter plusieurs questions relatives au modèle rough Heston, nous examinons dans la sixième partie une approximation markovienne s’appliquant sur une classe plus générale de modèles à volatilité rugueuse. En utilisant cette approximation dans le cas particulier du modèle rough Heston, on obtient une méthode numérique pour résoudre les équations de Riccati fractionnaires. Enfin, nous terminons cette thèse en étudiant un problème non lié à la littérature sur la volatilité rugueuse. Nous considérons le cas d’une plateforme cherchant le meilleur système de make-take fees pour attirer de la liquidité. En utilisant le cadre principal-agent, on décrit le meilleur contrat à proposer au market maker ainsi que les cotations optimales affichées par ce dernier. Nous montrons également que cette politique conduit à une meilleure liquidité et à une baisse des coûts de transaction pour les investisseurs.
  • Simulation Langevin multiniveau pondérée de mesures invariantes.

    Gilles PAGES, Fabien PANLOUP
    The Annals of Applied Probability | 2018
    Nous étudions une extrapolation de Richardson-Romberg multi-niveaux pondérée pour l'approximation ergodique de distributions invariantes de diffusions adaptée de celle introduite dans~[Lemaire-Pag\`es, 2013] pour la simulation Monte Carlo régulière. Dans un premier résultat, nous prouvons sous des hypothèses de confluence faible sur la diffusion, que pour tout entier $R\ge2$, la procédure permet d'atteindre un taux $n^{\frac{R}{2R+1}}$ alors que la convergence de l'algorithme original est à un faible taux $n^{1/3}$. De plus, ceci est réalisé sans aucune explosion de la variance asymptotique. Dans une deuxième partie, sous des hypothèses de confluence plus fortes et à l'aide de certaines expansions du second ordre de l'erreur asymptotique, nous approfondissons l'étude en optimisant le choix des paramètres impliqués par la méthode. En particulier, pour un $\varepsilon>0$ donné, nous présentons quelques paramètres semi-explicites pour lesquels le nombre d'itérations du schéma d'Euler nécessaire pour atteindre une erreur quadratique moyenne inférieure à $\varepsilon^2$ est d'environ $\varepsilon^{-2}\log(\varepsilon^{-1})$. Enfin, nous calculons numériquement cet estimateur de Langevin multi-niveaux sur plusieurs exemples dont le simple processus d'Ornstein-Uhlenbeck unidimensionnel mais aussi sur une diffusion de haute dimension motivée par un problème statistique. Ces exemples confirment l'efficacité théorique de la méthode.
  • Approximation stochastique avec applications à la finance.

    Gilles PAGES
    Numerical Probability | 2018
    Pas de résumé disponible.
  • Schéma(s) de discrétisation d'une diffusion brownienne.

    Gilles PAGES
    Numerical Probability | 2018
    Pas de résumé disponible.
  • Taux net pour le problème de la quantification double.

    Gilles PAGES, Benedikt WILBERTZ
    Lecture Notes in Mathematics | 2018
    Dans cet article, nous établissons le taux de netteté du problème de la double quantification optimale. La notion de quantification double a été récemment introduite dans l'article [8], où il a été montré que, au moins dans un cadre euclidien, les quantificateurs doubles sont basés sur une triangulation de Delaunay, la contrepartie double de la tessellation de Voronoï sur laquelle repose la quantification "régulière". De plus, cette nouvelle approche partage une propriété de stationnarité intrinsèque, ce qui la rend très précieuse pour les applications numériques. Nous établissons dans cet article la contrepartie pour la quantification double du célèbre théorème de Zador, qui décrit l'asymptotique nette de l'erreur de quantification lorsque la taille du quantificateur tend vers l'infini. La preuve de ce théorème repose entre autres sur une extension du Lemme de Pierce au moyen d'un argument de quantification aléatoire.
  • Une analyse générale des erreurs faibles et fortes de la quantification récursive avec une application aux diffusions par saut.

    Gilles PAGES, Abass SAGNA
    2018
    Observant que les développements récents de la méthode de quantification récursive (produit) induisent une famille de chaînes de Markov qui inclut tous les schémas de discrétisation standard des processus de diffusion, nous proposons de calculer une limite d'erreur générale induite par les schémas de quantification récursive en utilisant cette structure markovienne générique. De plus, nous calculons une erreur marginale faible pour la quantification récursive. Nous étendons également la méthode de quantification récursive au schéma d'Euler associé aux processus de diffusion avec sauts, qui ont toujours cette structure markovienne, et nous disons comment calculer la quantification récursive et les poids et poids de transition associés.
  • Quantification markovienne du produit d'un processus de diffusion avec applications à la finance.

    Lucio FIORIN, Gilles PAGES, Abass SAGNA
    Methodology and Computing in Applied Probability | 2018
    Pas de résumé disponible.
  • Optimal Stopping, Options américaines/bermudiennes multi-actifs.

    Gilles PAGES
    Numerical Probability | 2018
    Pas de résumé disponible.
  • Simulation de variables aléatoires.

    Gilles PAGES
    Numerical Probability | 2018
    Pas de résumé disponible.
  • Retour au calcul de la sensibilité.

    Gilles PAGES
    Numerical Probability | 2018
    Pas de résumé disponible.
  • La méthode de Monte Carlo et ses applications à la fixation du prix des options.

    Gilles PAGES
    Numerical Probability | 2018
    Pas de résumé disponible.
  • La méthode Quasi-Monte Carlo.

    Gilles PAGES
    Numerical Probability | 2018
    Pas de résumé disponible.
  • Miscellany.

    Gilles PAGES
    Numerical Probability | 2018
    Pas de résumé disponible.
  • Estimations gaussiennes non asymptotiques pour l'approximation récursive de la mesure invariante d'une diffusion.

    Igor HONORE, Stephane MENOZZI, Gilles PAGES
    2018
    Nous obtenons des limites de concentration gaussiennes non asymptotiques pour la différence entre la mesure invariante ν d'un processus de diffusion brownien ergodique et la distribution empirique d'un schéma d'approximation avec un pas de temps décroissant le long d'une classe appropriée de fonctions de test f (suffisamment lisses) telles que f - ν(f) est un coboundary du générateur infinitésimal. Nous montrons que ces limites peuvent encore être améliorées lorsque la norme de Fröbenius (au carré) du coefficient de diffusion se trouve dans cette classe. Nous appliquons ces limites pour concevoir des intervalles de confiance non asymptotiques calculables pour le schéma d'approximation. Comme application théorique, nous dérivons finalement des limites de déviation non-asymptotiques pour le théorème central limite presque sûr.
  • Supplément à "Simulation Langevin multiniveau pondérée des mesures invariantes.

    Gilles PAGES, Fabien PANLOUP
    2018
    Pas de résumé disponible.
  • Erreur faible pour les Monte-Carlo multiniveaux emboîtés.

    Daphne GIORGI, Vincent LEMAIRE, Gilles PAGES
    2018
    Cet article traite des estimateurs MLMC avec et sans poids, appliqués aux attentes imbriquées de la forme E [f (E [F (Y, Z)|Y ])]. Plus précisément, nous nous intéressons aux hypothèses nécessaires pour respecter le cadre MLMC, selon que la fonction de gain f est lisse ou non. Un nouveau résultat à notre connaissance est donné lorsque f n'est pas lisse dans le développement de l'erreur faible à un ordre supérieur à 1, qui est nécessaire pour une utilisation réussie des estimateurs MLMC avec poids.
  • Discrétisation de processus à des temps d’arrêt et Quantification d'incertitude pour des algorithmes stochastiques.

    Uladzislau STAZHYNSKI, Emmanuel GOBET, Gilles PAGES, Emmanuel GOBET, Mathieu ROSENBAUM, Josselin GARNIER, Gersende FORT, Fabien PANLOUP, Philip e. PROTTER
    2018
    Cette thèse contient deux parties qui étudient deux sujets différents. Les Chapitres 1-4 sont consacrés aux problèmes de discrétisation de processus à des temps d’arrêt. Dans le Chapitre 1 on étudie l'erreur de discrétisation optimale pour des intégrales stochastiques par rapport à une semimartingale brownienne multidimensionnelle continue. Dans ce cadre on établit une borne inférieure trajectorielle pour la variation quadratique renormalisée de l'erreur. On fournit une suite de temps d’arrêt qui donne une discrétisation asymptotiquement optimale. Cette suite est définie comme temps de sortie d'ellipsoïdes aléatoires par la semimartingale. Par rapport aux résultats précédents on permet une classe de semimartingales assez large. On démontre qui la borne inférieure est exacte. Dans le Chapitre 2 on étudie la version adaptative au modèle de la discrétisation optimale d’intégrales stochastique. Dans le Chapitre 1 la construction de la stratégie optimale utilise la connaissance du coefficient de diffusion de la semimartingale considérée. Dans ce travail on établit une stratégie de discrétisation asymptotiquement optimale qui est adaptative au modèle et n'utilise pas aucune information sur le modèle. On démontre l'optimalité pour une classe de grilles de discrétisation assez générale basée sur les technique de noyau pour l'estimation adaptative. Dans le Chapitre 3 on étudie la convergence en loi des erreurs de discrétisation renormalisées de processus d’Itô pour une classe concrète et assez générale de grilles de discrétisation données par des temps d’arrêt. Les travaux précédents sur le sujet considèrent seulement le cas de dimension 1. En plus ils concentrent sur des cas particuliers des grilles, ou démontrent des résultats sous des hypothèses abstraites. Dans notre travail on donne explicitement la distribution limite sous une forme claire et simple, les résultats sont démontré dans le cas multidimensionnel pour le processus et pour l'erreur de discrétisation. Dans le Chapitre 4 on étudie le problème d'estimation paramétrique pour des processus de diffusion basée sur des observations à temps d’arrêt. Les travaux précédents sur le sujet considèrent que des temps d'observation déterministes, fortement prévisibles ou aléatoires indépendants du processus. Sous des hypothèses faibles on construit une suite d'estimateurs consistante pour une classe large de grilles d'observation données par des temps d’arrêt. On effectue une analyse asymptotique de l'erreur d'estimation. En outre, dans le cas du paramètre de dimension 1, pour toute suite d'estimateurs qui vérifie un TCL sans biais, on démontre une borne inférieure uniforme pour la variance asymptotique. on montre que cette borne est exacte. Les Chapitres 5-6 sont consacrés au problème de quantification d'incertitude pour des limites d'approximation stochastique. Dans le Chapitre 5 on analyse la quantification d'incertitude pour des limites d'approximation stochastique (SA). Dans notre cadre la limite est définie comme un zéro d'une fonction donnée par une espérance. Cette espérance est prise par rapport à une variable aléatoire pour laquelle le modèle est supposé de dépendre d'un paramètre incertain. On considère la limite de SA comme une fonction de cette paramètre. On introduit un algorithme qui s'appelle USA (Uncertainty for SA). C'est une procédure en dimension croissante pour calculer les coefficients de base d'expansion de chaos de cette fonction dans une base d'un espace de Hilbert bien choisi. La convergence de USA dans cet espace de Hilbert est démontré. Dans le Chapitre 6 on analyse le taux de convergence dans L2 de l'algorithme USA développé dans le Chapitre 5. L'analyse est non trivial à cause de la dimension infinie de la procédure. Le taux obtenu dépend du modèle et des paramètres utilisés dans l'algorithme USA. Sa connaissance permet d'optimiser la vitesse de croissance de la dimension dans USA.
  • Calcul récursif de la distribution invariante des processus de Markov et de Feller.

    Gilles PAGES, Clement REY
    2017
    Cet article propose une approche générale et abstraite pour approximer les régimes ergodiques des processus de Markov et de Feller. Plus précisément, nous montrons que l'algorithme récursif présenté par Lamberton et Pagès en 2002, et basé sur des algorithmes de simulation de schémas stochastiques à pas décroissant peut être utilisé pour construire des mesures invariantes pour des processus de Markov et de Feller généraux. Nous proposons également des applications dans trois configurations différentes : Approximation des régimes ergodiques de diffusion brownienne à commutation de Markov à l'aide du schéma d'Euler, approximation des régimes ergodiques de diffusion brownienne de Markov avec le schéma de Milstein et approximation des régimes ergodiques de diffusions générales avec composantes de saut.
  • Extrapolation Richardson-Romberg à plusieurs niveaux.

    Vincent LEMAIRE, Gilles PAGES
    Bernoulli | 2017
    Nous proposons et analysons un estimateur de Richardson-Romberg à plusieurs niveaux ($MLRR$) qui combine l'annulation du biais d'ordre supérieur de la méthode de Richardson-Romberg à plusieurs étapes ($MSRR$) introduite dans [Pages 07] et le contrôle de la variance résultant de la stratification dans la méthode de Monte Carlo à plusieurs niveaux ($MLMC$) (voir [Heinrich, 01] et [Giles, 08]). Ainsi, nous montrons que dans des cadres standards comme les schémas de discrétisation des processus de diffusion, une erreur quadratique assignée $\varepsilon$ peut être obtenue avec notre estimateur ($MLRR$) avec une complexité globale de $\log(1/\varepsilon)/\varepsilon^2$ au lieu de $(\log(1/\varepsilon))^2/\varepsilon^2$ avec la méthode standard ($MLMC$), du moins lorsque l'erreur faible $E[Y_h]-E[Y_0]$ de l'estimateur biaisé mis en œuvre $Y_h$ peut être développée à tout ordre dans $h$. Nous analysons et comparons ces estimateurs sur deux problèmes numériques : la classique évaluation d'options vanille et exotiques par simulation de Monte Carlo et la moins classique simulation de Monte Carlo imbriquée.
  • Théorèmes de limite pour les estimateurs multiniveaux pondérés et réguliers.

    Daphne GIORGI, Vincent LEMAIRE, Gilles PAGES
    Monte Carlo Methods and Applications | 2017
    Nous cherchons à analyser en termes de convergence a.s. et de taux faible les performances de l'estimateur Multilevel Monte Carlo (MLMC) introduit dans [Gil08] et de sa version pondérée, l'estimateur Multilevel Richardson Romberg (ML2R), introduit dans [LP14]. Ces deux estimateurs permettent de calculer une approximation très précise de $I_0 = \mathbb{E}[Y_0]$ par un estimateur de type Monte Carlo lorsque la variable aléatoire (non dégénérée) $Y_0 \in L^2(\mathbb{P})$ ne peut pas être simulée (exactement) à un coût de calcul raisonnable alors qu'une famille d'approximations simulables $(Y_h)_{h \in \mathcal{H}}$ est disponible. Nous effectuerons ces recherches dans un cadre abstrait avant d'appliquer nos résultats, principalement une loi forte des grands nombres et un théorème central limite, à quelques champs d'applications typiques : schémas de discrétisation des diffusions et Monte Carlo imbriqué.
  • Quantification markovienne de produit d'un schéma d'Euler à valeur R^d d'un processus de diffusion avec des applications à la finance.

    Fiorin LUCIO, Gilles PAGES, Abass SAGNA
    2017
    Nous introduisons une nouvelle approche pour quantifier le schéma d'Euler d'un processus de diffusion à valeurs $\mathbb R^d$. Cette méthode est basée sur une quantification markovienne et par produit de composantes et nous permet, d'un point de vue numérique, de parler d'une "quantification en ligne rapide" en dimension supérieure à un puisque la quantification par produit du schéma d'Euler du processus de diffusion et de ses poids et probabilités de transition peut être calculée assez instantanément. Nous montrons que le processus de quantification résultant est une chaîne de Markov, puis nous calculons les poids compagnons et les probabilités de transition associés à partir de formules (semi-) fermées. Du point de vue analytique, nous montrons que les erreurs de quantification induites au kième pas de discrétisation $t_k$ sont un cumul de l'erreur de quantification marginale jusqu'au temps $t_k$. Des expériences numériques sont réalisées pour l'évaluation d'une option d'achat de Basket, pour l'évaluation d'une option d'achat européenne dans un modèle de Heston et pour l'approximation de la solution d'équations différentielles stochastiques à rebours afin de montrer les performances de la méthode.
  • Quelques algorithmes rapides pour la finance quantitative.

    Guillaume SALL, Gilles PAGES, Olivier PIRONNEAU, Julien BERESTYCKI, Youssef ALLAOUI, Mike GILES, Denis TALAY
    2017
    Dans cette thèse, nous nous intéressons à des noeuds critiques du calcul du risque de contrepartie, la valorisation rapide des produits dérivées et de leurs sensibilités. Nous proposons plusieurs méthodes mathématiques et informatiques pour répondre à cette problématique. Nous contribuons à quatre domaines différents: une extension de la méthode Vibrato et l'application des méthodes multilevel Monte Carlo pour le calcul des grecques à ordre élevé n>1 avec une technique de différentiation automatique. La troisième contribution concerne l'évaluation des produits Américain, ici nous nous servons d'un schéma pararéel pour l'accélération du processus de valorisation et nous faisons également une application pour la résolution d'une équation différentielle stochastique rétrograde. La quatrième contribution est la conception d'un moteur de calcul performant à architecture parallèle.
  • Théorèmes limites pour estimateurs Multilevel avec et sans poids. Comparaisons et applications.

    Daphne GIORGI, Gilles PAGES, Nicole EL KAROUI, Ahmed KEBAIER, Vincent LEMAIRE, Mike GILES, Benjamin JOURDAIN
    2017
    Dans ce travail, nous nous intéressons aux estimateurs Multilevel Monte Carlo. Ces estimateurs vont apparaître sous leur forme standard, avec des poids et dans une forme randomisée. Nous allons rappeler leurs définitions et les résultats existants concernant ces estimateurs en termes de minimisation du coût de simulation. Nous allons ensuite montrer une loi forte des grands nombres et un théorème central limite. Après cela nous allons étudier deux cadres d'applications. Le premier est celui des diffusions avec schémas de discrétisation antithétiques, où nous allons étendre les estimateurs Multilevel aux estimateurs Multilevel avec poids. Le deuxième est le cadre nested, où nous allons nous concentrer sur les hypothèses d'erreur forte et faible. Nous allons conclure par l'implémentation de la forme randomisée des estimateurs Multilevel, en la comparant aux estimateurs Multilevel avec et sans poids.
  • Nouveaux paradigmes en dynamique de populations hétérogènes : modélisation trajectorielle, agrégation, et données empiriques.

    Sarah KAAKAI, Nicole EL KAROUI, Gilles PAGES, Ana maria DEBON AUCEJO, Romuald ELIE, Stephane LOISEL, Sylvie MELEARD, Etienne PARDOUX
    2017
    Cette thèse porte sur la modélisation probabiliste de l’hétérogénéité des populations humaines et de son impact sur la longévité. Depuis quelques années, de nombreuses études montrent une augmentation alarmante des inégalités de mortalité géographiques et socioéconomiques. Ce changement de paradigme pose des problèmes que les modèles démographiques traditionnels ne peuvent résoudre, et dont la formalisation exige une observation fine des données dans un contexte pluridisciplinaire. Avec comme fil conducteur les modèles de dynamique de population, cette thèse propose d’illustrer cette complexité selon différents points de vue: Le premier propose de montrer le lien entre hétérogénéité et non-linéarité en présence de changements de composition de la population. Le processus appelé Birth Death Swap est défini par une équation dirigée par une mesure de Poisson à l’aide d’un résultat de comparaison trajectoriel. Quand les swaps sont plus rapides que les évènements démographiques, un résultat de moyennisation est établi par convergence stable et comparaison. En particulier, la population agrégée tend vers une dynamique non-linéaire. Nous étudions ensuite empiriquement l’impact de l’hétérogénéité sur la mortalité agrégée, en s’appuyant sur des données de population anglaise structurée par âge et circonstances socioéconomiques. Nous montrons par des simulations numériques comment l’hétérogénéité peut compenser la réduction d’une cause de mortalité. Le dernier point de vue est une revue interdisciplinaire sur les déterminants de la longévité, accompagnée d’une réflexion sur l’évolution des outils pour l’analyser et des nouveaux enjeux de modélisation face à ce changement de paradigme.
  • Vibrato et différenciation automatique pour les dérivés d'ordre élevé et les sensibilités des options financières.

    Gilles PAGES, Olivier PIRONNEAU, Guillaume SALL
    Journal of Computational Finance | 2017
    Cet article traite du calcul des grecques de second ordre ou d'ordre supérieur des titres financiers. Il combine deux méthodes, le Vibrato et la différenciation automatique, et les compare à d'autres méthodes. Nous montrons que cette technique combinée est plus rapide que les différences finies standard, plus stable que la différentiation automatique des dérivées d'ordre 2 et plus générale que le calcul de Malliavin. Nous présentons un cadre générique pour calculer n'importe quels grecs et présentons plusieurs applications sur différents types de contrats financiers : Options européennes et américaines, Basket Call multidimensionnel et modèles de volatilité stochastique tels que le modèle de Heston. Nous donnons également un algorithme pour calculer les dérivés pour la méthode de Monte Carlo de Longstaff-Schwartz pour les options américaines. Nous étendons également la différentiation automatique aux dérivés de second ordre des options dont le gain n'est pas deux fois différentiable.
  • Algorithmes stochastiques pour la gestion du risque et l'indexation de bases de données de média.

    Victor REUTENAUER, Denis TALAY, Gilles PAGES, Nicole EL KAROUI, Denis TALAY, Gilles PAGES, Nicole EL KAROUI, Jean francois CHASSAGNEUX, Benjamin JOURDAIN, Emmanuel GOBET, Jean francois CHASSAGNEUX, Benjamin JOURDAIN
    2017
    Cette thèse s’intéresse à différents problèmes de contrôle et d’optimisation dont il n’existe à ce jour que des solutions approchées. D’une part nous nous intéressons à des techniques visant à réduire ou supprimer les approximations pour obtenir des solutions plus précises voire exactes. D’autre part nous développons de nouvelles méthodes d’approximation pour traiter plus rapidement des problèmes à plus grande échelle. Nous étudions des méthodes numériques de simulation d’équation différentielle stochastique et d’amélioration de calculs d’espérance. Nous mettons en œuvre des techniques de type quantification pour la construction de variables de contrôle ainsi que la méthode de gradient stochastique pour la résolution de problèmes de contrôle stochastique. Nous nous intéressons aussi aux méthodes de clustering liées à la quantification, ainsi qu’à la compression d’information par réseaux neuronaux. Les problèmes étudiés sont issus non seulement de motivations financières, comme le contrôle stochastique pour la couverture d’option en marché incomplet mais aussi du traitement des grandes bases de données de médias communément appelé Big data dans le chapitre 5. Théoriquement, nous proposons différentes majorations de la convergence des méthodes numériques d’une part pour la recherche d’une stratégie optimale de couverture en marché incomplet dans le chapitre 3, d’autre part pour l’extension la technique de Beskos-Roberts de simulation d’équation différentielle dans le chapitre 4. Nous présentons une utilisation originale de la décomposition de Karhunen-Loève pour une réduction de variance de l’estimateur d’espérance dans le chapitre 2.
  • Séminaire de Probabilités XLVIII.

    Mathias BEIGLBOCK, Martin HUESMANN, Florian STEBEGG, Nicolas JUILLET, Gilles PAGES, Dai TAGUCHI, Alexis DEVULDER, Matyas BARCZY, Peter KERN, Ismael BAILLEUL, Jurgen ANGST, Camille TARDIF, Nicolas PRIVAULT, Anita BEHME, Alexander LINDNER, Makoto MAEJIMA, Cedric LECOUVEY, Kilian RASCHEL, Christophe PROFETA, Thomas SIMON, Oleskiy KHORUNZHIY, Songzi LI, Franck MAUNOURY, Stephane LAURENT, Anna AKSAMIT, Libo LI, David APPLEBAUM, Wendelin WERNER
    Lecture Notes in Mathematics | 2016
    Outre l'approfondissement du sujet des paons, introduit dans les derniers Séminaires de Probabilités, ce volume poursuit l'intérêt de la série pour les thèmes de recherche actuels dans des domaines traditionnels tels que le calcul stochastique, les filtrations et les matrices aléatoires. On y trouve également des articles particulièrement intéressants sur les mesures harmoniques, les champs aléatoires et les soupes à boucles. Les contributeurs présentés sont Mathias Beiglböck, Martin Huesmann et Florian Stebegg, Nicolas Juillet, Gilles Pags, Dai Taguchi, Alexis Devulder, Mátyás Barczy et Peter Kern, I. Bailleul, Jürgen Angst et Camille Tardif, Nicolas Privault, Anita Behme, Alexander Lindner et Makoto Maejima, Cédric Lecouvey et Kilian Raschel, Christophe Profeta et Thomas Simon, O. Khorunzhiy et Songzi Li, Franck Maunoury, Stéphane Laurent, Anna Aksamit et Libo Li, David Applebaum et Wendelin Werner .
  • L'algorithme pararéal pour les options américaines.

    Gilles PAGES, Olivier PIRONNEAU, Guillaume SALL
    Comptes Rendus Mathématique | 2016
    Cette note fournit une description de la méthode pararéale, une section numérique pour évaluer la performance de la méthode pour les contrats américains dans le cas scalaire calculés par LSMC et parallélisés par décomposition temporelle pararéale à deux ou plusieurs niveaux. Il contient également une preuve de convergence pour la méthode de Monte-Carlo pa- rare à deux niveaux lorsque la solution de la grille grossière est calculée par un schéma explicite d'Euler avec un pas de temps ∆t > δt, le pas de temps utilisé pour le schéma d'Euler au niveau de la grille fine. Le théorème fournit donc un outil pour analyser également la méthode pararéale multi-niveaux.
  • Schéma de Ninomiya-Victoir : convergence forte, asymptotique pour l'erreur normalisée et méthodes de Monte-Carlo à plusieurs niveaux.

    Anis AL GERBI, Benjamin JOURDAIN, Emmanuelle CLEMENT, Gilles PAGES, Benjamin JOURDAIN, Emmanuelle CLEMENT, Pierre HENRY LABORDERE, Ahmed KEBAIER, Antoine LEJAY, Fabien PANLOUP
    2016
    Cette thèse est consacrée à l'étude des propriétés de convergence forte du schéma de Ninomiya et Victoir. Les auteurs de ce schéma proposent d'approcher la solution d'une équation différentielle stochastique (EDS), notée $X$, en résolvant $d+1$ équations différentielles ordinaires (EDOs) sur chaque pas de temps, où $d$ est la dimension du mouvement brownien. Le but de cette étude est d'analyser l'utilisation de ce schéma dans une méthode de Monte-Carlo multi-pas. En effet, la complexité optimale de cette méthode est dirigée par l'ordre de convergence vers $0$ de la variance entre les schémas utilisés sur la grille grossière et sur la grille fine. Cet ordre de convergence est lui-même lié à l'ordre de convergence fort entre les deux schémas. Nous montrons alors dans le chapitre $2$, que l'ordre fort du schéma de Ninomiya-Victoir, noté $X^{NV,eta}$ et de pas de temps $T/N$, est $1/2$. Récemment, Giles et Szpruch ont proposé un estimateur Monte-Carlo multi-pas réalisant une complexité $Oleft(epsilon^{-2}right)$ à l'aide d'un schéma de Milstein modifié. Dans le même esprit, nous proposons un schéma de Ninomiya-Victoir modifié qui peut-être couplé à l'ordre fort $1$ avec le schéma de Giles et Szpruch au dernier niveau d'une méthode de Monte-Carlo multi-pas. Cette idée est inspirée de Debrabant et Rossler. Ces auteurs suggèrent d'utiliser un schéma d'ordre faible élevé au niveau de discrétisation le plus fin. Puisque le nombre optimal de niveaux de discrétisation d'une méthode de Monte-Carlo multi-pas est dirigé par l'erreur faible du schéma utilisé sur la grille fine du dernier niveau de discrétisation, cette technique permet d'accélérer la convergence de la méthode Monte-Carlo multi-pas en obtenant une approximation d'ordre faible élevé. L'utilisation du couplage à l'ordre $1$ avec le schéma de Giles-Szpruch nous permet ainsi de garder un estimateur Monte-Carlo multi-pas réalisant une complexité optimale $Oleft( epsilon^{-2} right)$ tout en profitant de l'erreur faible d'ordre $2$ du schéma de Ninomiya-Victoir. Dans le troisième chapitre, nous nous sommes intéressés à l'erreur renormalisée définie par $sqrt{N}left(X - X^{NV,eta}right)$. Nous montrons la convergence en loi stable vers la solution d'une EDS affine, dont le terme source est formé des crochets de Lie entre les champs de vecteurs browniens. Ainsi, lorsqu'au moins deux champs de vecteurs browniens ne commutent pas, la limite n'est pas triviale. Ce qui assure que l'ordre fort $1/2$ est optimal. D'autre part, ce résultat peut être vu comme une première étape en vue de prouver un théorème de la limite centrale pour les estimateurs Monte-Carlo multi-pas. Pour cela, il faut analyser l'erreur en loi stable du schéma entre deux niveaux de discrétisation successifs. Ben Alaya et Kebaier ont prouvé un tel résultat pour le schéma d'Euler. Lorsque les champs de vecteurs browniens commutent, le processus limite est nul. Nous montrons que dans ce cas précis, que l'ordre fort est $1$. Dans le chapitre 4, nous étudions la convergence en loi stable de l'erreur renormalisée $Nleft(X - X^{NV}right)$ où $X^{NV}$ est le schéma de Ninomiya-Victoir lorsque les champs de vecteurs browniens commutent. Nous démontrons la convergence du processus d'erreur renormalisé vers la solution d'une EDS affine. Lorsque le champ de vecteurs dritf ne commute pas avec au moins un des champs de vecteurs browniens, la vitesse de convergence forte obtenue précédemment est optimale.
  • Vibrato et différenciation automatique pour les dérivés d'ordre élevé et les sensibilités des options financières.

    Gilles PAGES, Olivier PIRONNEAU, Guillaume SALL
    2016
    Cet article traite du calcul des grecques de second ordre ou d'ordre supérieur des titres financiers. Il combine deux méthodes, le Vibrato et la différenciation automatique, et les compare à d'autres méthodes. Nous montrons que cette technique combinée est plus rapide que les différences finies standard, plus stable que la différentiation automatique des dérivées d'ordre 2 et plus générale que le calcul de Malliavin. Nous présentons un cadre générique pour calculer n'importe quels grecs et présentons plusieurs applications sur différents types de contrats financiers : Options européennes et américaines, Basket Call multidimensionnel et modèles de volatilité stochastique tels que le modèle de Heston. Nous donnons également un algorithme pour calculer les dérivés pour la méthode de Monte Carlo de Longstaff-Schwartz pour les options américaines. Nous étendons également la différenciation automatique pour les dérivés de second ordre des options dont le gain n'est pas deux fois différentiable. 1. Introduction. En raison de la réglementation BASEL III, les banques sont tenues d'évaluer quotidiennement les sensibilités de leurs portefeuilles (évaluation des risques). Certains de ces portefeuilles sont énormes et les sensibilités sont longues à calculer avec précision. Confrontés au problème de la construction d'un logiciel pour cette tâche et se méfiant de la différenciation automatique pour les fonctions non-différentiables, nous nous sommes tournés vers une idée développée par Mike Giles appelée Vibrato. Vibrato est en fait une différenciation d'une combinaison de la méthode du rapport de vraisemblance et de l'évaluation du chemin. Dans Giles [12], [13], il est démontré que le temps de calcul, la stabilité et la précision sont améliorés par rapport à la différenciation numérique du chemin de Monte Carlo complet. Dans de nombreux cas, des sensibilités doubles, c'est-à-dire des dérivées secondes par rapport aux paramètres, sont nécessaires (par exemple, couverture gamma). L'approximation des sensibilités par différence finie est une méthode très simple mais sa précision est difficile à contrôler car elle dépend du choix approprié de l'incrément. La différenciation automatique des programmes informatiques contourne cette difficulté et son coût de calcul est similaire à celui de la différence finie, voire moins cher. Mais en finance, le gain n'est jamais deux fois différentiable et il faut donc utiliser des dérivées généralisées nécessitant des approximations des fonctions de Dirac dont la précision est également douteuse. L'objectif de cet article est d'étudier la faisabilité du Vibrato pour les dérivées secondes et supérieures. Nous allons d'abord comparer le Vibrato appliqué deux fois avec la différenciation analytique du Vibrato et montrer qu'elle est équivalente. Comme la seconde est plus facile, nous proposons le meilleur compromis pour les dérivées secondes : La différenciation automatique du Vibrato. Dans [8], Capriotti a récemment étudié le couplage de différentes méthodes mathématiques - à savoir les méthodes du chemin et du rapport de vraisemblance - avec une différentiation automatique.
  • Modélisation des risques souverains et applications.

    Jean francois, shanqiu LI, Jiao YING, Huyen PHAM, Gilles PAGES, Caroline HILLAIRET, Monique JEANBLANC, Idris KHARROUBI, Stephane CREPEY
    2016
    La présente thèse traite la modélisation mathématique des risques souverains et ses applications.Dans le premier chapitre, motivé par la crise de la dette souveraine de la zone euro, nous proposons un modèle de risque de défaut souverain. Ce modèle prend en compte aussi bien le mouvement de la solvabilité souveraine que l’impact des événements politiques critiques, en y additionnant un risque de crédit idiosyncratique. Nous nous intéressons aux probabilités que le défaut survienne aux dates d’événements politiques critiques, pour lesquelles nous obtenons des formules analytiques dans un cadre markovien, où nous traitons minutieusement quelques particularités inhabituelles, entre autres le modèle CEV lorsque le paramètre d’élasticité β >1. Nous déterminons de manière explicite le processus compensateur du défaut et montrons que le processus d’intensité n’existe pas, ce qui oppose notre modèle aux approches classiques. Dans le deuxième chapitre, en examinant certains modèles hybrides issus de la littérature, nous considérons une classe de temps aléatoires dont la loi conditionnelle est discontinue et pour lesquels les hypothèses classiques du grossissement de filtrations ne sont pas satisfaites. Nous étendons l’approche de densité à un cadre plus général, où l’hypothèse de Jacod s’assouplit, afin de traiter de tels temps aléatoires dans l’univers du grossissement progressif de filtrations. Nous étudions également des problèmes classiques : le calcul du compensateur, la décomposition de la surmartingale d’Azéma, ainsi que la caractérisation des martingales. La décomposition des martingales et des semi-martingales dans la filtration élargie affirme que l’hypothèse H’ demeure valable dans ce cadre généralisé. Dans le troisième chapitre, nous présentons des applications des modèles proposés dans les chapitres précédents. L’application la plus importante du modèle de défaut souverain et de l’approche de densité généralisée est l’évaluation des titres soumis au risque de défaut. Les résultats expliquent les sauts négatifs importants dans le rendement actuariel de l’obligation à long terme de la Grèce pendant la crise de la dette souveraine. La solvabilité de la Grèce a tendance à s’empirer au fil des années et le rendement de l’obligation a des sauts négatifs lors des événements politiques critiques. En particulier, la taille d’un saut dépend de la gravité d’un choc exogène, du temps écoulé depuis le dernier événement politique, et de la valeur du recouvrement. L’approche de densité généralisée rend aussi possible la modélisation des défauts simultanés qui, bien que rares, ont un impact grave sur le marché.
  • Couverture CVaR à l'aide d'un algorithme d'approximation stochastique basé sur la quantification.

    G. PAGES, O. BARDOU, N. FRIKHA
    Mathematical Finance | 2016
    Pas de résumé disponible.
  • Quantification marginale récursive du schéma d'Euler d'un processus de diffusion.

    G. PAGES, A. SAGNA
    Applied Mathematical Finance | 2015
    Pas de résumé disponible.
  • Méthodes d'échantillonnage stratifié basées sur la quantification fonctionnelle.

    Sylvain CORLAY, Gilles PAGES
    Monte Carlo Methods and Applications | 2015
    Dans cet article, nous proposons plusieurs méthodes d'échantillonnage stratifié basées sur la quantification pour réduire la variance d'une simulation de Monte Carlo. Les aspects théoriques de la stratification conduisent à un lien fort entre la quantification quadratique optimale et la réduction de la variance qui peut être obtenue avec l'échantillonnage stratifié. Nous mettons d'abord l'accent sur la cohérence de la quantification pour le partitionnement de l'espace d'état dans les méthodes d'échantillonnage stratifié dans les cas de dimension finie et infinie. Nous montrons que le plan de strates basé sur la quantification proposé a une efficacité uniforme dans la classe des fonctions continues de Lipschitz. Ensuite, un algorithme d'échantillonnage stratifié basé sur la quantification fonctionnelle du produit est proposé pour les fonctionnelles dépendantes du chemin des diffusions multifactorielles. La méthode est également disponible pour d'autres processus gaussiens tels que le pont brownien ou les processus d'Ornstein-Uhlenbeck. Nous dérivons en détail le cas des processus d'Ornstein-Uhlenbeck. Nous étudions également l'équilibre entre la complexité algorithmique de la simulation et le facteur de réduction de la variance.
  • Mesure invariante des diffusions dupliquées et application à l'extrapolation de Richardson-Romberg.

    Vincent LEMAIRE, Gilles PAGES, Fabien PANLOUP
    Annales de l'Institut Henri Poincaré, Probabilités et Statistiques | 2015
    En vue d'applications numériques, nous abordons la question suivante : étant donné une diffusion brownienne ergodique avec une distribution invariante unique, quelles sont les distributions invariantes du système dupliqué constitué de deux trajectoires ? Nous nous concentrons principalement sur le cas intéressant où les deux trajectoires sont conduites par le même chemin brownien. Sous cette hypothèse, nous montrons d'abord que l'unicité de la distribution invariante (confluence faible) du système dupliqué est essentiellement toujours vraie dans le cas unidimensionnel. Dans le cas multidimensionnel, nous commençons par exposer des contre-exemples explicites. Ensuite, nous fournissons une série de critères de confluence faible (de type intégral) et également de confluence par chemin a.s., dépendant des coefficients de dérive et de diffusion par le biais d'un exposant de Lyapunov non infinitésimal. A titre d'exemple, nous appliquons nos critères à certains contextes non trivialement confluents tels que des classes de systèmes de gradient avec des potentiels non convexes ou des diffusions où la confluence est générée par la composante diffusive. Nous établissons enfin que la propriété de confluence faible est liée à un problème de transport optimal. Comme application principale, nous appliquons nos résultats à l'optimisation de l'extrapolation de Richardson-Romberg pour l'approximation numérique de la mesure invariante de la diffusion brownienne ergodique initiale.
  • Mesure invariante des diffusions dupliquées et application à l'extrapolation de Richardson-Romberg.

    V. LEMAIRE, G. PAGES, Fabien PANLOUP
    Annales de l'IHP - Probabilités et Statistiques | 2015
    Pas de résumé disponible.
  • Introduction à la quantification vectorielle et à ses applications en numérique.

    Gilles PAGES
    ESAIM: Proceedings and Surveys | 2015
    Nous présentons une étude introductive à la quantification vectorielle optimale et ses premières applications aux probabilités numériques et, dans une moindre mesure, à la théorie de l'information et au data mining. Nous présentons à la fois des résultats théoriques sur le taux de quantification d'un vecteur aléatoire prenant des valeurs dans ℝd (équipé de la norme euclidienne canonique) et les procédures d'apprentissage qui permettent de concevoir des quantificateurs optimaux (procédures CLVQ et de Lloyd). Nous introduisons et étudions également la notion plus récente de quantification gloutonne qui peut être vue comme une quantification optimale séquentielle. Un résultat de taux optimal est établi. Une brève comparaison avec la méthode Quasi-Monte Carlo est également effectuée.
  • Taux de précision pour le problème de la double quantification.

    Gilles PAGES, Benedikt WILBERTZ
    2015
    Dans cet article, nous établissons le taux de netteté du problème de la double quantification optimale. La notion de quantification double a été récemment introduite dans l'article [8], où il a été montré que, au moins dans un cadre euclidien, les quantificateurs doubles sont basés sur une triangulation de Delaunay, la contrepartie double de la tessellation de Voronoï sur laquelle repose la quantification "régulière". De plus, cette nouvelle approche partage une propriété de stationnarité intrinsèque, ce qui la rend très précieuse pour les applications numériques. Nous établissons dans cet article la contrepartie pour la quantification double du célèbre théorème de Zador, qui décrit l'asymptotique nette de l'erreur de quantification lorsque la taille du quantificateur tend vers l'infini. La preuve de ce théorème repose entre autres sur une extension du Lemme de Pierce au moyen d'un argument de quantification aléatoire.
  • Quantification marginale récursive du schéma d'Euler d'un processus de diffusion.

    Gilles PAGES, Abass SAGNA
    Applied Mathematical Finance | 2015
    Nous proposons une nouvelle approche pour quantifier les marginaux du processus de diffusion d'Euler discret. La méthode est construite de manière récursive et fait intervenir la distribution conditionnelle des marginales du processus d'Euler discret. Analytiquement, la méthode soulève plusieurs questions comme l'analyse de l'erreur de quantification quadratique induite entre les marginaux du processus d'Euler et les quantifications proposées. Nous montrons en particulier qu'à chaque pas de discrétisation $t_k$ du schéma d'Euler, cette erreur est bornée par les erreurs de quantification cumulées induites par l'opérateur d'Euler, des temps $t_0=0$ au temps $t_k$. Pour les calculs numériques, nous limitons notre analyse à une dimension et montrons comment calculer les grilles optimales à l'aide d'un algorithme de Newton-Raphson. Nous proposons ensuite une formule fermée pour les poids des compagnons et les probabilités de transition associés aux quantifications proposées. Ceci nous permet de quantifier en particulier les processus de diffusion dans les modèles de volatilité locale en réduisant considérablement la complexité de calcul de la recherche des quantificateurs optimaux tout en augmentant leur précision de calcul par rapport aux algorithmes communément proposés dans ce cadre. Des tests numériques sont effectués pour le mouvement brownien et pour l'évaluation d'options européennes dans un modèle de volatilité locale. Une comparaison avec les simulations de Monte Carlo montre que la méthode proposée peut parfois être plus efficace (en termes de précision de calcul et de complexité temporelle) que la méthode de Monte Carlo.
  • Quantification vectorielle avide.

    G. PAGES, H. LUSCHGY
    Journal of Approximation Theory | 2015
    Pas de résumé disponible.
  • Finance de marché.

    L. CARASSUS, G. PAGES
    2015
    Pas de résumé disponible.
  • Méthodes d'échantillonnage stratifié basées sur la quantification fonctionnelle.

    G. PAGES, S. CORLAY
    Monte Carlo Methods and Applications | 2015
    Pas de résumé disponible.
  • Étude et modélisation des équations différentielles stochastiques.

    Clement REY, Aurelien ALFONSI, Gilles PAGES, Aurelien ALFONSI, Vlad BALLY, Emmanuel GOBET, Denis TALAY, Arnaud GLOTER
    2015
    Durant les dernières décennies, l'essor des moyens technologiques et particulièrement informatiques a permis l'émergence de la mise en œuvre de méthodes numériques pour l'approximation d'Equations Différentielles Stochastiques (EDS) ainsi que pour l'estimation de leurs paramètres. Cette thèse aborde ces deux aspects et s'intéresse plus spécifiquement à l'efficacité de ces méthodes. La première partie sera consacrée à l'approximation d'EDS par schéma numérique tandis que la deuxième partie traite l'estimation de paramètres. Dans un premier temps, nous étudions des schémas d'approximation pour les EDSs. On suppose que ces schémas sont définis sur une grille de temps de taille $n$. On dira que le schéma $X^n$ converge faiblement vers la diffusion $X$ avec ordre $h in mathbb{N}$ si pour tout $T>0$, $vert mathbb{E}[f(X_T)-f(X_T^n)] vertleqslant C_f /n^h$. Jusqu'à maintenant, sauf dans certains cas particulier (schémas d'Euler et de Ninomiya Victoir), les recherches sur le sujet imposent que $C_f$ dépende de la norme infini de $f$ mais aussi de ses dérivées. En d'autres termes $C_f =C sum_{vert alpha vert leqslant q} Vert partial_{alpha} f Vert_{ infty}$. Notre objectif est de montrer que si le schéma converge faiblement avec ordre $h$ pour un tel $C_f$, alors, sous des hypothèses de non dégénérescence et de régularité des coefficients, on peut obtenir le même résultat avec $C_f=C Vert f Vert_{infty}$. Ainsi, on prouve qu'il est possible d'estimer $mathbb{E}[f(X_T)]$ pour $f$ mesurable et bornée. On dit alors que le schéma converge en variation totale vers la diffusion avec ordre $h$. On prouve aussi qu'il est possible d'approximer la densité de $X_T$ et ses dérivées par celle $X_T^n$. Afin d'obtenir ce résultat, nous emploierons une méthode de calcul de Malliavin adaptatif basée sur les variables aléatoires utilisées dans le schéma. L'intérêt de notre approche repose sur le fait que l'on ne traite pas le cas d'un schéma particulier. Ainsi notre résultat s'applique aussi bien aux schémas d'Euler ($h=1$) que de Ninomiya Victoir ($h=2$) mais aussi à un ensemble générique de schémas. De plus les variables aléatoires utilisées dans le schéma n'ont pas de lois de probabilité imposées mais appartiennent à un ensemble de lois ce qui conduit à considérer notre résultat comme un principe d'invariance. On illustrera également ce résultat dans le cas d'un schéma d'ordre 3 pour les EDSs unidimensionnelles. La deuxième partie de cette thèse traite le sujet de l'estimation des paramètres d'une EDS. Ici, on va se placer dans le cas particulier de l'Estimateur du Maximum de Vraisemblance (EMV) des paramètres qui apparaissent dans le modèle matriciel de Wishart. Ce processus est la version multi-dimensionnelle du processus de Cox Ingersoll Ross (CIR) et a pour particularité la présence de la fonction racine carrée dans le coefficient de diffusion. Ainsi ce modèle permet de généraliser le modèle d'Heston au cas d'une covariance locale. Dans cette thèse nous construisons l'EMV des paramètres du Wishart. On donne également la vitesse de convergence et la loi limite pour le cas ergodique ainsi que pour certains cas non ergodiques. Afin de prouver ces convergences, nous emploierons diverses méthodes, en l'occurrence : les théorèmes ergodiques, des méthodes de changement de temps, ou l'étude de la transformée de Laplace jointe du Wishart et de sa moyenne. De plus, dans dernière cette étude, on étend le domaine de définition de cette transformée jointe.
  • Amélioration des limites d'erreur pour les schémas numériques basés sur la quantification pour les BSDE et le filtrage non linéaire.

    Gilles PAGES, Abass SAGNA
    2015
    Nous profitons de résultats récents (voir~\cite{GraLusPag1, PagWil}) et nouveaux sur la théorie de la quantification optimale pour améliorer les limites d'erreur quadratique de quantification optimale pour les équations différentielles stochastiques rétroactives (BSDE) et les problèmes de filtrage non linéaire. Pour ces deux problèmes, une première amélioration repose sur un théorème de Pythagore pour l'espérance conditionnelle quantifiée. Tout en permettant certaines densités conditionnelles de fonctions localement Lipschitz dans le filtrage non linéaire, l'analyse de l'erreur met en jeu un nouveau résultat de robustesse sur les quantificateurs optimaux, la propriété dite de distorsion mismatch : les quantificateurs optimaux $L^r$-quadratiques de taille $N$ se comportent en $L^s$ en terme d'erreur moyenne au même taux $N^{-\frac 1d}$, $0
  • Dynamique des carnets d’ordres : analyse statistique, modélisation et prévision.

    Weibing HUANG, Mathieu ROSENBAUM, Charles albert LEHALLE, Frederic ABERGEL, Robert ALMGREN, Aurelien ALFONSI, Bruno BOUCHARD, Gilles PAGES
    2015
    Cette thèse est composée de deux parties reliées, le premier sur le carnet d'ordre et le deuxième sur les effets de valeur de tick. Dans la première partie, nous présentons notre cadre de modélisation de carnet. Le modèle queue-réactive est d'abord introduit, dans laquelle nous révisons l'approche zéro intelligence traditionnelle en ajoutant dépendance envers l'État de carnet. Une étude empirique montre que ce modèle est très réaliste et reproduit de nombreuses fonctionnalités intéressantes microscopiques de l'actif sous-jacent comme la distribution du carnet de commandes. Nous démontrons également qu'il peut être utilisé comme un simulateur de marché efficace, ce qui permet l'évaluation de la tactique de placement complexes. Nous étendons ensuite le modèle de queue-réactive à un cadre markovien général. Conditions de Ergodicité sont discutés en détail dans ce paramètre. Dans la deuxième partie de cette thèse, nous sommes intéressés à étudier le rôle joué par la valeur de la tique à deux échelles microscopiques et macroscopiques. Tout d'abord, une étude empirique sur les conséquences d'un changement de la valeur de tick est effectuée à l'aide des données du programme pilote de réduction de la taille 2014 tick japonais. Une formule de prédiction pour les effets d'un changement de valeur de tique sur les coûts de transactions est dérivé. Ensuite, un modèle multi-agent est introduit afin d'expliquer les relations entre le volume du marché, la dynamique des prix, spread bid-ask, la valeur de la tique et de l'état du carnet d'ordres d'équilibre.
  • Modélisation, optimisation et estimation pour le contrôle en ligne des algorithmes de négociation sur les marchés à ordres limités.

    Joaquin FERNANDEZ TAPIA, Gilles PAGES, Charles albert LEHALLE, Marc HOFFMANN, Mathieu ROSENBAUM, Emmanuel BACRY, Frederic ABERGEL
    2015
    L'objectif de ce travail de thèse est une étude quantitive des differents problèmes mathematiques qui apparaissent en trading algorithmique. Concrètement, on propose une approche scientifique pour optimiser des processus relatifs a la capture et provision de liquidités pour des marchés electroniques.Du au fort caractère appliqué de ce travail, on n'est pas seulement intéressés par la rigeur mathématique de nos résultats, mais on souhaite aussi a comprendre ce travail de recherche dans le contexte des differentes étapes qui font partie de l'implementation pratique des outils que l'on developpe. par exemple l'interpretation du modèle, l'estimation de parametres, l'implementation informatique etc.Du point de vue scientifique, le coeur de notre travail est fondé sur deux techniques empruntées au monde de l'optimisation et des probabilités, celles sont : le contrôle stochastique et l'approximation stochastique.En particulier, on présente des resultats academiques originaux pour le probleme de market-making haute fréquence et le problème de liquidation de portefeuille en utilisant des limit-orders. dans le deux cas on utilise une approche d'optimisation dite backwards. De la même façon, on résout le problème de market-making en utilisant une approche "forward", ceci étant innovateur dans la litterature du trading optimal car il ouvre la porte à des techniques d'apprentissage automatique.Du pont de vue pratique, cette thèse cherches à creer un point entre la recherche academique et l'industrie financière. Nos resultats sont constamment considérés dans la perspective de leur implementation pratique. Ainsi, on concentre une grande partie de notre travail a étudier les differents facteurs qui sont importants a comprendre quand on transforme nos techniques quantitatives en valeur industrielle: comprendre la microstructure des marchés, des faits stylisés, traitrement des données, discussions sur les modèles, limitations de notre cadre scientifique etc.
  • Essais cliniques adaptatifs multi-bras basés sur le modèle Urn : A Stochastic Approximation Approach.

    Sophie LARUELLE, Gilles PAGES
    New Economic Windows | 2014
    Cet article présente le lien entre l'approximation stochastique et les essais cliniques multi-bras basés sur des modèles d'urne randomisés étudiés dans Bai et al. (J. Multivar. Anal. 81(1):1-18, 2002) où la mise à jour de l'urne dépend des performances passées des traitements. Nous reformulons la dynamique de la composition de l'urne, des traitements assignés et des succès des traitements assignés comme des algorithmes standard d'approximation stochastique (SA) avec reste. Ensuite, nous dérivons la convergence a.s. de la procédure normalisée sous des hypothèses moins strictes en faisant appel aux ODE et un nouveau résultat de normalité asymptotique (Central Limit Theorem CLT) en faisant appel aux méthodes SDE.
  • Méthodes d'optimisation et de statistique pour la finance à haute fréquence.

    Marc HOFFMANN, Mauricio LABADIE, Charles albert LEHALLE, Gilles PAGES, Huyen PHAM, Mathieu ROSENBAUM
    ESAIM: Proceedings and Surveys | 2014
    La finance haute fréquence a récemment évolué de la modélisation statistique et de l'analyse des données financières - où l'objectif initial était de reproduire des faits stylisés et de développer des outils d'inférence appropriés - vers l'optimisation du trading, où un agent cherche à exécuter un ordre (ou une série d'ordres) dans un environnement stochastique qui peut réagir à l'algorithme de trading de l'agent (impact sur le marché, facturation). Ce contexte pose de nouveaux défis scientifiques abordés par le minisymposium OPSTAHF.
  • Accélération de la méthode de Monte Carlo pour des processus de diffusions et applications en Finance.

    Kaouther HAJJI, Ahmed KEBAIER, Mohamed BEN ALAYA, Gilles PAGES, Jean stephane DHERSIN, Gersende FORT, Yueyun HU, Denis TALAY, Bernard LAPEYRE
    2014
    Dans cette thèse, on s’intéresse à la combinaison des méthodes de réduction de variance et de réduction de la complexité de la méthode Monte Carlo. Dans une première partie de cette thèse, nous considérons un modèle de diffusion continu pour lequel on construit un algorithme adaptatif en appliquant l’importance sampling à la méthode de Romberg Statistique Nous démontrons un théorème central limite de type Lindeberg Feller pour cet algorithme. Dans ce même cadre et dans le même esprit, on applique l’importance sampling à la méthode de Multilevel Monte Carlo et on démontre également un théorème central limite pour l’algorithme adaptatif obtenu. Dans la deuxième partie de cette thèse,on développe le même type d’algorithme pour un modèle non continu à savoir les processus de Lévy. De même, nous démontrons un théorème central limite de type Lindeberg Feller. Des illustrations numériques ont été menées pour les différents algorithmes obtenus dans les deux cadres avec sauts et sans sauts.
  • Introduction à la quantification vectorielle optimale et à ses applications en numérique.

    Gilles PAGES
    2014
    Nous présentons une introduction à la quantification vectorielle optimale et ses premières applications aux probabilités numériques et, dans une moindre mesure, à la théorie de l'information et au data mining. Nous présentons à la fois des résultats théoriques sur le taux de quantification d'un vecteur aléatoire prenant des valeurs dans R^d (équipé de la norme euclidienne canonique) et les procédures d'apprentissage qui permettent de concevoir des quantificateurs optimaux (procédures CLVQ et Lloyd's I). Nous introduisons et étudions également la notion plus récente de {\quantification gourmande} qui peut être vue comme une quantification optimale séquentielle. Un résultat de taux optimal est établi. Une brève comparaison avec la méthode Quasi-Monte Carlo est également effectuée.
  • Quantification vectorielle avide.

    Harald LUSCHGY, Gilles PAGES
    2014
    Nous étudions la version avide du problème de quantification vectorielle L^p-optimale pour un vecteur aléatoire R^d-valué X\in L^p. Nous montrons l'existence d'une séquence (a_N) telle que a_N minimise a\mapsto\big \|\min_{1\le i\le N-1}|X-a_i|\wedge |X-a|\big\|_{p} : l'erreur de quantification moyenne L^p au niveau N induite par (a_1,\ldots,a_{N-1},a). Nous montrons que cette séquence produit des N-tuples a^{(N)}=(a_1,\ldots,a_{_N}) optimaux au taux L^p : leurs erreurs de quantification moyennes au niveau $N$ vont vers 0 au taux N^{-\frac 1d}. Les séquences optimales par gloutonnerie satisfont également, sous des hypothèses supplémentaires naturelles, la propriété d'inadéquation de la distorsion : les N-tuples a^{(N)} restent optimaux en termes de taux par rapport aux normes L^q, si p\le q.
  • Ordre convexe pour les dérivés dépendant du chemin : une approche de programmation dynamique.

    Gilles PAGES
    2014
    Nous étudions l'ordre convexe (fonctionnel) de divers processus martingales continus, que ce soit par rapport à leurs coefficients de diffusion pour les EDDs pilotés par Lévy ou par rapport à leurs intégrandes pour les intégrales stochastiques. Les résultats principaux sont bordés de contre-exemples. Diverses limites supérieures et inférieures peuvent être dérivées pour le prix des options européennes dans les modèles de volatilité locale. En vue d'applications numériques, nous adoptons une méthodologie systématique (et symétrique) : (a) Propager la convexité dans un modèle en temps discret dominant/dominé (simulable) par une rétro-induction (ou principe dynamique linéaire). (b) Appliquer les résultats de convergence faible fonctionnelle aux schémas numériques/discrétisations temporelles de la martingale en temps continu satisfaisant (a) afin de transférer les propriétés d'ordre convexe. Diverses limites sont dérivées pour les options européennes écrites sur des paiements convexes dépendant du chemin. Nous reprenons et étendons les résultats obtenus par plusieurs auteurs depuis l'article fondateur de Hajek en 1985. Dans une deuxième partie, nous étendons cette approche aux problèmes d'arrêt optimal en utilisant un que l'enveloppe de Snell satisfait (a') un principe de programmation dynamique à rebours pour propager la convexité en temps discret. (b') satisfait des résultats de convergence abstraits sous l'hypothèse de non-dégénérescence sur les filtrations. Des applications à la comparaison des prix d'options américaines sur des processus convexes de paiement par chemin sont données, obtenues par un argument purement probabiliste.
  • Un algorithme à étapes mixtes pour l'approximation du régime stationnaire d'une diffusion.

    Gilles PAGES, Fabien PANLOUP
    Stochastic Processes and their Applications | 2014
    Dans des articles récents, certaines procédures basées sur des mesures empiriques pondérées liées à des schémas d'Euler à pas décroissants ont été étudiées pour approximer le régime stationnaire d'une diffusion (éventuellement avec des sauts) pour une classe de fonctionnelles du processus. Cette méthode est efficace mais nécessite le calcul de la fonction à chaque étape. Pour réduire la complexité de la procédure (en particulier pour les fonctionnelles), nous proposons dans cet article d'étudier un nouveau schéma, appelé schéma à étapes mixtes, où nous ne conservons que certaines valeurs du schéma d'Euler régulièrement espacées dans le temps. Notre résultat principal est que, lorsque les coefficients de la diffusion sont suffisamment lisses, cette alternative ne change pas l'ordre du taux de convergence de la procédure. Nous étudions également une méthode de Richardson-Romberg pour accélérer la convergence et montrons que la variance de l'algorithme original peut être préservée sous une hypothèse d'unicité pour la distribution invariante de la diffusion "dupliquée", condition qui est largement discutée dans l'article. Enfin, nous terminons en donnant des conditions suffisantes de "confluence asymptotique" pour l'existence d'une solution lisse à une version discrète de l'équation de Poisson associée, condition requise pour garantir les résultats du taux de convergence.
  • Quantification marginale récursive du schéma d'Euler d'un processus de diffusion.

    Gilles PAGES, Abass SAGNA
    2014
    Nous proposons une nouvelle approche pour quantifier les marginaux du processus de diffusion d'Euler discret. La méthode est construite de manière récursive et fait intervenir la distribution conditionnelle des marginales du processus d'Euler discret. Analytiquement, la méthode soulève plusieurs questions comme l'analyse de l'erreur de quantification quadratique induite entre les marginaux du processus d'Euler et les quantifications proposées. Nous montrons en particulier qu'à chaque pas de discrétisation $t_k$ du schéma d'Euler, cette erreur est bornée par les erreurs de quantification cumulées induites par l'opérateur d'Euler, des temps $t_0=0$ au temps $t_k$. Pour les calculs numériques, nous limitons notre analyse à une dimension et montrons comment calculer les grilles optimales à l'aide d'un algorithme de Newton-Raphson. Nous proposons ensuite une formule fermée pour les poids des compagnons et les probabilités de transition associés aux quantifications proposées. Ceci nous permet de quantifier en particulier les processus de diffusion dans les modèles de volatilité locale en réduisant considérablement la complexité de calcul de la recherche des quantificateurs optimaux tout en augmentant leur précision de calcul par rapport aux algorithmes communément proposés dans ce cadre. Des tests numériques sont effectués pour le mouvement brownien et pour l'évaluation d'options européennes dans un modèle de volatilité locale. Une comparaison avec les simulations de Monte Carlo montre que la méthode proposée peut parfois être plus efficace (en termes de précision de calcul et de complexité temporelle) que la méthode de Monte Carlo.
  • Prix d'affichage optimal des ordres à cours limité : apprentissage par la négociation.

    Sophie LARUELLE, Charles albert LEHALLE, Gilles PAGES
    Mathematics and Financial Economics | 2013
    Considérant qu'un trader ou un algorithme de trading interagissant avec les marchés lors d'enchères continues peut être modélisé par une procédure itérative ajustant le prix auquel il affiche les ordres à un rythme donné, cet article propose une procédure minimisant ses coûts. Nous prouvons la convergence a.s. de l'algorithme sous des hypothèses sur la fonction de coût et donnons quelques critères pratiques sur les paramètres du modèle pour s'assurer que les conditions d'utilisation de l'algorithme sont remplies (en utilisant notamment le principe de co-monotonie). Nous illustrons nos résultats par des expériences numériques sur des données simulées et en utilisant un ensemble de données sur les marchés financiers.
  • Modèles d'urne aléatoire revisités à l'aide de l'approximation stochastique.

    Sophie LARUELLE, Gilles PAGES
    Annals of Applied Probability | 2013
    Cet article présente le lien entre l'approximation stochastique et les essais cliniques basés sur les modèles d'urne randomisés étudiés dans Bai et Hu (1999,2005) et Bai, Hu et Shen (2002). Nous reformulons la dynamique de la composition de l'urne et des traitements assignés comme des algorithmes d'approximation stochastique (SA) standard avec reste. Ensuite, nous dérivons la convergence a.s. et la normalité asymptotique (CLT) de la procédure normalisée sous des hypothèses moins strictes en faisant appel aux méthodes ODE et SDE. Dans un deuxième temps, nous étudions une famille de modèles plus complexe, connue sous le nom d'essais cliniques multi-bras, où la mise à jour de l'urne dépend des performances passées des traitements. En augmentant la dimension du vecteur d'état, notre approche SA fournit cette fois un nouveau résultat de normalité asymptotique.
  • Un algorithme à étapes mixtes pour l'approximation du régime stationnaire d'une diffusion.

    G. PAGES, F. PANLOUP
    Stochastic Processes and their Applications | 2013
    Pas de résumé disponible.
  • Co-monotonie fonctionnelle des processus avec applications aux paons et aux options à barrière.

    Gilles PAGES
    Séminaire de Probabilités XLV | 2013
    Nous montrons que plusieurs classes générales de processus stochastiques satisfont un principe de co-monotonie fonctionnelle, notamment les processus à incréments indépendants, les diffusions browniennes, les processus de Liouville. Comme première application, nous récupérons certains résultats récents sur les processus de paon obtenus par Hirsch et al. qui étaient eux-mêmes motivés par un travail antérieur de Carr et al. sur la sensibilité des options d'achat asiatiques par rapport à leur volatilité et leur maturité résiduelle (ancienneté). Nous dérivons également des bornes semi-universelles pour diverses options à barrière.
  • Distance d'affichage optimale des ordres à cours limité : une approche par algorithme stochastique.

    G. PAGES, S. LARUELLE, C. a. LEHALLE
    Mathematics and Financial Economics | 2013
    Pas de résumé disponible.
  • Options américaines multi-actifs et quantification parallèle.

    A. BRONSTEIN, G. PAGES, J. PORTES
    Methodology and Computing in Applied Probability | 2013
    Pas de résumé disponible.
  • CVa R HEDGING UTILISANT UN ALGORITHME D'APPROXIMATION STOCHASTIQUE BASÉ SUR LA QUANTIZATION.

    O. BARDOU, N. FRIKHA, G. PAGES
    Mathematical Finance | 2013
    Dans cet article, nous étudions une méthode basée sur la minimisation du risque pour couvrir des sources de risque observables mais non négociables sur les marchés financiers ou énergétiques. La stratégie de portefeuille optimale est obtenue en minimisant dynamiquement la valeur conditionnelle à risque (CVaR) à l'aide de trois outils principaux : un algorithme d'approximation stochastique, une quantification optimale et des techniques de réduction de la variance (échantillonnage par importance (IS) et variable de contrôle linéaire (LCV)) car les quantités d'intérêt sont naturellement liées à des événements rares. Dans un premier temps, nous étudions le problème de la régression CVaR, qui correspond à une stratégie de portefeuille statique où le nombre d'unités de chaque actif négociable est fixé au temps 0 et reste inchangé jusqu'au temps $T$. Nous concevons un algorithme d'approximation stochastique et étudions sa convergence a.s. et son taux de convergence. Ensuite, nous étendons au cas dynamique sous l'hypothèse que le processus modélisant la source de risque non échangeable et les prix des actifs financiers sont markoviens. Enfin, nous illustrons notre approche en considérant plusieurs portefeuilles dans le marché incomplet de l'énergie.
  • Méthodes d'optimisation et de statistique pour la finance à haute fréquence.

    G. PAGES, H. PHAM, M. ROSENBAUM, M. HOFFMANN, M. LABADIE, C. a. LEHALLE
    Congrès SMAI 2013 | 2013
    Pas de résumé disponible.
  • Convergence ponctuelle de l'algorithme de Lloyd en dimension supérieure.

    Gilles PAGES, Jun YU
    2013
    Nous établissons la convergence ponctuelle de l'algorithme itératif de Lloyd, également connu sous le nom d'algorithme $k$-means, lorsque l'erreur de quantification quadratique de la grille de départ (de taille $N\ge 2$) est inférieure à l'erreur de quantification minimale par rapport à la distribution d'entrée est inférieure au niveau $N-1$. Un tel protocole est connu sous le nom de méthode de fractionnement et permet la convergence même lorsque la distribution d'entrée a un support non borné. Nous montrons également, sous une hypothèse très légère, que la grille limite résultante a toujours une taille complète de $N$. Ces résultats sont obtenus sans hypothèse de continuité sur la distribution d'entrée. Une variante de la procédure tirant avantage de l'asymptotique du rayon optimal du quantificateur est proposée, qui garantit toujours le caractère borné des grilles itérées.
  • Modèles d'urne aléatoire revisités à l'aide de l'approximation stochastique.

    G. PAGES, S. LARUELLE
    Annals of Applied Probability | 2013
    Pas de résumé disponible.
  • Co-monotonie fonctionnelle des processus avec applications aux paons et aux options à barrière.

    G. PAGES
    Séminaire de Probabilités XLV | 2013
    Pas de résumé disponible.
  • Contrôle stochastique par méthodes de quantification et applications à la finance.

    Camille ILLAND, Gilles PAGES
    2012
    Cette thèse contient trois parties qui peuvent être lues indépendamment. Dans la première partie, nous étudions la résolution de problèmes de contrôle stochastique par des méthodes de quantification. La quantification consiste à trouver la meilleure approximation d'une distribution de probabilité continue par une loi de probabilité discrète avec un nombre N de points supportant cette distribution. Nous explicitons un cadre de programmation dynamique "générique" qui permet de résoudre de nombreux problèmes de contrôle stochastique, tels que les problèmes de temps d'arrêt optimal, de maximisation de l'utilité, d'équations différentielles stochastiques à rebours (BSDE), de problèmes de filtrage... Dans ce contexte, nous donnons trois schémas de discrétisation dans l'espace associés à la quantification d'une chaîne de Markov. Dans la deuxième partie, nous présentons un schéma numérique pour les BSDEs doublement réfléchies. Nous considérons un cadre général qui contient des sauts et des processus progressifs dépendant du chemin. Nous utilisons un schéma d'approximation de type Euler en temps discret. Nous prouvons la convergence de ce schéma pour les EDSB lorsque le nombre de pas de temps n tend vers l'infini. Nous donnons également la vitesse de convergence pour les options de jeu. Dans la troisième partie, nous nous concentrons sur la réplication des dérivés sur la variance réalisée. Nous proposons une couverture robuste au modèle de volatilité avec des positions dynamiques sur les options européennes. Ensuite, nous étendons cette méthodologie aux options de fonds et au processus de saut.
  • Estimations pour les modèles de Markov cachés et approximations particulaires : Application à la cartographie et à la localisation simultanées.

    Sylvain LE CORFF, Eric MOULINES, Gersende FORT, Elisabeth GASSIAT, Jean michel MARIN, Arnaud DOUCET, Gilles PAGES
    2012
    Dans cette thèse, nous nous intéressons à l'estimation de paramètres dans les chaînes de Markov cachées. Nous considérons tout d'abord le problème de l'estimation en ligne (sans sauvegarde des observations) au sens du maximum de vraisemblance. Nous proposons une nouvelle méthode basée sur l'algorithme Expectation Maximization appelée Block Online Expectation Maximization (BOEM). Cet algorithme est défini pour des chaînes de Markov cachées à espace d'état et espace d'observations généraux. Dans le cas d'espaces d'états généraux, l'algorithme BOEM requiert l'introduction de méthodes de Monte Carlo séquentielles pour approcher des espérances sous des lois de lissage. La convergence de l'algorithme nécessite alors un contrôle de la norme Lp de l'erreur d'approximation Monte Carlo explicite en le nombre d'observations et de particules. Une seconde partie de cette thèse se consacre à l'obtention de tels contrôles pour plusieurs méthodes de Monte Carlo séquentielles. Nous étudions enfin des applications de l'algorithme BOEM à des problèmes de cartographie et de localisation simultanées. La dernière partie de cette thèse est relative à l'estimation non paramétrique dans les chaînes de Markov cachées. Le problème considéré est abordé dans un cadre précis. Nous supposons que (Xk) est une marche aléatoire dont la loi des incréments est connue à un facteur d'échelle a près. Nous supposons que, pour tout k, Yk est une observation de f(Xk) dans un bruit additif gaussien, où f est une fonction que nous cherchons à estimer. Nous établissons l'identifiabilité du modèle statistique et nous proposons une estimation de f et de a à partir de la vraisemblance par paires des observations.
  • Méthodes numériques pour les processus markoviens déterministes par morceaux.

    Adrien BRANDEJSKY, Benoite, de SAPORTA, Francois DUFOUR, Oswaldo luiz do valle COSTA, A. o. charles ELEGBEDE, Bruno GAUJAL, Gilles PAGES
    2012
    Les processus markoviens déterministes par morceaux (PMDM) ont été introduits dans la littérature par M.H.A. Davis en tant que classe générale de modèles stochastiques non-diffusifs. Les PMDM sont des processus hybrides caractérisés par des trajectoires déterministes entrecoupées de sauts aléatoires. Dans cette thèse, nous développons des méthodes numériques adaptées aux PMDM en nous basant sur la quantification d'une chaîne de Markov sous-jacente au PMDM. Nous abordons successivement trois problèmes : l'approximation d'espérances de fonctionnelles d'un PMDM, l'approximation des moments et de la distribution d'un temps de sortie et le problème de l'arrêt optimal partiellement observé. Dans cette dernière partie, nous abordons également la question du filtrage d'un PMDM et établissons l'équation de programmation dynamique du problème d'arrêt optimal. Nous prouvons la convergence de toutes nos méthodes (avec le plus souvent des bornes de la vitesse de convergence) et les illustrons par des exemples numériques.
  • Analyse d'algorithmes stochastiques appliqués à la finance.

    Sophie LARUELLE, Gilles PAGES
    2011
    Cette thèse porte sur l’analyse d’algorithmes stochastiques et leur application en Finance. La première partie présente un résultat de convergence pour des algorithmes stochastiques où les innovations vérifient des hypothèses de moyennisation avec une certaine vitesse. Nous l’appliquons à différents types d’innovations et l'illustrons sur des exemples motivés principalement par la Finance. Nous établissons ensuite un résultat de vitesse “universelle” de convergence dans le cadre d’innovations équiréparties et confrontons nos résultats à ceux obtenus dans le cadre i. I. D. La seconde partie est consacrée aux applications. Nous présentons, d'abord un problème d’allocation optimale appliqué aux dark pools. L’exécution du maximum de la quantité souhaitée mène à la construction d’un algorithme stochastique sous contraintes étudié dans les cadres d’innovations i. I. D. Et moyennisantes. Le chapitre suivant présente un algorithme stochastique d’optimisation sous contraintes avec projection pour trouver la meilleure distance de placement dans un carnet d’ordre en minimisant le coût d’exécution d’une quantité donnée. Nous étudions ensuite l’implicitation et la calibration de paramètres dans des modèles financiers par algorithme stochastique et illustrons ces 2 techniques par des exemples d’application sur les modèles de Black-Scholes, Merton et pseudo-CEV. Le dernier chapitre porte sur l’application des algorithmes stochastiques dans le cadre de modèles d’urnes aléatoires utilisés en essais cliniques. A l’aide des méthodes de l’EDO et de l’EDS, nous retrouvons les résultats de convergence et de vitesse de Bai et Hu sous des hypothèses plus faibles sur les matrices génératrices.
  • Quelques aspects de la quantification optimale et applications à la finance.

    Sylvain CORLAY, Gilles PAGES
    2011
    Cette thèse est consacrée à l'étude de la quantification optimale et ses applications. Nous y abordons des aspects théoriques, algorithmiques et numériques. Elle comporte cinq chapitres. Dans la première partie, nous étudions liens entre la réduction de variance par stratification et la quantification optimale quadratique. Dans le cas ou la variable aléatoire considérée est un processus Gaussien, un schéma de simulation de complexité linéaire est développé pour la loi conditionnelle à une strate du processus en question. Le second chapitre est consacré à l'évaluation numérique de la base de Karhunen-Loève d'un processus Gaussien par la méthode de Nyström. Dans troisième partie, nous proposons une nouvelle approche de la quantification de solutions d'EDS, dont nous étudions la convergence. Ces résultats conduisent à un nouveau schéma de cubature pour les solutions d'équations différentielles stochastiques, qui est développé dans le quatrième chapitre, et que nous éprouvons sur des problèmes de valorisation d'options. Dans le cinquième chapitre, nous présentons un nouvel algorithme de recherche rapide de plus proche voisin par arbre, basé sur la quantification de la loi empirique du nuage de points considéré.
  • Contribution à la modélisation et à la gestion dynamique du risque des marchés de l'énergie.

    Noufel FRIKHA, Gilles PAGES
    2010
    Cette thèse est consacrée à des problématiques numériques probabilistes liées à la modélisation, au contrôle et à la gestion du risque et motivées par des applications dans les marchés de l'énergie. Le principal outil utilisé est la théorie des algorithmes stochastiques et des méthodes de simulation. Cette thèse se compose de trois parties. La première est dévouée à l'estimation de deux mesures de risque de la distribution L des pertes d'un portefeuille: la Value-at-Risk (VaR) et la Conditional Value-at-Risk (CVaR). Cette estimation est effectuée à l'aide d'un algorithme stochastique combiné avec une méthode de réduction de variance adaptative. La première partie de ce chapitre traite du cas de la dimension finie, la deuxième étend la première au cas d'une fonction de la trajectoire d'un processus et la dernière traite du cas des suites à discrépance faible. Le deuxième chapitre est dédié à des méthodes de couverture du risque en CVaR dans un marché incomplet opérant à temps discret à l'aide d'algorithmes stochastiques et de quantification vectorielle optimale. Des résultats théoriques sur la couverture en CVaR sont présentés puis les aspects numériques sont abordés dans un cadre markovien. La dernière partie est consacrée à la modélisation conjointe des prix des contrats spot Gaz et l'Electricité. Le modèle multi-facteur présenté repose sur des processus d'Ornstein stationnaires à coefficient de diffusion paramétrique.
  • Approche d'optimisation du portefeuille de GNL par la technique de programmation stochastique.

    Zhihao CEN, Frederic BONNANS, Emmanuel GOBET, Pierre BONAMI, Thibault CHRISTEL, Michel DE LARA, Rene HENRION, Gilles PAGES
    2010
    Pas de résumé disponible.
  • Régulation post-transcriptionnelle et post-traductionnelle de DUSP6, une phosphatase des MAP kinases ERK 1/2.

    Olga BERMUDEZ, Clotilde GIMOND, Gilles PAGES
    2009
    Les MAP kinases phosphatases (MKPs) appartiennent à la famille des Dual-Specificity Phosphatases (DUSP) et déphosphorylent les résidus thréonine et tyrosine des MAP kinases activées. DUSP6/MKP-3 est une phosphatase cytoplasmique qui déphosphoryle et donc inactive de façon spécifique les MAP kinases ERK1/2. DUSP6 a un rôle important au cours du développement, particulièrement dans la régulation du signal induit par le FGF, et son absence provoque des effet phénotypiques majeurs chez la Drosophile, le poulet, le poisson-zèbre et la souris. DUSP6 pourrait jouer également un rôle important au cours de la formation et du développement des tumeurs car son expression se trouve altérée dans divers cancers. Pour ces raisons, je me suis intéressée aux mécanismes moléculaires impliqués dans la régulation de son expression, au niveau post-transcriptionnel et post-traductionnel. Des données antérieures du laboratoire ont indiqué que DUSP6 était phosphorylée et dégradée après stimulation des cellules avec des facteurs de croissance, de façon MEK/ERK-dépendante (Marchetti et al. , 2005). Dans la première partie de ma thèse, j’ai étudié le rôle d’autres voies de signalisation dans la régulation de DUSP6. Nous avons montré qu’une autre voie de signalisation, la voie PI3K/mTOR, est responsable d’une partie de la phosphorylation et de la dégradation de DUSP6 induite par les facteurs de croissance (Bermudez et al. , 2008). Toutefois, une activité basale de MEK est nécessaire pour que la phosphorylation de DUSP6 par mTOR ait lieu. Des études de mutagenèse ont montré que la sérine 159 est le résidu phosphorylé par mTOR. La phosphatase DUSP6 pourrait donc constituer un nouveau point d’interaction entre deux grandes voies de signalisation cellulaire activées par les facteurs de croissance, la voie MEK/ERK et la voie PI3K/mTOR. Dans la deuxième partie de mon travail, je me suis intéressée à la régulation de dusp6 au niveau de son ARNm. D’autres équipes ont montré que la voie MEK/ERK jouait un rôle dans l’activation transcriptionnelle de dusp6. Nous avons confirmé que l’inhibition de MEK/ERK réduit fortement les quantités d’ARNm de dusp6. Afin d’étudier la régulation de la stabilité de l’ARNm de dusp6, nous avons cloné dans un vecteur d’expression un gène rapporteur luciférase en amont de la région non codante 3’UTR de dusp6, qui contient des sites consensus pour différents facteurs qui déstabilisent/stabilisent les ARNm. Nous avons trouvé que la voie MEK/ERK stabilise l’ARNm de dusp6. Par ailleurs, des conditions d’hypoxie, une caractéristique de nombreuses tumeurs in vivo, induisent une augmentation des niveaux d’ARNm de dusp6, augmentation qui dépend de HIF-1alpha. Finalement, nous avons identifié deux facteurs qui déstabilisent l’ARNm de dusp6, TTP (tristetraprolin) et PUM2, un homologue du gène pumilio de la drosophile. Les résultats présentés dans cette thèse montrent donc que la voie MEK/ERK est impliquée dans la régulation de DUSP6 à différents niveaux, de la régulation de son ARNm au niveau post-traductionnel, dans une boucle de rétrocontrôle. L’étude de la régulation de DUSP6 apporte des éléments supplémentaires pour la compréhension des mécanismes complexes impliqués dans l’activation d’ERK1/2 au sein du réseau de signalisation des MAPKs, où des régulations positives et négatives contribuent à un contrôle subtil de l’activation des MAP Kinases ERKs dans l’espace et le temps.
  • Modèles financiers et formation des prix : applications aux paris sportifs.

    Benoit JOTTREAU, Marie claire QUENEZ, Marie claire QUENEZ, Ruud KONING, Gilles PAGES, Monique JEANBLANC, Damien LAMBERTON, Bernard LAPEYRE, Huyen PHAM, Ruud KONING, Gilles PAGES
    2009
    Cette thèse est composée de quatre chapitres. Le premier chapitre traite de l'évaluation de produits financiers dans un modèle comportant un saut pour l'actif risque. Ce saut représente la faillite de l'entreprise correspondante. On étudie alors l'évaluation des prix d'options par indifférence d'utilité dans un cadre d'utilité exponentielle. Par des techniques de programmation dynamique on montre que le prix d'un Bond est solution d'une équation différentielle et le prix d'options dépendantes de l'actif est solution d'une équation aux dérives partielles d'Hamilton-Jacobi-Bellman. Le saut dans la dynamique de l'actif risque induit des différences avec le modèle de Merton que nous tentons de quantifier. Le second chapitre traite d'un marché comportant des sauts : les paris sur le football. Nous rappelons les différentes familles de modèles pour un match de football et introduisons un modèle complet permettant d'évaluer les prix des différents produits apparus sur ce marché ces dix dernières années. La complexité de ce modèle nous amène à étudier un modèle simplifié dont nous étudions les implications et calculons les prix obtenus que l'on compare à la réalité. On remarque que la calibration implicite obtenue génère de très bons résultats en produisant des prix très proches de la réalité. Le troisième chapitre développe le problème de fixation des prix par un teneur de marche monopolistique dans le marché des paris binaires. Ce travail est un prolongement direct au problème introduit par Levitt [Lev04]. Nous généralisons en effet son travail aux cas des paris européens et proposons une méthode pour estimer la méthode de cotation utilisée par le book-maker. Nous montrons que deux hypothèses inextricables peuvent expliquer cette fixation des prix. D'une part, l'incertitude du public sur la vraie valeur ainsi que le caractère extrêmement risque-averse du bookmaker. Le quatrième chapitre prolonge quant à lui cette approche au cas de produits financiers non binaires. Nous examinons différents modèles d'offre et de demande et en déduisons, par des techniques de programmation dynamique, des équations aux dérivées partielles dictant la formation des prix d'achat et de vente. Nous montrons finalement que l'écart entre prix d'achat et prix de vente ne dépend pas de la position du teneur de marche dans l'actif considère. Cependant le prix moyen dépend lui fortement de la quantité détenue par le teneur de marche. Une approche simplifiée est finalement proposée dans le cas multidimensionnel.
  • Méthodes de quantification optimale avec applications à la finance.

    Abass SAGNA, Gilles PAGES
    2008
    Cette thése est consacrée à la quantification avec des applications à la finance. Le chap. 1 rappelle les bases de la quantification et les méthodes de recherche de quantifieurs optimaux. Au chap. 2 on étudie le comportement asymptotique, dans l's, de l'erreur de quantification associée à une transformation linéaire d'une suite de quantifieurs optimale dans l'r. On montre qu'une telle transformation permet de rendre la suite transformée l's taux optimale pour tout s, pour une large famille de probabilités. Le chap. 3 étudie le comportement asymptotique de la suite du rayon maximal associée à une suite de quantifieurs l'r optimale. On montre que dés que supp(p) est non borné cette suite tend vers l'infini. On donne, pour une grande famille de probabilités, la vitesse de convergence vers l'infini. Le chap. 4 est consacré au pricing d'options de type lookback et à barrièrre. On écrit ces prix sous une forme qui nous permet de les estimer par monte carlo, par une méthode hybride monte carlo-quantification et par pur quantification.
  • Approximation récursive du régime stationnaire d'une équation différentielle stochastique avec sauts.

    Fabien PANLOUP, Gilles PAGES
    2006
    Cette thèse est dans sa majeure partie consacrée à la construction et l'étude de méthodes implémentables par ordinateur permettant d'approcher le régime stationnaire d'un processus ergordique multidimensionnel solution d'une EDS dirigée par un processus de Lévy. S'appuyant sur une approche développée par Lamberton&Pagès puis Lemaire dans le cadre des diffusions Browniennes, nos méthodes basées sur des schémas d'Euler à pas décroissant, « exacts » ou « approchés », permettent de simuler efficacement la probabilité invariante mais également la loi globale d'un tel processus en régime stationnaire. Ce travail possède des applications théoriques et pratiques diverses dont certaines sont développées ici (TCL p. S. Pour les lois stables, théorème limite relatif aux valeurs extrêmes, pricing d'options pour des modèles à volatilité stochastique stationnaire. . . ).
  • Méthodes de quantification optimale pour le filtrage et applications à la finance.

    Afef SELLAMI, Gilles PAGES, Huyen PHAM
    2005
    Nous développons une approche de résolution numérique du filtrage par méthode de grille, en utilisant des résultats de quantification optimale de variables aléatoires. Nous mettons en oeuvre deux algorithmes de calcul de filtres utilisant les techniques d'approximation du type ordre 0 et ordre 1. Nous proposons les versions implémentables de ces algorithmes et étudions le comportement de l'erreur des approximations en fonction de la taille des quantifieurs en s'appuyant sur la propriété de stationnarité des quantifieurs optimaux. Nous positionnons cette approche par grille par rapport à l'approche particulaire du type Monte Carlo à travers la comparaison des deux méthodes et leur expérimentation sur différents modèles d'états. Dans une seconde partie, nous nous intéressons à l'avantage qu'offre la quantification pour le prétraitement des données offline pour développer un algorithme de filtrage par quantification des observations (et du signal). L'erreur est là aussi étudiée et un taux de convergence est établi en fonction de la taille des quantifieurs. Enfin, la quantification du filtre en tant que variable aléatoire est étudiée dans le but de la résolution d'un problème d'évaluation d'option américaine dans un marché à volatilité stochastique non observée. Tous les résultats sont illustrés à travers des exemples numériques.
  • Estimation récursive de la mesure invariante d'un processus de diffusion.

    Vincent LEMAIRE, Damien LAMBERTON, Gilles PAGES
    2005
    L'objet de la thèse est l'étude d'un algorithme, simple d'implémentation et récursif, permettant de calculer l'intégrale d'une fonction par rapport à la probabilité invariante d'un processus solution d'une équation différentielle stochastique de dimension finie. La principale hypothèse sur ces solutions (diffusions) est l'existence d'une fonction de Lyapounov garantissant une condition de stabilité. Par le théorème ergodique on sait que les mesures empiriques de la diffusion convergent vers une mesure invariante. Nous étudions une convergence similaire lorsque la diffusion est discrétisée par un schéma d'Euler de pas décroissant. Nous prouvons que les mesures empiriques pondérées de ce schéma convergent vers la mesure invariante de la diffusion, et qu'il est possible d'intégrer des fonctions exponentielles lorsque le coefficient de diffusion est suffisamment petit. De plus, pour une classe de diffusions plus restreinte, nous prouvons la convergence presque sûre et dans Lp du schéma d'Euler vers la diffusion. Nous obtenons des vitesses de convergence pour les mesures empiriques pondérées et donnons les paramètres permettant une vitesse optimale. Nous finissons l'étude de ce schéma lorsqu'il y a présence de multiples mesures invariantes. Cette étude se fait en dimension 1, et nous permet de mettre en évidence un lien entre classification de Feller et fonctions de Lyapounov. Dans la dernière partie, nous exposons un nouvel algorithme adaptatif permettant de considérer des problèmes plus généraux tels que les systèmes Hamiltoniens ou les systèmes monotones. Il s'agit de considérer les mesures empiriques d'un schéma d'Euler construit à partir d'une suite de pas aléatoires adaptés dominée par une suite décroissant vers 0.
  • Méthodes stochastiques d'optimisation appliquées à la mise au point moteur.

    Aurelien SCHMIED, Gilles PAGES
    2003
    Cette thèse traite de méthodes stochastiques d'optimisation appliquées à la mise au point moteur, afin que celui-ci consomme le moins de carburant possible et respecte les normes de pollution en vigueur. Cette thèse propose ainsi deux modofocations de la méthodologie existante chez Renault et une nouvelle approche en rupture du processus actuellement utilisé. La première modification consiste à reformuler le problème d'optimisation à l'aide de modèles issus de la logique floue et la seconde utilise un nouvel algorithme d'optimisation stochastique "Multistosch", pour lequel sont démontrés différents résultats de convergence. La nouvelle approche est fondée sur un outil de planification d'essais dynamiques (trajectoires dans un plan), utilisant la quantification fonctionnelle et, en particulier, celle sous contraintes. Dans ce cadre, une nouvelle forme de distorsion sous contrainte est présentée, que nous rechercherons à minimiser par des algorithmes d'optimisation stochastiques.
  • Sur quelques problèmes de quantification.

    Pierre COHORT, Gilles PAGES
    2000
    Pas de résumé disponible.
Les affiliations sont détectées à partir des signatures des publications identifiées dans scanR. Un auteur peut donc apparaître affilié à plusieurs structures ou tutelles en fonction de ces signatures. Les dates affichées correspondent seulement aux dates des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr