Apprentissage conditionnel de Monte Carlo pour les diffusions I : méthodologie principale et application aux équations différentielles stochastiques à rebours.

Auteurs
  • ABBAS TURKI Lokman
  • PAGES G.
  • DIALLO B
Date de publication
2020
Type de publication
Autre
Résumé Nous présentons un nouvel algorithme basé sur un One-layered Nested Monte Carlo (1NMC) pour simuler les fonctionnelles U d'un processus de Markov X. L'originalité principale de la méthodologie proposée vient du fait qu'elle fournit une recette pour simuler U_{t≥s} conditionnellement sur X_s. En raison de la structure imbriquée qui permet une expansion de type Taylor, il est possible d'utiliser une base très réduite pour la régression. Bien que cette méthodologie puisse être adaptée à un grand nombre de situations, nous l'appliquons ici uniquement pour la simulation d'équations différentielles stochastiques rétroactives (BSDE). La généralité et la stabilité de cet algorithme, même en haute dimension, font sa force. Il est plus lourd qu'un simple Monte Carlo (MC) mais il est beaucoup plus précis pour simuler des quantités qui sont presque impossibles à simuler avec MC. L'aptitude au parallélisme de 1NMC le rend réalisable en un temps de calcul raisonnable. Cet article explique la version principale de cet algorithme et fournit les premiers résultats des estimations d'erreurs. Nous donnons également plusieurs exemples numériques avec une dimension égale à 100 qui sont exécutés de quelques secondes à quelques minutes sur une unité de traitement graphique (GPU).
Thématiques de la publication
  • ...
  • Pas de thématiques identifiées
Thématiques détectées par scanR à partir des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr