Chronométrez votre couverture avec l'apprentissage par renforcement profond.

Auteurs
  • BENHAMOU Eric
  • SALTIEL David
  • UNGARI Sandrine
  • MUKHOPADHYAY Abhishek
Date de publication
2020
Type de publication
Autre
Résumé Un gestionnaire d'actifs peut-il planifier le moment optimal pour ses stratégies de couverture compte tenu des conditions de marché ? L'approche standard basée sur Markowitz ou d'autres règles financières plus ou moins sophistiquées vise à trouver la meilleure allocation de portefeuille grâce à des prévisions de rendement et de risque, mais ne parvient pas à établir un lien complet entre les conditions du marché et les décisions relatives aux stratégies de couverture. En revanche, le Deep Reinforcement Learning (DRL) peut relever ce défi en créant une dépendance dynamique entre les informations du marché et les décisions d'allocation des stratégies de couverture. Dans cet article, nous présentons un cadre réaliste et augmenté de DRL qui : (i) utilise des informations contextuelles supplémentaires pour décider d'une action, (ii) a un décalage d'une période entre les observations et les actions pour tenir compte du décalage d'un jour de rotation des gestionnaires d'actifs courants pour rééquilibrer leur couverture, (iii) est entièrement testé en termes de stabilité et de robustesse grâce à une méthode de test de train répétitif appelée anchored walk forward training, similaire dans l'esprit à la validation croisée k fold pour les séries temporelles et (iv) permet de gérer le levier de notre stratégie de couverture. Notre expérience pour un gestionnaire d'actifs augmentés intéressé par le dimensionnement et le timing de ses couvertures montre que notre approche permet d'obtenir des rendements supérieurs et un risque plus faible.
Thématiques de la publication
  • ...
  • Pas de thématiques identifiées
Thématiques détectées par scanR à partir des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr