AAMDRL : Gestion augmentée des actifs avec apprentissage par renforcement profond.

Auteurs
  • BENHAMOU Eric
  • SALTIEL David
  • UNGARI Sandrine
  • MUKHOPADHYAY Abhishek
  • ATIF Jamal
Date de publication
2020
Type de publication
Autre
Résumé Un agent peut-il apprendre efficacement dans un environnement bruyant et auto-adaptatif avec des observations séquentielles, non-stationnaires et non-homogènes ? Par le biais de robots d'échange, nous illustrons comment l'apprentissage par renforcement profond (DRL) peut relever ce défi. Nos contributions sont triples : (i) l'utilisation d'informations contextuelles également appelées état augmenté dans le DRL, (ii) l'impact d'un décalage d'une période entre les observations et les actions qui est plus réaliste pour un environnement de gestion d'actifs, (iii) la mise en œuvre d'une nouvelle méthode de test de train répétitif appelée analyse walk forward, similaire dans l'esprit à la validation croisée pour les séries temporelles. Bien que notre expérience porte sur les robots de trading, elle peut facilement être transposée à d'autres environnements de robots qui fonctionnent dans un environnement séquentiel avec des changements de régime et des données bruitées. Notre expérience pour un gestionnaire d'actifs augmentés intéressé à trouver le meilleur portefeuille pour les stratégies de couverture montre que l'AAMDRL permet d'obtenir des rendements supérieurs et un risque plus faible.
Thématiques de la publication
  • ...
  • Pas de thématiques identifiées
Thématiques détectées par scanR à partir des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr