BENHAMOU Eric

< Retour à ILB Patrimoine
Affiliations
  • 2017 - 2021
    Laboratoire d'analyse et modélisation de systèmes pour l'aide à la décision
  • 2021
  • 2020
  • 2019
  • 2018
  • 2016
  • 2009
  • Adaptive Learning for Financial Markets Mixing Model-Based and Model-Free Rl for Volatility Targeting.

    Eric BENHAMOU, David SALTIEL, Serge TABACHNIK, Sui kai WONG, Francois CHAREYRON
    SSRN Electronic Journal | 2021
    Pas de résumé disponible.
  • Apprentissage par renforcement profond (DRL) pour l'allocation de portefeuille.

    Eric BENHAMOU, David SALTIEL, Jean jacques OHANA, Jamal ATIF, Rida LARAKI
    Lecture Notes in Computer Science | 2021
    Pas de résumé disponible.
  • Valeurs de Shapley pour le modèle LightGBM appliqué à la détection des régimes.

    Eric BENHAMOU, J OHANA, S OHANA, D SALTIEL, B GUEZ
    2021
    Nous considérons une approche d'arbres de décision par boosting de gradient (GBDT) pour prédire les grandes baisses de prix du S&P 500 à partir d'un ensemble de 150 caractéristiques techniques, fondamentales et macroéconomiques. Nous rapportons une amélioration de la précision du GBDT par rapport à d'autres méthodes d'apprentissage machine (ML) sur les prix à terme du S&P 500. Nous montrons que la rétention d'un nombre réduit de caractéristiques soigneusement sélectionnées apporte des améliorations par rapport à toutes les approches ML. Les valeurs de Shapley ont récemment été introduites de la théorie des jeux dans le domaine de l'apprentissage automatique. Elles permettent une identification robuste des variables les plus importantes prédisant les crises boursières, et une explication locale de la probabilité de crise à chaque date, grâce à une attribution cohérente des caractéristiques. Nous appliquons cette méthodologie pour analyser en détail l'effondrement financier de mars 2020, pour lequel le modèle a offert une prédiction hors échantillon opportune. Cette analyse dévoile en particulier le rôle prédictif contrariant du secteur des actions technologiques avant et après le crash.
  • La bulle des actions Covid est-elle rationnelle ? Une réponse par apprentissage automatique.

    Eric BENHAMOU, Jean JACQUES OHANA, David SALTIEL, Beatrice GUEZ
    2021
    La bulle des actions Covid est-elle rationnelle ? En 2020, les prix des actions ont explosé : le S&P 500 a gagné 16 % et le Nasdaq, à forte composante technologique, a grimpé de 43 %, alors que les fondamentaux se sont détériorés avec des prévisions de PIB en baisse, des estimations de ventes et de revenus en recul et des déficits publics plus élevés. Pour répondre à cette question fondamentale, avec le moins de biais possible, nous explorons une approche d'arbres de décision par boosting de gradient (GBDT) qui nous permet de traiter de nombreuses variables et de laisser parler les données. Nous définissons un régime de crise pour identifier les baisses spécifiques des marchés boursiers et les hausses normales des marchés boursiers. Nous testons notre approche et constatons une meilleure précision des GBDT par rapport aux autres méthodes ML. Grâce aux valeurs de Shapley, nous sommes en mesure d'identifier les caractéristiques les plus importantes, ce qui rend ce travail innovant et constitue une réponse appropriée à la justification du niveau actuel des actions.
  • Calcul de la contribution marginale du ratio de Sharpe et d'autres ratios de performance.

    Eric BENHAMOU, Beatrice GUEZ
    2021
    Le calcul de la contribution incrémentale des ratios de performance tels que les ratios de Sharpe, Treynor, Calmar ou Sterling est d'une importance capitale pour les gestionnaires d'actifs. En nous appuyant sur le théorème de la fonction homogène d'Euler, nous sommes en mesure de prouver que ces ratios de performance sont en fait une combinaison linéaire de ratios de performance individuels modifiés. Cela permet non seulement de dériver une condition pour qu'un nouvel actif apporte une performance supplémentaire au portefeuille, mais aussi d'identifier les facteurs clés de ces ratios de performance. Nous fournissons divers exemples numériques de cette décomposition des ratios de performance.
  • Distinguer l'indiscernable : une approche d'apprentissage par renforcement profond pour les modèles de ciblage de la volatilité.

    Eric BENHAMOU, David SALTIEL, Serge TABACHNIK, Sui kai WONG, Francois CHAREYRON
    2021
    Un agent peut-il apprendre efficacement à distinguer des modèles financiers extrêmement similaires dans un environnement dominé par le bruit et les changements de régime ? Les méthodes statistiques standard basées sur le calcul de la moyenne ou le classement des modèles échouent précisément à cause des changements de régime et des environnements bruyants. Des informations contextuelles supplémentaires dans l'apprentissage par renforcement profond (DRL), aident à former un agent à distinguer différents modèles financiers dont les séries temporelles sont très similaires. Nos contributions sont de quatre ordres : (i) nous combinons l'apprentissage par renforcement (RL) basé sur un modèle et sans modèle. Le dernier RL sans modèle nous permet de sélectionner les différents modèles, (ii) nous présentons un concept, appelé "analyse walk-forward", qui est défini par un entraînement et des tests successifs basés sur des périodes d'expansion, afin d'affirmer la robustesse de l'agent résultant, (iii) nous présentons une méthode basée sur l'importance des caractéristiques qui ressemble à celle des méthodes de boosting de gradient et qui est basée sur la sensibilité des caractéristiques, (iv) enfin et surtout, nous introduisons le concept de signification de la différence statistique basée sur un test T bilatéral, afin de souligner les façons dont nos modèles diffèrent des modèles plus traditionnels. Nos résultats expérimentaux montrent que notre approche surpasse les benchmarks dans presque tous les paramètres d'évaluation couramment utilisés en mathématiques financières, à savoir la performance nette, le ratio de Sharpe, le ratio de Sortino, le maximum drawdown, le maximum drawdown sur la volatilité.
  • Distribution et statistiques du ratio de Sharpe.

    Eric BENHAMOU
    2021
    En raison de l'utilisation fréquente du ratio de Sharpe dans la gestion d'actifs pour comparer et étalonner les fonds et les gestionnaires d'actifs, il est pertinent de dériver la distribution et certaines statistiques du ratio de Sharpe. Dans cet article, nous montrons que sous l'hypothèse de rendements indépendants normalement distribués, il est possible de dériver la distribution exacte du ratio de Sharpe. En particulier, nous prouvons que jusqu'à un facteur de redimensionnement, le ratio de Sharpe est une distribution de Student non centrée dont les caractéristiques ont été largement étudiées par les statisticiens. Pour un grand nombre d'observations, nous pouvons dériver la distribution asymtptotique et retrouver le résultat de Lo (2002). Nous illustrons également le fait que le ratio de Sharpe empirique est asymptotiquement optimal dans le sens où il atteint la borne de Cramer Rao. Nous étudions ensuite le RS empirique sous les hypothèses AR(1) et nous examinons l'effet de la période de composition sur le Sharpe (en calculant le Sharpe annuel avec des données mensuelles par exemple). Nous fournissons enfin une formule générale dans ce cas d'hétéroscédasticité et d'autocorrélation.
  • Sélection des transactions avec apprentissage supervisé et ascension optimale des coordonnées (OCA).

    David SALTIEL, Eric BENHAMOU, Rida LARAKI, Jamal ATIF
    Lecture Notes in Computer Science | 2021
    Pas de résumé disponible.
  • Détection d'un événement de crise à l'aide d'arbres de décision par boosting de gradient.

    Eric BENHAMOU, Jean OHANA, David SALTIEL, Beatrice GUEZ
    2021
    L'allocation des marchés financiers est une tâche difficile car la méthode doit changer radicalement de comportement lorsqu'elle est confrontée à des événements très rares de type cygne noir, tels que des crises qui modifient le régime du marché. Afin de relever ce défi, nous présentons une approche d'arbres de décision par boosting de gradient (GBDT) pour prédire les grandes baisses de prix des indices boursiers à partir d'un ensemble de 150 caractéristiques techniques, fondamentales et macroéconomiques. Nous rapportons une amélioration de la précision du GBDT par rapport à d'autres méthodes d'apprentissage automatique (ML) sur les prix à terme du S&P 500. Nous montrons que la rétention d'un nombre réduit de caractéristiques soigneusement sélectionnées apporte des améliorations par rapport à toutes les approches ML. Nous montrons que ce modèle a un fort pouvoir prédictif. Nous entraînons le modèle de 2000 à 2014, une période où diverses crises ont été observées et utilisons une période de validation de 3 ans pour trouver les hyperparamètres. Le modèle ajusté prévoit de manière opportune la crise de Covid, ce qui nous donne une méthode de planification pour la détection précoce de crises potentielles futures.
  • Détection des changements de régime avec GBDT et valeurs Shapley.

    Eric BENHAMOU, Jean OHANA, David SALTIEL, Beatrice GUEZ
    2021
    La détection des changements de régime sur les marchés financiers est bien connue pour être difficile à expliquer et à interpréter. Un gestionnaire d'actifs peut-il expliquer clairement l'intuition de sa prédiction de changements de régime sur le marché des actions ? Pour répondre à cette question, nous considérons une approche de type gradient boosting decision trees (GBDT) pour planifier les changements de régime sur le S&P 500 à partir d'un ensemble de 150 caractéristiques techniques, fondamentales et macroéconomiques. Nous rapportons une amélioration de la précision du GBDT par rapport à d'autres méthodes d'apprentissage automatique (ML) sur les prix à terme du S&P 500. Nous montrons que la rétention d'un nombre réduit de caractéristiques soigneusement sélectionnées permet d'améliorer toutes les approches ML. Les valeurs de Shapley ont récemment été introduites de la théorie des jeux dans le domaine de l'apprentissage automatique. Cette approche permet une identification robuste des variables les plus importantes planifiant les crises boursières, et une explication locale de la probabilité de crise à chaque date, par une attribution cohérente des caractéristiques. Nous appliquons cette méthodologie pour analyser en détail l'effondrement financier de mars 2020, pour lequel le modèle a offert une prédiction hors échantillon opportune. Cette analyse dévoile en particulier le rôle prédictif contrariant du secteur des actions technologiques avant et après le crash.
  • Détecter et s'adapter à un modèle de crise avec l'apprentissage par renforcement profond basé sur le contexte.

    Eric BENHAMOU, David SALTIEL, Jean jacques OHANA, Jamal ATIF
    SSRN Electronic Journal | 2020
    Pas de résumé disponible.
  • Chronométrez votre couverture avec l'apprentissage par renforcement profond.

    Eric BENHAMOU, David SALTIEL, Sandrine UNGARI, Abhishek MUKHOPADHYAY
    SSRN Electronic Journal | 2020
    Pas de résumé disponible.
  • Chronométrez votre couverture avec l'apprentissage par renforcement profond.

    Eric BENHAMOU, David SALTIEL, Sandrine UNGARI, Abhishek MUKHOPADHYAY
    2020
    Un gestionnaire d'actifs peut-il planifier le moment optimal pour ses stratégies de couverture compte tenu des conditions de marché ? L'approche standard basée sur Markowitz ou d'autres règles financières plus ou moins sophistiquées vise à trouver la meilleure allocation de portefeuille grâce à des prévisions de rendement et de risque, mais ne parvient pas à établir un lien complet entre les conditions du marché et les décisions relatives aux stratégies de couverture. En revanche, le Deep Reinforcement Learning (DRL) peut relever ce défi en créant une dépendance dynamique entre les informations du marché et les décisions d'allocation des stratégies de couverture. Dans cet article, nous présentons un cadre réaliste et augmenté de DRL qui : (i) utilise des informations contextuelles supplémentaires pour décider d'une action, (ii) a un décalage d'une période entre les observations et les actions pour tenir compte du décalage d'un jour de rotation des gestionnaires d'actifs courants pour rééquilibrer leur couverture, (iii) est entièrement testé en termes de stabilité et de robustesse grâce à une méthode de test de train répétitif appelée anchored walk forward training, similaire dans l'esprit à la validation croisée k fold pour les séries temporelles et (iv) permet de gérer le levier de notre stratégie de couverture. Notre expérience pour un gestionnaire d'actifs augmentés intéressé par le dimensionnement et le timing de ses couvertures montre que notre approche permet d'obtenir des rendements supérieurs et un risque plus faible.
  • NGO-GM : Optimisation du gradient naturel pour les modèles graphiques.

    Eric BENHAMOU, Rida LARAKI, David SALTIEL, Jamal ATIFL
    2020
    Cet article traite de l'estimation des paramètres de modèles dans les modèles graphiques. Nous le reformulons comme un problème d'optimisation géométrique de l'information et introduisons une stratégie naturelle de descente de gradient qui incorpore des méta paramètres supplémentaires. Nous montrons que notre approche est une alternative solide à la célèbre approche EM pour l'apprentissage dans les modèles graphiques. En fait, notre stratégie basée sur le gradient naturel conduit à l'apprentissage de paramètres optimaux pour la fonction objectif finale sans essayer artificiellement d'ajuster une distribution qui peut ne pas correspondre à la distribution réelle. Nous appuyons nos résultats théoriques sur la question de la détection des tendances sur les marchés financiers et montrons que le modèle appris est plus performant que les méthodes traditionnelles des praticiens et qu'il est moins enclin à l'overfitting.
  • AAMDRL : Gestion augmentée des actifs avec apprentissage par renforcement profond.

    Eric BENHAMOU, David SALTIEL, Sandrine UNGARI, Jamal ATIF, Abhishek MUKHOPADHYAY
    SSRN Electronic Journal | 2020
    Pas de résumé disponible.
  • Apprentissage par renforcement profond (DRL) pour l'allocation de portefeuille.

    Eric BENHAMOU, Jamal ATIF, Rida LARAKI, David SALTIEL, Jean jacques OHANA
    The European Conference on Machine Learning and Principles and Practice of Knowledge Discovery in Databases | 2020
    Pas de résumé disponible.
  • BCMA-ES : une vue de l'optimisation bayésienne à antériorité conjuguée.

    Eric BENHAMOU, David SALTIEL, Rida LARAKI, Jamal ATIF
    2020
    CMA-ES est l'une des méthodes d'optimisation évolutionnaire de pointe en raison de sa capacité à adapter la covariance à la géométrie de l'information. Elle utilise des informations préalables pour former une meilleure estimation de la distribution du minimum. Nous montrons que cela peut être reformulé comme un problème d'optimisation bayésienne pour l'échantillonnage de l'optimum. Grâce à la distribution Normal Inverse Wishart (NIW), qui est une antériorité conjuguée pour la distribution normale multivariée, nous pouvons dériver un algorithme numériquement efficace CMA-ES bayésien qui obtient des performances similaires à celles du CMA-ES traditionnel sur de nombreux benchmarks et fournit une nouvelle justification pour les équations de mise à jour du CMA-ES. Ce nouveau paradigme pour la CMA-ES bayésienne fournit un pont puissant entre l'optimisation évolutionnaire et l'optimisation bayésienne, montrant les profondes similitudes et connexions entre ces méthodes traditionnellement opposées et ouvrant l'horizon pour des variations et des stratégies de mélange sur ces méthodes.
  • Combler le fossé entre la planification de Markowitz et l'apprentissage par renforcement profond.

    Eric BENHAMOU, David SALTIEL, Sandrine UNGARI, Abhishek MUKHOPADHYAY
    2020
    Alors que les chercheurs dans le secteur de la gestion d'actifs se sont principalement concentrés sur des techniques basées sur des techniques financières et de planification des risques telles que la frontière efficiente de Markowitz, la variance minimale, la diversification maximale ou la parité des risques, en parallèle, une autre communauté dans le domaine de l'apprentissage automatique a commencé à travailler sur l'apprentissage par renforcement et plus particulièrement sur l'apprentissage par renforcement profond pour résoudre d'autres problèmes de prise de décision pour des tâches difficiles telles que la conduite autonome, l'apprentissage de robots et, d'un point de vue plus conceptuel, la résolution de jeux comme le Go. Cet article vise à combler le fossé entre ces deux approches en montrant que les techniques d'apprentissage par renforcement profond (DRL) peuvent apporter un nouvel éclairage sur l'allocation de portefeuille grâce à un cadre d'optimisation plus général qui présente l'allocation de portefeuille comme un problème de contrôle optimal qui n'est pas seulement une optimisation à une étape, mais plutôt une optimisation de contrôle continu avec une récompense différée. Les avantages sont nombreux : (i) DRL fait directement correspondre les conditions du marché aux actions par conception et devrait donc s'adapter à un environnement changeant, (ii) DRL ne repose pas sur des hypothèses traditionnelles de risque financier comme le fait que le risque soit représenté par la variance, (iii) DRL peut incorporer des données supplémentaires et être une méthode à entrées multiples par opposition aux méthodes d'optimisation plus traditionnelles. Nous présentons sur une expérience quelques résultats encourageants en utilisant des réseaux de convolution.
  • Similitudes entre les méthodes de gradient de politique (PGM) dans l'apprentissage par renforcement (RL) et l'apprentissage supervisé (SL).

    Eric BENHAMOU
    2020
    L'apprentissage par renforcement (RL) concerne la prise de décision séquentielle et est traditionnellement opposé à l'apprentissage supervisé (SL) et à l'apprentissage non supervisé (USL). Dans l'apprentissage par renforcement, étant donné l'état actuel, l'agent prend une décision qui peut influencer l'état suivant, contrairement à l'apprentissage par lots (et à l'apprentissage non supervisé) où l'état suivant reste le même, quelles que soient les décisions prises, que ce soit dans le cadre d'un apprentissage par lots ou en ligne. Bien que cette différence soit fondamentale entre SL et RL, il existe des connexions qui ont été négligées. En particulier, nous prouvons dans cet article que la méthode de la politique du gradient peut être considérée comme un problème d'apprentissage supervisé où l'étiquette réelle est remplacée par des récompenses actualisées. Nous fournissons une nouvelle preuve des méthodes de gradient de politique (MGP) qui souligne le lien étroit avec l'entropie croisée et l'apprentissage supervisé. Nous fournissons une expérience simple où nous échangeons les étiquettes et les pseudo-récompenses. Nous concluons que d'autres relations avec SL pourraient être établies si nous modifions judicieusement les fonctions de récompense.
  • Estimation des effets de traitement individuels par l'identification des populations causales.

    Celine BEJI, Eric BENHAMOU, Michael BON, Florian YGER, Jamal ATIF
    28th European Symposium on Artificial Neural Networks, Computational Intelligence and Machine Learning (ESANN 2020) | 2020
    L'estimation de l'effet de traitement individuel à partir de données d'observation, défini comme la différence entre les résultats avec et sans traitement ou intervention, tout en observant seulement l'un des deux, est un problème difficile dans l'apprentissage causal. Dans cet article, nous formulons ce problème comme une inférence à partir de variables cachées et nous appliquons des contraintes causales basées sur un modèle de quatre populations causales exclusives. Nous proposons une nouvelle version de l'algorithme EM, appelée algorithme Expected-Causality-Maximization (ECM) et fournissons des indications sur sa convergence dans des conditions légères. Nous comparons notre algorithme aux méthodes de référence sur des données synthétiques et réelles et discutons de ses performances.
  • Tester le ratio de Sharpe : chance ou compétence ?

    Eric BENHAMOU, David SALTIEL, Nicolas PARIS, Beatrice GUEZ
    2020
    Le ratio de Sharpe (parfois aussi appelé ratio d'information) est largement utilisé en gestion d'actifs pour comparer et étalonner les fonds et les gestionnaires d'actifs. Il calcule le rapport entre le rendement net (excédentaire) et l'écart type de la stratégie. Cependant, les éléments permettant de calculer le ratio de Sharpe, à savoir les rendements attendus et les volatilités, sont des nombres inconnus et doivent être estimés statistiquement. Cela signifie que le ratio de Sharpe utilisé par les fonds est susceptible d'être entaché d'erreurs en raison d'erreurs d'estimation statistique. Dans ce document, nous proposons différents tests pour mesurer la qualité des ratios de Sharpe. Par qualité, nous cherchons à mesurer si un gestionnaire a effectivement été chanceux ou habile. Le test évalue cela à travers la signification statistique du ratio de Sharpe. Nous n'examinons pas seulement le ratio de Sharpe traditionnel mais calculons également un ratio de Sharpe modifié insensible au capital utilisé. Nous fournissons différents tests statistiques qui peuvent être utilisés pour quantifier précisément le fait que le Sharpe est statistiquement significatif. Nous illustrons en particulier le nombre de transactions pour un niveau de Sharpe donné qui fournit une signification statistique ainsi que l'impact de l'auto-corrélation en fournissant des tableaux de référence qui fournissent le ratio de Sharpe minimum requis pour une période de temps et une corrélation données. Nous fournissons également pour un ratio de Sharpe de 0,5, 1,0, 1,5 et 2,0 le pourcentage de compétence compte tenu du niveau d'auto-corrélation. Classification JEL : C12, G11.
  • BCMA-ES II : revisiter la CMA-ES bayésienne.

    Eric BENHAMOU, David SALTIEL, Nicolas PARIS, Beatrice GUEZ
    2020
    Cet article revisite le CMA-ES bayésien et fournit des mises à jour pour le Wishart normal. Il met l'accent sur la différence entre un antériorité de Wishart normale et normale inverse. Après quelques calculs, nous prouvons que la seule différence réside étonnamment dans la covariance attendue. Nous prouvons que la covariance attendue devrait être inférieure dans le modèle de priorité Wishart normale en raison de la convexité de l'inverse. Nous présentons un modèle de mélange qui généralise à la fois le modèle Wishart normal et le modèle Wishart inverse normal. Nous présentons enfin diverses expériences numériques pour comparer les deux méthodes ainsi que la méthode généralisée.
  • Réduction de la variance dans les méthodes de critique d'acteurs (ACM).

    Eric BENHAMOU
    2020
    Après avoir présenté les méthodes Actor Critic (ACM), nous montrons que les ACM sont des estimateurs de variate de contrôle. En utilisant le théorème de projection, nous prouvons que les méthodes Q et Advantage Actor Critic (A2C) sont optimales au sens de la norme L 2 pour les estimateurs de la variante de contrôle englobés par les fonctions conditionnées par l'état et l'action actuels. Cette application directe du théorème de Pythagore fournit une justification théorique de la forte performance des méthodes QAC et AAC, le plus souvent appelées méthodes A2C, dans les méthodes de gradient de politique profonde. Cela nous permet de dériver une nouvelle formulation pour les méthodes Advantage Actor Critic qui a une variance plus faible et améliore la méthode A2C traditionnelle.
  • BCMA-ES : Une approche bayésienne de CMA-ES.

    Eric BENHAMOU, David SALTIEL, Fabien TEYTAUD, Sebastien VEREL
    2020
    Cet article présente une nouvelle approche théorique pour le célèbre algorithme CMA-ES. En supposant que les paramètres de la distribution normale multivariée pour le minimum suivent une distribution antérieure conjuguée, nous dérivons leur mise à jour optimale à chaque étape de l'itération. Non seulement ce cadre bayésien fournit une justification pour la mise à jour de l'algorithme CMA-ES, mais il donne également deux nouvelles versions de CMA-ES en supposant des prieurs normaux-Wishart ou normaux-Inverse Wishart, selon que nous paramétrons la vraisemblance par sa matrice de covariance ou de précision. Nous soutenons nos résultats théoriques par des expériences numériques qui montrent une convergence rapide de ces versions modifiées de CMA-ES.
  • Combler le fossé entre la planification de Markowitz et l'apprentissage par renforcement profond.

    Eric BENHAMOU, David SALTIEL, Sandrine UNGARI, Abhishek MUKHOPADHYAY
    SSRN Electronic Journal | 2020
    Pas de résumé disponible.
  • Omega et ratio de Sharpe.

    Eric BENHAMOU, Nicolas PARIS, Beatrice GUEZ
    2020
    Le ratio Omega, défini comme le rapport pondéré par les probabilités entre les gains et les pertes pour un niveau donné de rendement attendu, est considéré comme un meilleur indicateur de performance que les ratios de Sharpe et de Sortino, car il dépend de la distribution complète des rendements et englobe donc toutes les informations sur le risque et le rendement. Nous calculons le ratio Omega pour la distribution normale et montrons que sous certaines hypothèses de symétrie de la distribution, le ratio Omega est survendu car il ne fournit aucune information supplémentaire par rapport au ratio de Sharpe. En effet, pour les rendements qui ont des distributions elliptiques, nous prouvons que le portefeuille optimal selon le ratio Omega est le même que le portefeuille optimal selon le ratio de Sharpe. Comme les distributions elliptiques sont une forme faible de distributions symétriques qui ont généralisé les distributions gaussiennes et englobent de nombreuses distributions à queue grasse, cela réduit considérablement l'intérêt potentiel du ratio Omega.
  • AAMDRL : Gestion augmentée des actifs avec apprentissage par renforcement profond.

    Eric BENHAMOU, David SALTIEL, Sandrine UNGARI, Abhishek MUKHOPADHYAY, Jamal ATIF
    2020
    Un agent peut-il apprendre efficacement dans un environnement bruyant et auto-adaptatif avec des observations séquentielles, non-stationnaires et non-homogènes ? Par le biais de robots d'échange, nous illustrons comment l'apprentissage par renforcement profond (DRL) peut relever ce défi. Nos contributions sont triples : (i) l'utilisation d'informations contextuelles également appelées état augmenté dans le DRL, (ii) l'impact d'un décalage d'une période entre les observations et les actions qui est plus réaliste pour un environnement de gestion d'actifs, (iii) la mise en œuvre d'une nouvelle méthode de test de train répétitif appelée analyse walk forward, similaire dans l'esprit à la validation croisée pour les séries temporelles. Bien que notre expérience porte sur les robots de trading, elle peut facilement être transposée à d'autres environnements de robots qui fonctionnent dans un environnement séquentiel avec des changements de régime et des données bruitées. Notre expérience pour un gestionnaire d'actifs augmentés intéressé à trouver le meilleur portefeuille pour les stratégies de couverture montre que l'AAMDRL permet d'obtenir des rendements supérieurs et un risque plus faible.
  • Sélection efficace de variables par descente par coordonnée avec garanties théoriques.

    David SALTIEL, Eric BENHAMOU
    2020
    Pas de résumé disponible.
  • Sélection efficace de variables par montée par coordonnée avec garanties théoriques.

    David SALTIEL, Eric BENHAMOU
    2019
    Malgré l'avènement de l'apprentissage par représentation, principalement par le biais d'ap-prentissage profond, la sélection des variables (features) reste unélémentunélément clé de nombreux scénarios d'apprentissage automatique. Cet article présente une nouvelle méthode théoriquement mo-tivée pour la sélection des features. Cette approche traite leprobì eme de la sélection des features par le biais de méthodes d'optimisation par coordonnées en tenant compte des dépendances des variables, matérialisant cesdernì eres par blocs. Le faible nombre d'itérations (jusqu'` a la convergence de la méthode) atteste de l'efficacité des méthodes de gradient boosting (par exemple l'algorithme XG-Boost) pour cesprobì emes d'apprentissage super-visé. Dans le cas de fonctions convexes et lisses, nous pouvons prouver que le taux de convergence est polynomial en terme de dimension de l'en-semble complet des features. Nous comparons les résultats obtenues avec des méthodes faisant l'´ etat de l'art de la sélection des features : Recursive Features Elimination (RFE) et Binary Coordinate Ascent (BCA), afin de montrer que cette nouvelle méthode est compétitive.
  • Tout ce que vous avez toujours voulu savoir sur la famille exponentielle et son entraînement efficace dans les prieurs conjugués bayésiens.

    Eric BENHAMOU
    SSRN Electronic Journal | 2019
    Pas de résumé disponible.
  • NGO-GM : Optimisation du gradient naturel pour les modèles graphiques.

    Eric BENHAMOU, Jamal ATIF, Rida LARAKI, David SALTIEL, Jamal ATIFL
    SSRN Electronic Journal | 2019
    Cet article traite de l'estimation des paramètres de modèles dans les modèles graphiques. Nous le reformulons comme un problème d'optimisation géométrique de l'information et introduisons une stratégie naturelle de descente de gradient qui incorpore des méta paramètres supplémentaires. Nous montrons que notre approche est une alternative solide à la célèbre approche EM pour l'apprentissage dans les modèles graphiques. En fait, notre stratégie basée sur le gradient naturel conduit à l'apprentissage de paramètres optimaux pour la fonction objectif finale sans essayer artificiellement d'ajuster une distribution qui peut ne pas correspondre à la distribution réelle. Nous appuyons nos résultats théoriques sur la question de la détection des tendances sur les marchés financiers et montrons que le modèle appris est plus performant que les méthodes traditionnelles des praticiens et qu'il est moins enclin à l'overfitting.
  • Sélection des transactions avec apprentissage supervisé et OCA.

    David SALTIEL, Eric BENHAMOU
    2019
    Ces dernières années, les méthodes de pointe pour l'apprentissage supervisé ont exploité de plus en plus les techniques de boosting du gradient, avec des implémentations efficaces telles que xgboost ou light-gbm. L'un des points clés de la création de méthodes efficaces est la sélection des caractéristiques (FS). Elle consiste à sélectionner les bonnes caractéristiques efficaces et précieuses. Face à des centaines de caractéristiques, il est essentiel de sélectionner les meilleures. Bien que les méthodes de filtrage et d'enveloppement aient atteint une certaine maturité, les méthodes intégrées sont vraiment nécessaires pour trouver le meilleur ensemble de caractéristiques, car il s'agit de méthodes hybrides combinant le filtrage et l'enveloppement des caractéristiques. Dans ce travail, nous nous attaquons au problème de trouver par l'apprentissage automatique les meilleurs métiers a priori d'une stratégie algo-rithmique. Nous dérivons cette nouvelle méthode en utilisant l'optimisation par ascension de coordonnées et en utilisant des variables de bloc. Nous comparons notre méthode à la méthode Recursive Feature Elimination (RFE) et à la méthode Binary Coordinate Ascent (BCA). Nous montrons sur un exemple réel la capacité de cette méthode à sélectionner de bonnes transactions a priori. Non seulement cette méthode surpasse la stratégie de trading initiale en évitant de prendre des trades perdants, mais elle surpasse également les autres méthodes, ayant à la fois le plus petit ensemble de caractéristiques et le plus haut score. L'intérêt de cette méthode va au-delà de ce simple problème de classification des transactions car il s'agit d'une méthode très générale pour déterminer l'ensemble optimal de caractéristiques en utilisant certaines informations sur la relation entre les caractéristiques ainsi qu'en utilisant l'optimisation par ascension de coordonnées.
  • Réduction de la variance dans les méthodes de critique d'acteurs (ACM).

    Eric BENHAMOU
    SSRN Electronic Journal | 2019
    Après avoir présenté les méthodes Actor Critic (ACM), nous montrons que les ACM sont des estimateurs de variate de contrôle. En utilisant le théorème de projection, nous prouvons que les méthodes Q et Advantage Actor Critic (A2C) sont optimales au sens de la norme L 2 pour les estimateurs de la variante de contrôle englobés par les fonctions conditionnées par l'état et l'action actuels. Cette application directe du théorème de Pythagore fournit une justification théorique de la forte performance des méthodes QAC et AAC, le plus souvent appelées méthodes A2C, dans les méthodes de gradient de politique profonde. Cela nous permet de dériver une nouvelle formulation pour les méthodes Advantage Actor Critic qui a une variance plus faible et améliore la méthode A2C traditionnelle.
  • Similitudes entre les méthodes de gradient de politique (PGM) dans l'apprentissage par renforcement (RL) et l'apprentissage supervisé (SL).

    Eric BENHAMOU
    SSRN Electronic Journal | 2019
    L'apprentissage par renforcement (RL) concerne la prise de décision séquentielle et est traditionnellement opposé à l'apprentissage supervisé (SL) et à l'apprentissage non supervisé (USL). Dans l'apprentissage par renforcement, étant donné l'état actuel, l'agent prend une décision qui peut influencer l'état suivant, contrairement à l'apprentissage par lots (et à l'apprentissage non supervisé) où l'état suivant reste le même, quelles que soient les décisions prises. Bien que cette différence soit fondamentale entre SL et RL, il existe des connexions qui ont été négligées. En particulier, nous prouvons dans cet article que la méthode de la politique du gradient peut être considérée comme un problème d'apprentissage supervisé où les étiquettes réelles sont remplacées par des récompenses actualisées. Nous fournissons une nouvelle preuve des méthodes de gradient de politique (MGP) qui souligne le lien étroit avec l'entropie croisée et l'apprentissage supervisé. Nous fournissons une expérience simple où nous échangeons les étiquettes et les pseudo-récompenses. Nous concluons que d'autres relations avec SL pourraient être établies si nous modifions judicieusement les fonctions de récompense.
  • Test du ratio de Sharpe : Chance ou compétence ?

    Eric BENHAMOU, David SALTIEL, Beatrice GUEZ, Nicolas PARIS
    SSRN Electronic Journal | 2019
    Le ratio de Sharpe (parfois aussi appelé ratio d'information) est largement utilisé en gestion d'actifs pour comparer et étalonner les fonds et les gestionnaires d'actifs. Il calcule le rapport entre le rendement net (excédentaire) et l'écart type de la stratégie. Cependant, les éléments permettant de calculer le ratio de Sharpe, à savoir les rendements attendus et les volatilités, sont des nombres inconnus et doivent être estimés statistiquement. Cela signifie que le ratio de Sharpe utilisé par les fonds est susceptible d'être entaché d'erreurs en raison d'erreurs d'estimation statistique. Dans ce document, nous proposons différents tests pour mesurer la qualité des ratios de Sharpe. Par qualité, nous cherchons à mesurer si un gestionnaire a effectivement été chanceux ou habile. Le test évalue cela à travers la signification statistique du ratio de Sharpe. Nous n'examinons pas seulement le ratio de Sharpe traditionnel mais calculons également un ratio de Sharpe modifié insensible au capital utilisé. Nous fournissons différents tests statistiques qui peuvent être utilisés pour quantifier précisément le fait que le Sharpe est statistiquement significatif. Nous illustrons en particulier le nombre de transactions pour un niveau de Sharpe donné qui fournit une signification statistique ainsi que l'impact de l'auto-corrélation en fournissant des tableaux de référence qui fournissent le ratio de Sharpe minimum requis pour une période de temps et une corrélation données. Nous fournissons également pour un ratio de Sharpe de 0,5, 1,0, 1,5 et 2,0 le pourcentage de compétence compte tenu du niveau d'auto-corrélation. Classification JEL : C12, G11.
  • Une courte note sur la limite supérieure de la norme de l'opérateur pour les matrices aléatoires à queue sub-gaussienne.

    Eric BENHAMOU, Jamal ATIF, Rida LARAKI
    2019
    Cet article étudie une limite supérieure de la norme d'opérateur pour les matrices aléatoires à queue sub-gaussienne. Beaucoup d'attention a été portée sur les matrices aléatoires sub-gaussiennes à queue uniformément bornées avec des coefficients indépendants. Cependant, peu de choses ont été faites pour les matrices aléatoires à queue sub-gaussienne dont la variance des coefficients de la matrice n'est pas égale ou pour les matrices dont les coefficients ne sont pas indépendants. C'est précisément le sujet de cet article. Après avoir prouvé que les matrices aléatoires à coefficients indépendants uniformément sous-gaussiens satisfont la borne de Widom de Tracy, c'est-à-dire que leur norme d'opérateur matriciel reste bornée par O(√n) avec une probabilité écrasante, nous prouvons qu'une condition moins stricte est que les lignes de la matrice soient indépendantes et uniformément sous-gaussiennes. Ceci n'impose pas en particulier que tous les coefficients de la matrice soient indépendants, mais seulement leurs rangées, ce qui est une condition plus faible.
  • BCMA-ES II : Revisiter la CMA-ES bayésienne.

    Eric BENHAMOU, David SALTIEL, Beatrice GUEZ, Nicolas PARIS
    SSRN Electronic Journal | 2019
    Cet article revisite le CMA-ES bayésien et fournit des mises à jour pour le Wishart normal. Il met l'accent sur la différence entre un antériorité de Wishart normale et normale inverse. Après quelques calculs, nous prouvons que la seule différence réside étonnamment dans la covariance attendue. Nous prouvons que la covariance attendue devrait être inférieure dans le modèle de priorité Wishart normale en raison de la convexité de l'inverse. Nous présentons un modèle de mélange qui généralise à la fois le modèle Wishart normal et le modèle Wishart inverse normal. Nous présentons enfin diverses expériences numériques pour comparer les deux méthodes ainsi que la méthode généralisée.
  • Quelques propriétés de la variance d'un échantillon.

    Eric BENHAMOU
    2019
    Un résultat fondamental est que la variance d'échantillon pour des observations i.i.d. est un estimateur sans biais de la variance de la distribution sous-jacente (voir par exemple Casella et Berger (2002)). Un autre résultat est que la variance de la variance de l'échantillon est minimale par rapport à tout autre estimateur sans biais (voir Halmos (1946)). Mais que se passe-t-il si les observations ne sont ni indépendantes ni identiquement distribuées. Que pouvons-nous dire ? Pouvons-nous en particulier calculer explicitement les deux premiers moments de la moyenne de l'échantillon et donc généraliser les formules fournies dans Tukey (1957a), Tukey (1957b) pour les deux premiers moments de la variance de l'échantillon ? Nous savons également que la moyenne et la variance de l'échantillon sont indépendantes si elles sont calculées sur une distribution normale i.i.d.. C'est l'une des hypothèses sous-jacentes à la distribution de Student alias W. S. Gosset (1908). Mais ce résultat est-il valable pour toute autre distribution sous-jacente ? Peut-on encore avoir une moyenne et une variance d'échantillon indépendantes si la distribution n'est pas normale ? Cet article répond précisément à ces questions et étend les travaux précédents de Cho, Cho et Eltinge (2004). Nous sommes en mesure de dériver une formule générale pour les deux premiers moments et la variance de la variance d'échantillon sans hypothèses spécifiques. Nous fournissons également une preuve plus rapide d'un résultat fondamental de Lukacs (1942) en utilisant la fonction caractéristique logarithmique de l'estimateur sans biais de la variance d'échantillon.
  • Une version discrète de CMA-ES.

    Eric BENHAMOU, Jamal ATIF, Rida LARAKI
    2019
    L'apprentissage automatique moderne utilise des techniques d'optimisation de plus en plus avancées pour trouver les hyper paramètres optimaux. Lorsque la fonction objectif n'est pas convexe, qu'elle n'est pas continue et qu'elle comporte potentiellement plusieurs minima locaux, les méthodes d'optimisation standard par descente de gradient échouent. Une méthode de dernière ressource et très différente consiste à supposer que le ou les optima, pas nécessairement uniques, sont répartis selon une distribution et à adapter itérativement la distribution en fonction des points testés. Ces stratégies nées au début des années 1960, nommées Stratégie d'évolution (ES) ont culminé avec la CMA-ES (Covariance Matrix Adaptation) ES. Elle s'appuie sur une distribution normale multi variée et est censée être l'état de l'art pour les programmes d'optimisation générale. Cependant, elle est loin d'être optimale pour les variables discrètes. Dans cet article, nous étendons la méthode aux distributions binomiales multivariées corrélées. Pour une telle distribution, nous montrons qu'elle partage des caractéristiques similaires à la normale multivariée : l'indépendance et la corrélation sont équivalentes et la corrélation est efficacement modélisée par l'interaction entre différentes variables. Nous discutons cette distribution dans le cadre de la famille exponentielle. Nous prouvons que le modèle peut estimer non seulement les interactions par paire entre les deux variables, mais qu'il est également capable de modéliser les interactions d'ordre supérieur. Cela permet de créer une version du CMA ES qui peut accueillir efficacement des variables discrètes. Nous fournissons l'algorithme correspondant et concluons.
  • Le filtre de Kalman démystifié : de l'intuition au modèle graphique probabiliste au cas réel sur les marchés financiers.

    Eric BENHAMOU
    2019
    Chercheur affilié au LAMSADE (UMR CNRS 7243) et chaire QMI (Quantitative Management Initiative), Résumé : Dans cet article, nous revisitons la théorie du filtre de Kalman. Après avoir donné l'intuition sur un exemple simplifié de marchés financiers, nous revisitons les mathématiques qui la sous-tendent. Nous montrons ensuite que le filtre de Kalman peut être présenté d'une manière très différente en utilisant des modèles graphiques. Cela nous permet d'établir la connexion entre le filtre de Kalman et les modèles de Markov cachés. Nous examinons ensuite leur application sur les marchés financiers et fournissons diverses intuitions quant à leur applicabilité à des systèmes complexes tels que les marchés financiers. Bien que cet article ait été écrit comme un travail autonome reliant le filtre de Kalman aux modèles de Markov cachés et donc revisitant des résultats bien connus et établis, il contient de nouveaux résultats et apporte des contributions supplémentaires au domaine. Premièrement, en s'appuyant sur le lien entre le filtre de Kalman et les HMM, il donne de nouveaux algorithmes d'inférence pour les filtres de Kalman étendus. Deuxièmement, il présente une alternative à l'estimation traditionnelle des paramètres à l'aide de l'algorithme EM grâce à l'utilisation de l'optimisation CMA-ES. Troisièmement, il examine l'application du filtre de Kalman et de sa version des modèles de Markov cachés aux marchés financiers, en fournissant diverses hypothèses et tests de dynamique. Nous concluons en connectant l'approche du filtre de Kalman au système d'analyse technique de suivi de tendance et en montrant leurs performances supérieures pour la détection du suivi de tendance.
  • Une nouvelle approche de l'apprentissage dans les réseaux bayésiens dynamiques (DBN).

    Eric BENHAMOU, Jamal ATIF, Rida LARAKI
    2019
    Dans cet article, nous revisitons le problème de l'apprentissage des paramètres, à savoir l'estimation des paramètres du modèle pour les réseaux bayésiens dynamiques (DBN). Les DBN sont des modèles graphiques dirigés de processus stochastiques qui englobent et généralisent les modèles de Markov cachés (HMM) et les systèmes dynamiques linéaires (SDL). Chaque fois que nous appliquons ces modèles à l'économie et à la finance, nous sommes obligés de faire certaines hypothèses de modélisation concernant la dynamique de l'état et la topologie du graphe (la structure DBN). Ces hypothèses peuvent être incorrectement spécifiées et contenir un bruit supplémentaire par rapport à la réalité. Essayer d'utiliser une approche de meilleur ajustement par l'estimation du maximum de vraisemblance peut manquer ce point et essayer d'ajuster à tout prix ces modèles sur les données. Nous présentons ici une nouvelle méthodologie qui adopte un point de vue radical et se concentre plutôt sur l'efficacité finale de notre modèle. Les paramètres sont donc estimés en termes d'efficacité plutôt qu'en termes d'ajustement distributif aux données. Le problème d'optimisation qui en résulte et qui consiste à trouver les paramètres optimaux est un problème difficile. Nous nous appuyons sur la méthode CMA-ES (Covariance Matrix Adaptation Evolution Strategy) pour résoudre ce problème. Nous appliquons cette méthode au problème fondamental de la détection des tendances sur les marchés financiers. Les résultats numériques montrent que les paramètres résultants semblent moins sujets à des erreurs de surajustement que la détection traditionnelle de tendances par croisement de moyennes mobiles et donnent de meilleurs résultats. La méthode développée ici pour le trading algorithmique est générale. Elle peut être appliquée à d'autres applications réelles lorsqu'il n'y a pas de loi physique sous-jacente à nos DBNs.
  • Relier le ratio de Sharpe et la statistique t de Student, et au-delà.

    Eric BENHAMOU
    2019
    Le ratio de Sharpe est largement utilisé dans la gestion d'actifs pour comparer et étalonner les fonds et les gestionnaires d'actifs. Il calcule le rapport entre le rendement excédentaire et l'écart type de la stratégie. Cependant, les éléments permettant de calculer le ratio de Sharpe, à savoir les rendements attendus et les volatilités, sont des nombres inconnus et doivent être estimés statistiquement. Cela signifie que le ratio de Sharpe utilisé par les fonds est sujet à des erreurs en raison d'erreurs d'estimation statistique. Lo (2002), Mertens (2002) dérivent des expressions explicites pour la distribution statistique du ratio de Sharpe en utilisant la théorie asymptotique standard sous plusieurs jeux d'hypothèses (rendements indépendants normalement distribués et identiquement distribués). Dans cet article, nous fournissons la distribution exacte du ratio de Sharpe pour des rendements indépendants normalement distribués. Dans ce cas, la statistique du ratio de Sharpe est, jusqu'à un facteur de remise à l'échelle, une distribution de Student non centrée dont les caractéristiques ont été largement étudiées par les statisticiens. Le comportement asymptotique de notre distribution fournit le résultat de Lo (2002). Nous illustrons également le fait que le ratio de Sharpe empirique est asymptotiquement optimal dans le sens où il atteint la borne de Cramer Rao. Nous étudions ensuite le RS empirique sous les hypothèses AR(1) et nous examinons l'effet de la période de composition sur le Sharpe (en calculant le Sharpe annuel avec des données mensuelles par exemple). Nous fournissons enfin une formule générale dans ce cas d'hétéroscédasticité et d'autocorrélation. Classification JEL : C12, G11.
  • Sept preuves du test d'indépendance du khi-deux de Pearson et de son interprétation graphique.

    Eric BENHAMOU, Valentin MELOT
    2019
    Cet article revisite le test d'indépendance du khi-deux de Pearson. Après avoir présenté la théorie sous-jacente avec des notations modernes et montré une nouvelle façon de dériver la preuve, nous décrivons une présentation graphique innovante et intuitive de ce test. Cela permet non seulement d'interpréter visuellement le test mais aussi de mesurer à quel point nous sommes proches ou éloignés de l'acceptation ou du rejet de l'hypothèse nulle de non indépendance.
  • Omega et ratio de Sharpe.

    Eric BENHAMOU, Beatrice GUEZ, Nicolas PARIS
    SSRN Electronic Journal | 2019
    Pas de résumé disponible.
  • Sélection des caractéristiques avec l'ascension optimale des coordonnées (OCA).

    David SALTIEL, Eric BENHAMOU
    2019
    Dans l'apprentissage automatique, la sélection des caractéristiques (FS) est une partie importante d'un algorithme efficace. Elle alimente l'algorithme et constitue le bloc de départ de notre prédiction. Dans cet article, nous présentons une nouvelle méthode, appelée Optimal Coordinate Ascent (OCA), qui nous permet de sélectionner des caractéristiques parmi les caractéristiques de bloc et individuelles. L'OCA s'appuie sur l'ascension des coordonnées pour trouver une solution optimale pour le score (nombre d'échantillons correctement classés) des méthodes d'amplification par gradient. L'OCA prend en compte la notion de dépendances entre les variables formant les blocs dans notre optimisation. L'optimisation par l'ascension des coordonnées résout le problème NP hard d'origine où le nombre de combinaisons explose rapidement, rendant la recherche sur grille infaisable. Elle réduit considérablement le nombre d'itérations, transformant ce problème NP hard en un problème de recherche polynomiale. L'OCA apporte des différences et des améliorations substantielles par rapport à la méthode précédente de sélection des caractéristiques par ascension de coordonnées : nous regroupons les variables en blocs et en variables individuelles au lieu de procéder à une sélection binaire. Notre estimation initiale est basée sur les k meilleures variables du groupe, ce qui rend notre point initial plus robuste. Nous avons également introduit de nouveaux critères d'arrêt qui rendent notre optimisation plus rapide. Nous comparons ces deux méthodes sur notre ensemble de données. Nous avons constaté que notre méthode est plus performante que la méthode initiale. Nous comparons également notre méthode à la méthode Recursive Feature Elimination (RFE) et nous constatons que l'OCA conduit à l'ensemble de caractéristiques minimum avec le score le plus élevé. Il s'agit d'un sous-produit intéressant de notre méthode, car elle fournit empiriquement l'ensemble de données le plus compact avec des performances optimales.
  • BCMA-ES : Une approche bayésienne de CMA-ES.

    Eric BENHAMOU, David SALTIEL, Sebastien VEREL, Fabien TEYTAUD
    SSRN Electronic Journal | 2019
    Cet article présente une nouvelle approche théoriquement solide pour le célèbre algorithme CMA-ES. En supposant que les paramètres de la distribution normale multivariée pour le minimum suivent une distribution antérieure conjuguée, nous dérivons leur mise à jour optimale à chaque étape de l'itération. Non seulement ce cadre bayésien fournit une justification pour la mise à jour de l'algorithme CMA-ES, mais il donne également deux nouvelles versions de CMA-ES en supposant des prieurs normaux-Wishart ou normaux-Inverse Wishart, selon que nous paramétrons la vraisemblance par sa matrice de covariance ou de précision. Nous soutenons nos résultats théoriques par des expériences numériques qui montrent une convergence rapide de ces versions modifiées de CMA-ES.
  • Expansion de Gram Charlier et Edgeworth pour la variance de l'échantillon.

    Eric BENHAMOU
    SSRN Electronic Journal | 2018
    Dans cet article, nous dérivons une expansion d'Edgeworth valide pour la variance empirique corrigée de Bessel lorsque les données sont générées par un processus à fort mélange dont la distribution peut être arbitraire. La contrainte du processus à fort mélange rend le problème difficile. En effet, même pour un processus normal à fort mélange, la distribution est inconnue. Ici, nous ne supposons pas d'autre hypothèse qu'une décroissance suffisamment rapide de la distribution sous-jacente pour rendre l'expansion d'Edgeworth con-vergente. Ces résultats peuvent évidemment s'appliquer aux processus normaux à fort mélange et fournissent une alternative aux travaux de Moschopoulos (1985) et Mathai (1982). Classification par matière des mathématiques : 62E10, 62E15.
  • Sélection des caractéristiques avec l'ascension optimale des coordonnées (OCA).

    David SALTIEL, Eric BENHAMOU
    SSRN Electronic Journal | 2018
    Dans l'apprentissage automatique, la sélection des caractéristiques (FS) est une partie importante d'un algorithme efficace. Elle alimente l'algorithme et constitue le bloc de départ de notre prédiction. Dans cet article, nous présentons une nouvelle méthode, appelée Optimal Coordinate Ascent (OCA), qui nous permet de sélectionner des caractéristiques parmi les caractéristiques de bloc et individuelles. L'OCA s'appuie sur l'ascension des coordonnées pour trouver une solution optimale pour le score (nombre d'échantillons correctement classés) des méthodes d'amplification par gradient. L'OCA prend en compte la notion de dépendances entre les variables formant les blocs dans notre optimisation. L'optimisation par l'ascension des coordonnées résout le problème NP hard d'origine où le nombre de combinaisons explose rapidement, rendant la recherche sur grille infaisable. Elle réduit considérablement le nombre d'itérations, transformant ce problème NP hard en un problème de recherche polynomiale. L'OCA apporte des différences et des améliorations substantielles par rapport à la méthode précédente de sélection des caractéristiques par ascension de coordonnées : nous regroupons les variables en blocs et en variables individuelles au lieu de procéder à une sélection binaire. Notre estimation initiale est basée sur les k meilleures variables du groupe, ce qui rend notre point initial plus robuste. Nous avons également introduit de nouveaux critères d'arrêt qui rendent notre optimisation plus rapide. Nous comparons ces deux méthodes sur notre ensemble de données. Nous avons constaté que notre méthode est plus performante que la méthode initiale. Nous comparons également notre méthode à la méthode Recursive Feature Elimination (RFE) et nous constatons que l'OCA conduit à l'ensemble de caractéristiques minimum avec le score le plus élevé. Il s'agit d'un sous-produit intéressant de notre méthode, car elle fournit empiriquement l'ensemble de données le plus compact avec des performances optimales.
  • Sharpe différentiel et autres ratios de performance.

    Eric BENHAMOU, Beatrice GUEZ
    Journal of Statistical and Econometric Methods | 2018
    Nous présentons une nouvelle méthodologie de calcul de la contribution incrémentale des ratios de performance pour les portefeuilles comme les ratios de Sharpe, Treynor, Calmar ou Sterling. En utilisant le théorème de la fonction homogène d'Euler, nous sommes en mesure de décomposer ces ratios de performance en une combinaison linéaire de ratios de performance individuels modifiés. Cela permet de comprendre les moteurs de ces ratios de performance et de dériver une condition pour qu'un nouvel actif apporte une performance supplémentaire au portefeuille. Nous fournissons divers exemples numériques de cette décomposition des ratios de performance. Classification JEL : C12, G11.
  • Limite supérieure de la norme d'opérateur pour les matrices aléatoires sub-gaussiennes à queue.

    Eric BENHAMOU, Jamal ATIF, Rida LARAKI
    SSRN Electronic Journal | 2018
    Pas de résumé disponible.
  • Le filtre de Kalman démystifié : De l'intuition au modèle graphique probabiliste au cas réel sur les marchés financiers.

    Eric BENHAMOU
    SSRN Electronic Journal | 2018
    Chercheur affilié au LAMSADE (UMR CNRS 7243) et chaire QMI (Quantitative Management Initiative), Résumé : Dans cet article, nous revisitons la théorie du filtre de Kalman. Après avoir donné l'intuition sur un exemple simplifié de marchés financiers, nous revisitons les mathématiques qui la sous-tendent. Nous montrons ensuite que le filtre de Kalman peut être présenté d'une manière très différente en utilisant des modèles graphiques. Cela nous permet d'établir la connexion entre le filtre de Kalman et les modèles de Markov cachés. Nous examinons ensuite leur application sur les marchés financiers et fournissons diverses intuitions quant à leur applicabilité à des systèmes complexes tels que les marchés financiers. Bien que cet article ait été écrit comme un travail autonome reliant le filtre de Kalman aux modèles de Markov cachés et donc revisitant des résultats bien connus et établis, il contient de nouveaux résultats et apporte des contributions supplémentaires au domaine. Premièrement, en s'appuyant sur le lien entre le filtre de Kalman et les HMM, il donne de nouveaux algorithmes d'inférence pour les filtres de Kalman étendus. Deuxièmement, il présente une alternative à l'estimation traditionnelle des paramètres à l'aide de l'algorithme EM grâce à l'utilisation de l'optimisation CMA-ES. Troisièmement, il examine l'application du filtre de Kalman et de sa version des modèles de Markov cachés aux marchés financiers, en fournissant diverses hypothèses et tests de dynamique. Nous concluons en connectant l'approche du filtre de Kalman au système d'analyse technique de suivi de tendance et en montrant leurs performances supérieures pour la détection du suivi de tendance.
  • Une version discrète de CMA-ES.

    Eric BENHAMOU, Jamal ATIF, Rida LARAKI, Anne AUGER
    SSRN Electronic Journal | 2018
    Pas de résumé disponible.
  • Sélection des transactions avec apprentissage supervisé et OCA.

    David SALTIEL, Eric BENHAMOU
    SSRN Electronic Journal | 2018
    Ces dernières années, les méthodes de pointe pour l'apprentissage supervisé ont exploité de plus en plus les techniques de boosting du gradient, avec des implémentations efficaces telles que xgboost ou light-gbm. L'un des points clés de la création de méthodes efficaces est la sélection des caractéristiques (FS). Elle consiste à sélectionner les bonnes caractéristiques efficaces et précieuses. Face à des centaines de caractéristiques, il est essentiel de sélectionner les meilleures. Bien que les méthodes de filtrage et d'enveloppement aient atteint une certaine maturité, les méthodes intégrées sont vraiment nécessaires pour trouver le meilleur ensemble de caractéristiques, car il s'agit de méthodes hybrides combinant le filtrage et l'enveloppement des caractéristiques. Dans ce travail, nous nous attaquons au problème de trouver par l'apprentissage automatique les meilleurs métiers a priori d'une stratégie algo-rithmique. Nous dérivons cette nouvelle méthode en utilisant l'optimisation par ascension de coordonnées et en utilisant des variables de bloc. Nous comparons notre méthode à la méthode Recursive Feature Elimination (RFE) et à la méthode Binary Coordinate Ascent (BCA). Nous montrons sur un exemple réel la capacité de cette méthode à sélectionner de bonnes transactions a priori. Non seulement cette méthode surpasse la stratégie de trading initiale en évitant de prendre des trades perdants, mais elle surpasse également les autres méthodes, en ayant à la fois le plus petit ensemble de caractéristiques et le plus haut score. L'intérêt de cette méthode va au-delà de ce simple problème de classification des transactions car il s'agit d'une méthode très générale pour déterminer l'ensemble optimal de caractéristiques en utilisant certaines informations sur la relation entre les caractéristiques ainsi qu'en utilisant l'optimisation par ascension de coordonnées.
  • Ratios de Sharpe incrémentiels et autres ratios de performance.

    Eric BENHAMOU, Beatrice GUEZ
    SSRN Electronic Journal | 2018
    Nous présentons une nouvelle méthodologie de calcul de la contribution incrémentale des ratios de performance pour les portefeuilles comme les ratios de Sharpe, Treynor, Calmar ou Sterling. En utilisant le théorème de la fonction homogène d'Euler, nous sommes en mesure de décomposer ces ratios de performance en une combinaison linéaire de ratios de performance individuels modifiés. Cela permet de comprendre les moteurs de ces ratios de performance et de dériver une condition pour qu'un nouvel actif apporte une performance supplémentaire au portefeuille. Nous fournissons divers exemples numériques de cette décomposition des ratios de performance. Classification JEL : C12, G11.
  • Quelques propriétés de la variance d'un échantillon.

    Eric BENHAMOU
    SSRN Electronic Journal | 2018
    Un résultat fondamental est que la variance d'échantillon pour des observations i.i.d. est un estimateur sans biais de la variance de la distribution sous-jacente (voir par exemple Casella et Berger (2002)). Un autre résultat est que la variance de la variance de l'échantillon est minimale par rapport à tout autre estimateur sans biais (voir Halmos (1946)). Mais que se passe-t-il si les observations ne sont ni indépendantes ni identiquement distribuées. Que pouvons-nous dire ? Pouvons-nous en particulier calculer explicitement les deux premiers moments de la moyenne de l'échantillon et donc généraliser les formules fournies dans Tukey (1957a), Tukey (1957b) pour les deux premiers moments de la variance de l'échantillon ? Nous savons également que la moyenne et la variance de l'échantillon sont indépendantes si elles sont calculées sur une distribution normale i.i.d.. C'est l'une des hypothèses sous-jacentes à la distribution de Student alias W. S. Gosset (1908). Mais ce résultat est-il valable pour toute autre distribution sous-jacente ? Peut-on encore avoir une moyenne et une variance d'échantillon indépendantes si la distribution n'est pas normale ? Cet article répond précisément à ces questions et étend les travaux précédents de Cho, Cho et Eltinge (2004). Nous sommes en mesure de dériver une formule générale pour les deux premiers moments et la variance de la variance d'échantillon sans hypothèses spécifiques. Nous fournissons également une preuve plus rapide d'un résultat fondamental de Lukacs (1942) en utilisant la fonction caractéristique logarithmique de l'estimateur sans biais de la variance d'échantillon.
  • Relier le ratio de Sharpe et la statistique T de Student, et au-delà.

    Eric BENHAMOU
    SSRN Electronic Journal | 2018
    Le ratio de Sharpe est largement utilisé dans la gestion d'actifs pour comparer et étalonner les fonds et les gestionnaires d'actifs. Il calcule le rapport entre le rendement excédentaire et l'écart type de la stratégie. Cependant, les éléments permettant de calculer le ratio de Sharpe, à savoir les rendements attendus et les volatilités, sont des nombres inconnus et doivent être estimés statistiquement. Cela signifie que le ratio de Sharpe utilisé par les fonds est sujet à des erreurs en raison d'erreurs d'estimation statistique. Lo (2002), Mertens (2002) dérivent des expressions explicites pour la distribution statistique du ratio de Sharpe en utilisant la théorie asymptotique standard sous plusieurs jeux d'hypothèses (rendements indépendants normalement distribués et identiquement distribués). Dans cet article, nous fournissons la distribution exacte du ratio de Sharpe pour des rendements indépendants normalement distribués. Dans ce cas, la statistique du ratio de Sharpe est, jusqu'à un facteur de remise à l'échelle, une distribution de Student non centrée dont les caractéristiques ont été largement étudiées par les statisticiens. Le comportement asymptotique de notre distribution fournit le résultat de Lo (2002). Nous illustrons également le fait que le ratio de Sharpe empirique est asymptotiquement optimal dans le sens où il atteint la borne de Cramer Rao. Nous étudions ensuite le RS empirique sous les hypothèses AR(1) et nous examinons l'effet de la période de composition sur le Sharpe (en calculant le Sharpe annuel avec des données mensuelles par exemple). Nous fournissons enfin une formule générale dans ce cas d'hétéroscédasticité et d'autocorrélation. Classification JEL : C12, G11.
  • Sept preuves du test d'indépendance du khi-carré de Pearson et de son interprétation graphique.

    Eric BENHAMOU, Valentin MELOT
    SSRN Electronic Journal | 2018
    Cet article revisite le test d'indépendance du khi-deux de Pearson. Après avoir présenté la théorie sous-jacente avec des notations modernes et montré une nouvelle façon de dériver la preuve, nous décrivons une présentation graphique innovante et intuitive de ce test. Cela permet non seulement d'interpréter visuellement le test mais aussi de mesurer à quel point nous sommes proches ou éloignés de l'acceptation ou du rejet de l'hypothèse nulle de non indépendance.
  • Trois propriétés remarquables de la distribution normale pour la variance des échantillons.

    Eric BENHAMOU, Nicolas PARIS, Beatrice GUEZ
    Theoretical Mathematics & Applications | 2018
    Dans cet article, nous présentons trois propriétés remarquables de la distribution normale : Nous présentons trois propriétés remarquables de la distribution normale : premièrement, si la somme de deux variables indépendantes est normalement distribuée, alors chaque variable aléatoire suit une distribution normale (appelée théorème de Levy Cramer), deuxièmement, une variation du théorème de Levy Cramer (nouvelle à notre connaissance) qui stipule que deux variables aléatoires symétriques indépendantes avec une variance finie, une somme et une différence indépendantes sont nécessairement normales, et troisièmement, la distribution normale peut être caractérisée par le fait que c'est la seule distribution pour laquelle la moyenne et la variance de l'échantillon sont indépendantes, ce qui est une propriété centrale pour dériver la distribution de Student, appelée théorème de Geary. La nouveauté de cet article est double. Premièrement, nous fournissons une extension du théorème de Levy Cramer. Deuxièmement, pour les deux théorèmes séminaux (le théorème de Levy Cramer et le théorème de Geary), nous fournissons de nouvelles preuves, plus rapides ou autonomes. Classification par matière des mathématiques : 62E10, 62E15.
  • Expansion de Gram Charlier et Edgeworth pour la variance de l'échantillon.

    Eric BENHAMOU
    Theoretical Mathematics and Applications | 2018
    Dans cet article, nous dérivons une expansion d'Edgeworth valide pour la variance empirique corrigée de Bessel lorsque les données sont générées par un processus à fort mélange dont la distribution peut être arbitraire. La contrainte du processus à fort mélange rend le problème difficile. En effet, même pour un processus normal à fort mélange, la distribution est inconnue. Ici, nous ne supposons pas d'autre hypothèse qu'une décroissance suffisamment rapide de la distribution sous-jacente pour rendre l'expansion d'Edgeworth convergente. Ces résultats peuvent évidemment s'appliquer aux processus normaux à fort mélange et fournissent une alternative aux travaux de Moschopoulos (1985) et Mathai (1982).
  • Trois propriétés remarquables de la distribution normale pour une variance simple.

    Eric BENHAMOU, Beatrice GUEZ, Nicolas PARIS
    Theoretical Mathematics and Applications | 2018
    Dans cet article, nous présentons trois propriétés remarquables de la distribution normale : Nous présentons trois propriétés remarquables de la distribution normale : premièrement, si la somme de deux variables indépendantes est normalement distribuée, alors chaque variable aléatoire suit une distribution normale (appelée théorème de Levy Cramer), deuxièmement, une variation du théorème de Levy Cramer (nouvelle à notre connaissance) qui stipule que deux variables aléatoires symétriques indépendantes avec une variance finie, une somme et une différence indépendantes sont nécessairement normales, et troisièmement, la distribution normale peut être caractérisée par le fait que c'est la seule distribution pour laquelle la moyenne et la variance de l'échantillon sont indépendantes, ce qui est une propriété centrale pour dériver la distribution de Student, appelée théorème de Geary. La nouveauté de cet article est double. Premièrement, nous fournissons une extension du théorème de Levy Cramer. Deuxièmement, pour les deux théorèmes séminaux (le théorème de Levy Cramer et le théorème de Geary), nous fournissons de nouvelles preuves, plus rapides ou autonomes.
  • Trois propriétés remarquables de la distribution normale.

    Eric BENHAMOU, Beatrice GUEZ, Nicolas PARIS
    SSRN Electronic Journal | 2018
    Pas de résumé disponible.
  • Statistique T pour le processus autorégressif.

    Eric BENHAMOU
    SSRN Electronic Journal | 2018
    Dans cet article, nous discutons de la distribution de la statistique t sous l'hypothèse d'une distribution normale autorégressive pour le processus en temps discret sous-jacent. Ce résultat généralise le résultat classique de la distribution t traditionnelle lorsque le processus en temps discret sous-jacent suit une distribution normale non corrélée. Cependant, pour AR(1), le processus sous-jacent est corrélé. Tous les résultats traditionnels s'effondrent et la statistique t qui en résulte est une nouvelle distribution qui converge asymptotement vers une normale. Nous donnons une formule explicite pour cette nouvelle distribution obtenue comme le rapport de deux distributions dépendantes (une normale et la distribution de la norme d'une autre distribution normale indépendante). Nous fournissons également une statistique modifiée qui suit une distribution t non centrale. Sa dérivation provient de la recherche d'une base orthogonale pour la matrice de covariance initiale circulante Toeplitz. Nos résultats sont cohérents avec la distribution asymptotique de la statistique t dérivée pour le cas asymptotique d'un grand nombre d'observations ou d'une corrélation nulle. La découverte exacte de cette distribution a des applications dans de nombreux domaines et fournit en particulier un moyen de dériver la distribution exacte du ratio de Sharpe sous des hypothèses normales AR(1).
  • Une tendance sans accroc - une approche par filtre de Kalman.

    Eric BENHAMOU
    SSRN Electronic Journal | 2016
    Pas de résumé disponible.
  • Développement stochastique et formules fermées de prix pour les options européennes.

    Mohammed MIRI, Emmanuel GOBET, Eric BENHAMOU, Nicole EL KAROUI, Philippe BRIAND, Etienne KOEHLER, Jean pierre FOUQUE, Denis TALAY
    2009
    Cette thèse développe une nouvelle méthodologie permettant d'établir des approximations analytiques pour les prix des options européennes. Notre approche combine astucieusement des développements stochastiques et le calcul de Malliavin afin d'obtenir des formules explicites et des évaluations d'erreur précises. L'intérêt de ces formules réside dans leur temps de calcul qui est aussi rapide que celui de la formule de Black et Scholes. Notre motivation vient du besoin croissant de calculs et de procédures de calibration en temps réel, tout en contrôlant les erreurs numériques reliées aux paramètres du modèle. On traite ainsi quatre catégories de modèles, en réalisant des paramétrisations spécifiques pour chaque modèle afin de mieux cibler le bon modèle proxy et obtenir ainsi des termes correctifs faciles à évaluer. Les quatre parties traitées sont : les diffusions avec sauts, les volatilités locales ou modèles à la Dupire, les volatilités stochastiques et finalement les modèles hybrides (taux-action). Il faut signaler aussi que notre erreur d'approximation est exprimée en fonction de tous les paramètres du modèle en question et est analysée aussi en fonction de la régularité du payoff.
Les affiliations sont détectées à partir des signatures des publications identifiées dans scanR. Un auteur peut donc apparaître affilié à plusieurs structures ou tutelles en fonction de ces signatures. Les dates affichées correspondent seulement aux dates des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr