CHALLET Damien

< Retour à ILB Patrimoine
Affiliations
  • 2012 - 2020
    Mathématiques et Informatique pour la Complexité et les Systèmes
  • 2012 - 2017
    Centre européen de recherche nucléaire
  • 2012 - 2013
    University of Fribourg
  • 2021
  • 2020
  • 2019
  • 2018
  • 2017
  • 2016
  • 2015
  • 2014
  • 2013
  • Portefeuilles réactifs à variance minimale globale avec nettoyage de la covariance par k-BAHC.

    Christian BONGIORNO, Damien CHALLET
    The European Journal of Finance | 2021
    Pas de résumé disponible.
  • Sélection de facteurs financiers avec des knockoffs : réplication de fonds, réseaux explicatifs et prédictifs.

    Damien CHALLET, Christian BONGIORNO, Guillaume PELLETIER
    2021
    Nous appliquons la procédure knockoff à la sélection de facteurs en finance. En construisant des facteurs faux mais réalistes, cette procédure permet de contrôler la fraction de fausse découverte dans un ensemble donné de facteurs. Pour montrer sa versatilité, nous l'appliquons à la réplication de fonds et à l'inférence de réseaux explicatifs et prédictifs.
  • Filtrage de la matrice de covariance avec des hiérarchies bootstrapped.

    Christian BONGIORNO, Damien CHALLET
    PLOS ONE | 2021
    Le nettoyage des matrices de covariance est un problème hautement non trivial, mais d'une importance centrale dans l'inférence statistique de la dépendance entre les objets. Nous proposons ici une méthode de regroupement hiérarchique probabiliste, appelée Bootstrapped Average Hierarchical Clustering (BAHC), qui est particulièrement efficace dans le cas de la haute dimension, c'est-à-dire lorsqu'il y a plus d'objets que de caractéristiques. Appliquée aux microréseaux d'ADN, notre méthode produit des structures hiérarchiques distinctes qui ne peuvent être prises en compte par le regroupement hiérarchique habituel. Nous utilisons ensuite la gestion globale du risque à variance minimale pour tester notre méthode et nous constatons que la méthode BAHC permet de réduire considérablement le risque réalisé par rapport aux méthodes de filtrage linéaires et non linéaires les plus récentes dans le cas de la haute dimension. La décomposition spectrale montre que la méthode BAHC capture mieux la persistance de la structure de dépendance entre les rendements des prix des actifs dans les périodes de calibration et de test.
  • Prédiction profonde de l'intérêt des investisseurs : Une approche de clustering supervisé.

    Baptiste BARREAU, Laurent CARLIER, Damien CHALLET
    Algorithmic Finance | 2021
    Nous proposons une nouvelle architecture d'apprentissage profond adaptée à la prédiction de l'intérêt des investisseurs pour un actif donné dans un laps de temps donné. Cette architecture effectue à la fois le regroupement et la modélisation des investisseurs. Nous vérifions d'abord ses performances supérieures sur un scénario simulé inspiré de données réelles, puis nous l'appliquons à une grande base de données propriétaire de BNP Paribas Corporate and Institutional Banking.
  • Crises de liquidité endogènes dans les marchés financiers.

    Antoine FOSSET, Mathieu ROSENBAUM, Michael BENZAQUEN, Peter TANKOV, Mathieu ROSENBAUM, Michael BENZAQUEN, Damien CHALLET, Fabrizio LILLO, Sophie LARUELLE, Kirone MALLICK, Jean francois MUZY, Damien CHALLET, Fabrizio LILLO
    2020
    De récentes analyses empiriques ont révélé l'existence de l'effet Zumbach. Cette découverte a conduit à l'élaboration des processus de Hawkes quadratique, adapté pour reproduire cet effet. Ce modèle ne faisant pas de lien avec le processus de formation de prix, nous l'avons étendu au carnet d'ordres avec un processus de Hawkes quadratique généralisé (GQ-Hawkes). En utilisant des données de marchés, nous avons montré qu'il existe un effet de type Zumbach qui diminue la liquidité future. Microfondant l'effet Zumbach, il est responsable d'une potentielle déstabilisation des marchés financiers. De plus, la calibration exacte d'un processus GQ-Hawkes nous indique que les marchés sont aux bords de la criticité. Ces preuves empiriques nous ont donc incité à faire une analyse d'un modèle de carnet d'ordres construit avec un couplage de type Zumbach. Nous avons donc introduit le modèle de Santa Fe quadratique et prouvé numériquement qu'il existe une transition de phase entre un marché stable et un marché instable sujet à des crises de liquidité. Grâce à une analyse de taille finie nous avons pu déterminer les exposants critiques de cette transition, appartenant à une nouvelle classe d'universalité. N'étant pas analytiquement soluble, cela nous a conduit à introduire des modèles plus simples pour décrire les crises de liquidités. En mettant de côté la microstructure du carnet d'ordres, nous obtenons une classe de modèles de spread où nous avons calculé les paramètres critiques de leurs transitions. Même si ces exposants ne sont pas ceux de la transition du Santa Fe quadratique, ces modèles ouvrent de nouveaux horizons pour explorer la dynamique de spread. L'un d'entre eux possède un couplage non-linéaire faisant apparaître un état métastable. Ce scénario alternatif élégant n'a pas besoin de paramètres critiques pour obtenir un marché instable, même si les données empiriques ne sont pas en sa faveur. Pour finir, nous avons regardé la dynamique du carnet d'ordres sous un autre angle: celui de la réaction-diffusion. Nous avons modélisé une liquidité qui se révèle dans le carnet d'ordres avec une certaine fréquence. La résolution de ce modèle à l'équilibre révèle qu'il existe une condition de stabilité sur les paramètres au-delà de laquelle le carnet d'ordres se vide totalement, correspondant à une crise de liquidité. En le calibrant sur des données de marchés nous avons pu analyser qualitativement la distance à cette région instable.
  • L'impact du marché dans le trading systématique et la fixation du prix des options.

    Emilio SAID, Frederic ABERGEL, Gilles PAGES, Mathieu ROSENBAUM, Aurelien ALFONSI, Damien CHALLET, Sophie LARUELLE, Mathieu ROSENBAUM, Aurelien ALFONSI
    2020
    L’objectif principal de cette thèse est de comprendre les divers aspects du market impact. Elle se compose de quatre chapitres dans lesquelles le market impact est étudié dans différents contextes et à différentes échelles. Le premier chapitre présente une étude empirique du market impact des ordres limites sur les marchés actions européens. Dans le deuxième chapitre, nous avons étendu la méthodologie présentée pour les marchés actions aux marchés options. Cette étude empirique a mis en évidence que notre définition d’un métaordre options nous permet de retrouver la totalité des résultats mis en évidence sur les marchés actions. Le troisième chapitre s’intéresse au market impact dans le contexte de l’évaluation des produits dérivés. Ce chapitre tente d’apporter une composante microstructure à l’évaluation des options notamment en proposant une théorie des perturbations du market impact au cours du processus de re-hedging. Nous explorons dans le quatrième chapitre un modèle assez simple pour la relaxation des métaordres. La relaxation des métaordres est traitée dans cette partie en tant que processus informationnel qui se transmet au marché. Ainsi, partant du point de départ qu’à la fin de l’exécution d’un métaordre l’information portée par celui-ci est maximale, nous proposons une interprétation du phénomène de relaxation comme étant le résultat de la dégradation de cette information au détriment du bruit extérieur du marché.
  • Apprentissage automatique pour la recommandation de produits financiers.

    Baptiste BARREAU, Damien CHALLET, Michael BENZAQUEN, Charles albert LEHALLE, Elsa NEGRE, Sarah LEMLER, Eduardo ABI JABER, Sylvain ARLOT, Charles albert LEHALLE, Elsa NEGRE
    2020
    L’anticipation des besoins des clients est cruciale pour toute entreprise — c’est particulièrement vrai des banques d’investissement telles que BNP Paribas Corporate and Institutional Banking au vu de leur rôle dans les marchés financiers. Cette thèse s’intéresse au problème de la prédiction des intérêts futurs des clients sur les marchés financiers, et met plus particulièrement l’accent sur le développement d’algorithmes ad hoc conçus pour résoudre des problématiques spécifiques au monde financier.Ce manuscrit se compose de cinq chapitres, répartis comme suit :- Le chapitre 1 expose le problème de la prédiction des intérêts futurs des clients sur les marchés financiers. Le but de ce chapitre est de fournir aux lecteurs toutes les clés nécessaires à la bonne compréhension du reste de cette thèse. Ces clés sont divisées en trois parties : une mise en lumière des jeux de données à notre disposition pour la résolution du problème de prédiction des intérêts futurs et de leurs caractéristiques, une vue d’ensemble, non exhaustive, des algorithmes pouvant être utilisés pour la résolution de ce problème, et la mise au point de métriques permettant d’évaluer la performance de ces algorithmes sur nos jeux de données. Ce chapitre se clôt sur les défis que l’on peut rencontrer lors de la conception d’algorithmes permettant de résoudre le problème de la prédiction des intérêts futurs en finance, défis qui seront, en partie, résolus dans les chapitres suivants .- Le chapitre 2 compare une partie des algorithmes introduits dans le chapitre 1 sur un jeu de données provenant de BNP Paribas CIB, et met en avant les difficultés rencontrées pour la comparaison d’algorithmes de nature différente sur un même jeu de données, ainsi que quelques pistes permettant de surmonter ces difficultés. Ce comparatif met en pratique des algorithmes de recommandation classiques uniquement envisagés d’un point de vue théorique au chapitre précédent, et permet d’acquérir une compréhension plus fine des différentes métriques introduites au chapitre 1 au travers de l’analyse des résultats de ces algorithmes .- Le chapitre 3 introduit un nouvel algorithme, Experts Network, i.e., réseau d’experts, conçu pour résoudre le problème de l’hétérogénéité de comportement des investisseurs d’un marché donné au travers d’une architecture de réseau de neurones originale, inspirée de la recherche sur les mélanges d’experts. Dans ce chapitre, cette nouvelle méthodologie est utilisée sur trois jeux de données distincts : un jeu de données synthétique, un jeu de données en libre accès, et un jeu de données provenant de BNP Paribas CIB. Ce chapitre présente aussi en plus grand détail la genèse de l’algorithme et fournit des pistes pour l’améliorer .- Le chapitre 4 introduit lui aussi un nouvel algorithme, appelé History-augmented collaborative filtering, i.e., filtrage collaboratif augmenté par historiques, qui proposes d’augmenter les approches de factorisation matricielle classiques à l’aide des historiques d’interaction des clients et produits considérés. Ce chapitre poursuit l’étude du jeu de données étudié au chapitre 2 et étend l’algorithme introduit avec de nombreuses idées. Plus précisément, ce chapitre adapte l’algorithme de façon à permettre de résoudre le problème du cold start, i.e., l’incapacité d’un système de recommandation à fournir des prédictions pour de nouveaux utilisateurs, ainsi qu’un nouveau cas d’application sur lequel cette adaptation est essayée .- Le chapitre 5 met en lumière une collection d’idées et d’algorithmes, fructueux ou non, qui ont été essayés au cours de cette thèse. Ce chapitre se clôt sur un nouvel algorithme mariant les idées des algorithmes introduits aux chapitres 3 et 4.
  • Les origines de l'extrême inégalité des richesses dans le modèle du talent contre la chance.

    Damien CHALLET, Alessandro PLUCHINO, Alessio emanuele BIONDO, Andrea RAPISARDA
    Advances in Complex Systems | 2020
    Pas de résumé disponible.
  • Portefeuilles réactifs à variance minimale globale avec nettoyage de covariance $k-$BAHC.

    Christian BONGIORNO, Damien CHALLET
    2020
    Nous présentons une version boostée au facteur $k$ de notre procédure de nettoyage par regroupement hiérarchique à moyenne boostée pour les matrices de corrélation et de covariance. Nous appliquons ensuite cette méthode à des portefeuilles à variance minimale globale pour différentes valeurs de $k$ et comparons leurs performances avec d'autres méthodes de pointe. En général, nous trouvons que notre méthode produit de meilleurs ratios de Sharpe après les coûts de transaction que les méthodes de filtrage concurrentes, bien qu'elle nécessite une rotation plus importante.
  • L'origine de la nanostructure du marché dans l'asymétrie de l'inversion temporelle des prix des actifs.

    Marcus CORDI, Damien CHALLET, Serge KASSIBRAKIS
    Quantitative Finance | 2020
    Pas de résumé disponible.
  • Filtrage de la matrice de covariance avec des hiérarchies bootstrapped.

    Christian BONGIORNO, Damien CHALLET
    2020
    Le nettoyage des matrices de covariance est un problème hautement non trivial, mais d'une importance centrale dans l'inférence statistique de la dépendance entre les objets. Nous proposons ici une méthode de regroupement hiérarchique probabiliste, appelée Bootstrapped Average Hierarchical Clustering (BAHC), qui est particulièrement efficace dans le cas de la haute dimension, c'est-à-dire lorsqu'il y a plus d'objets que de caractéristiques. Appliquée aux microréseaux d'ADN, notre méthode produit des structures hiérarchiques distinctes qui ne peuvent être prises en compte par le regroupement hiérarchique habituel. Nous utilisons ensuite la gestion globale du risque à variance minimale pour tester notre méthode et nous constatons que la méthode BAHC permet de réduire considérablement le risque réalisé par rapport aux méthodes de filtrage linéaires et non linéaires les plus récentes dans le cas de la haute dimension. La décomposition spectrale montre que la méthode BAHC capture mieux la persistance de la structure de dépendance entre les rendements des prix des actifs dans les périodes de calibration et de test.
  • Rationalité collective et sagesse fonctionnelle de la foule chez les investisseurs institutionnels loin d'être rationnels.

    Kevin PRIMICERIO, Damien CHALLET, Stanislao GUALDI
    Journal of Economic Interaction and Coordination | 2020
    Pas de résumé disponible.
  • Nouvelles perspectives et défis de l'éconophysique et de la sociophysique.

    Damien CHALLET
    New Economic Windows | 2019
    Nous rapportons les régularités statistiques des enchères d'ouverture et de clôture des actions françaises, en nous concentrant sur les propriétés diffusives du prix indicatif des enchères. Deux mécanismes sont en jeu à l'approche de la fin de l'enchère : l'ampleur du changement de prix typique diminue, favorisant la sous-diffusion, tandis que le taux de ces événements augmente, conduisant potentiellement à une sur-diffusion. Un troisième mécanisme, causé par le comportement stratégique des traders, est nécessaire pour produire des prix presque diffusifs : attendre pour soumettre des ordres d'achat jusqu'à ce que les ordres de vente aient diminué le prix indicatif et vice-versa.
  • Sur les origines de l'extrême inégalité des richesses dans le modèle Talent contre Chance.

    Damien CHALLET, Alessandro PLUCHINO, Alessio emanuele BIONDO, Andrea RAPISARDA
    2019
    Nous introduisons une version simplifiée (STvL) du modèle Talent versus Luck (TvL) où seuls les événements chanceux sont présents et vérifions que ses règles dynamiques conduisent à la même très grande inégalité de richesse que le modèle original. Nous dérivons également certaines approximations analytiques visant à capturer le mécanisme responsable de la création d'une telle inégalité de richesse à partir d'un talent distribué de manière gaussienne. Sous ces approximations, notre analyse est capable de reproduire assez bien les résultats des simulations numériques du modèle simplifié. D'autre part, elle montre également que la complexité du modèle réside dans la transformation stochastique des événements chanceux en une augmentation du capital, de sorte que, lorsque l'hétérogénéité du talent de la population augmente, la tâche de trouver une relation analytique formelle entre les distributions du capital, du talent et de la chance dans les modèles TvL ou STvL devient très difficile.
  • Prédiction profonde de l'intérêt des investisseurs : une approche de regroupement supervisé.

    Baptiste BARREAU, Laurent CARLIER, Damien CHALLET
    2019
    Nous proposons une nouvelle architecture d'apprentissage profond adaptée à la prédiction de l'intérêt des investisseurs pour un actif donné dans un laps de temps donné. Cette architecture effectue à la fois le regroupement et la modélisation des investisseurs. Nous vérifions d'abord ses performances supérieures sur un scénario simulé inspiré de données réelles, puis nous l'appliquons à une grande base de données propriétaire de BNP Paribas Corporate and Institutional Banking.
  • L'activité importante des gros négociants affaiblit la mémoire longue des marchés d'ordres limités.

    Kevin PRIMICERIO, Damien CHALLET
    2019
    En utilisant plus de 6,7 milliards de transactions, nous explorons comment la dynamique tick-by-tick des carnets d'ordres à cours limité dépend des actions agrégées des grands fonds d'investissement sur une échelle de temps beaucoup plus grande (trimestrielle). En particulier, nous constatons que la mémoire longue bien établie des signes d'ordres de marché est nettement plus faible lorsque les grands fonds d'investissement négocient de manière directionnelle et encore plus faible lorsque leur ratio de participation globale est important. Inversement, nous étudions dans quelle mesure une mémoire plus faible des signes d'ordre du marché permet de prédire qu'un actif est activement négocié par de grands fonds. Les arguments théoriques suggèrent deux mécanismes simples qui contribuent à l'effet observé : un plus grand nombre de méta-ordres actifs et une modification de la distribution de la taille des méta-ordres. Les preuves empiriques suggèrent que le nombre de méta-ordres actifs est le facteur le plus important contribuant à la perte de mémoire des signes des ordres du marché.
  • Comportement stratégique et diffusion des prix indicatifs dans les enchères de la Bourse de Paris.

    Damien CHALLET
    New Perspectives and Challenges in Econophysics and Sociophysics | 2019
    Pas de résumé disponible.
  • Régularités dynamiques des enchères d'ouverture et de clôture des actions américaines.

    Damien CHALLET, Nikita GOURIANOV
    Market Microstructure and Liquidity | 2019
    Nous étudions d'abord les propriétés statiques des enchères d'ouverture et de clôture, telles que le volume typique des enchères par rapport au volume quotidien et les distributions des valeurs des ordres. Nous montrons ensuite que le prix indicatif de l'appariement est fortement réversible en raison du déséquilibre, ce que nous lions à un comportement stratégique. Enfin, nous étudions la façon dont le prix final de l'enchère réagit à la passation des ordres, notamment en fonction des événements d'amélioration ou d'aggravation du déséquilibre. Nous constatons une grande différence entre les enchères d'ouverture et de clôture, ce qui souligne le rôle de la liquidité et de la négociation simultanée dans le carnet d'ordres pré-ouvert ou ouvert au marché.
  • Prédiction non paramétrique du signe des coefficients de matrices de corrélation à haute dimension.

    Christian BONGIORNO, Damien CHALLET
    2019
    Nous présentons une méthode permettant de prédire quels coefficients de matrice de corrélation sont susceptibles de changer de signe à l'avenir dans le régime de haute dimension, c'est-à-dire lorsque le nombre de caractéristiques est supérieur au nombre d'échantillons par caractéristique. Nous constatons que la stabilité des signes de corrélation, les relations deux par deux, dépendent des relations trois par trois inspirées de la théorie de la cohésion sociale de Heider dans ce régime. Nous appliquons notre méthode aux données historiques des actions américaines et de Hong Kong pour illustrer comment la structure des matrices de corrélation influence la stabilité du signe de ses coefficients .
  • Comportement des traders institutionnels et microstructure des marchés : une approche big data.

    Kevin PRIMICERIO, Damien CHALLET, Frederic ABERGEL, Nils BERTSCHINGER, Sophie LARUELLE, Fabio CACCIOLI, Fabrizio LILLO
    2018
    Cette thèse est composée de quatre chapitres.Le premier chapitre est une description préliminaire de la base de données Factset Ownership. Nous en donnons une description statistique et exposons quelques faits stylisés caractérisant notamment la structure du portefeuille des institutions financières et fonds d'investissement, ainsi que la capitalisation boursière des entreprises y étant recensées.Le second chapitre propose une méthode d'évaluation statistique de la similarité entre des paires de portefeuilles d'institutions financières. Une paire statistiquement significative donnant lieu à la création d'un lien de similarité entre ces deux entités, nous sommes en mesure de projeter un réseau à l'origine bi-partite (entre institutions financières et entreprises) en un réseau mono-partite (entre institutions uniquement) afin d'en étudier l'évolution de sa structure au cours du temps. En effet, d'un point de vue économique, il est suspecté que les motifs d'investissements similaires constituent un facteur de risque important de contagion financière pouvant être à l'origine de banqueroutes aux conséquences systémiques significatives.Le troisième chapitre s'intéresse aux comportements collectifs des gestionnaires de fonds d'investissement et, en particulier, à la manière dont la structure du portefeuille de ces fonds prend en compte, en moyenne, de façon optimale les frais de transaction en présence de faibles contraintes d'investissements. Ce phénomène où, dans de nombreuses situations, la médiane ou la moyenne des estimations d'un groupe de personnes est étonnamment proche de la valeur réelle, est connu sous le nom de sagesse de la foule.Le quatrième chapitre est consacré à l'étude simultanée de données de marché. Nous utilisons plus de 6.7 milliards de trades de la base de données Thomson-Reuters Tick History, et de données de portefeuille de la base FactSet Ownership. Nous étudions la dynamique tick-à-tick du carnet d'ordres ainsi que l'action aggrégée, c'est-à-dire sur une échelle de temps bien plus grande, des fonds d'investissement. Nous montrons notamment que la mémoire longue du signe des ordres au marché est bien plus courte en présence de l'action, absolue ou directionnelle, des fonds d'investissement. Réciproquement nous expliquons dans quelle mesure une action caractérisée par une mémoire faible est sujette à du trading directionnel provenant de l'action des fonds d'investissement.
  • L'origine de la nanostructure du marché dans l'asymétrie de l'inversion temporelle des prix des actifs.

    Marcus CORDI, Damien CHALLET, Serge KASSIBRAKIS
    SSRN Electronic Journal | 2018
    Nous présentons un cadre permettant de déduire les réseaux de décalage entre les états des éléments de systèmes complexes, déterminés à différentes échelles de temps. Comme ces réseaux encodent la structure causale d'un système, l'inférence des réseaux de décalage pour de nombreuses paires d'échelles de temps fournit une image globale de l'influence mutuelle entre les échelles de temps. Nous appliquons notre méthode à deux ensembles de données FX résolues par les traders et documentons une influence asymétrique forte et complexe des échelles de temps sur la structure des réseaux lead-lag. Comme on pouvait s'y attendre, cette asymétrie s'étend à l'activité des traders : pour les clients institutionnels de notre ensemble de données, l'activité passée sur des échelles de temps supérieures à 3 heures est davantage corrélée à l'activité future sur des échelles de temps plus courtes que l'inverse (effet Zumbach), tandis qu'un effet Zumbach inverse est constaté pour les échelles de temps passées inférieures à 3 heures. Les structures de causalité sont clairement dues à des comportements très différents des deux types de traders. Par conséquent, la nanostructure du marché, c'est-à-dire la dynamique du marché au niveau des traders individuels, fournit un aperçu sans précédent de la structure de causalité des marchés financiers, qui est beaucoup plus complexe qu'on ne le pensait auparavant.
  • Réseaux lead-lag statistiquement validés et prédiction des stocks sur le marché des changes.

    Damien CHALLET, Remy CHICHEPORTICHE, Mehdi LALLOUACHE, Serge KASSIBRAKIS
    Advances in Complex Systems | 2018
    Nous présentons une méthode permettant de déduire les réseaux d'avance et de retard des actions des agents dans les systèmes complexes. Ces réseaux ouvrent la voie à la prédiction des états microscopiques et macroscopiques dans de tels systèmes. Nous appliquons cette méthode aux données résolues des traders sur le marché des changes. Nous montrons que ces réseaux sont remarquablement persistants, ce qui explique pourquoi et comment la prédiction du flux d'ordres est possible à partir de données résolues par les traders. En outre, si les actions des traders dépendent des prix passés, l'évolution du prix moyen payé par les traders peut également être prévisible. En utilisant des forêts aléatoires, nous vérifions que la prédictibilité du signe du flux d'ordres et de la direction du prix moyen des transactions est forte pour les investisseurs particuliers à une échelle de temps horaire, ce qui est d'une grande pertinence pour les courtiers et les moteurs d'appariement des ordres. Enfin, nous soutenons que l'existence de réseaux de trader lead-lag explique de manière autoréférentielle pourquoi un trader donné devient actif, ce qui est en accord avec le fait que la plupart des activités de trading ont une origine endogène.
  • L'activité des gros négociants affaiblit la mémoire longue des marchés d'ordres limités.

    Kevin PRIMICERIO, Damien CHALLET
    Market Microstructure and Liquidity | 2018
    Pas de résumé disponible.
  • Tester la causalité des processus de Hawkes avec inversion du temps.

    Marcus CORDI, Damien CHALLET, Ioane muni TOKE
    Journal of Statistical Mechanics: Theory and Experiment | 2018
    Nous montrons que les processus de Hawkes univariés et multivariés symétriques ne sont que faiblement causaux : les vrais log-vraisemblances des vecteurs temporels des événements réels et inversés sont presque égaux, donc l'estimation des paramètres par maximum de vraisemblance ne dépend que faiblement de la direction de la flèche du temps. Dans des conditions idéales (synthétiques), les tests de qualité de l'ajustement paramétrique rejettent sans ambiguïté les temps d'événements inversés, ce qui implique que l'inférence de noyaux à partir de quantités symétriques dans le temps, telles que l'autocovariance du taux d'événements, ne produit que rarement des ajustements statistiquement significatifs. Enfin, nous constatons que l'ajustement des données financières avec des noyaux à plusieurs paramètres peut produire des ajustements significatifs pour les deux flèches du temps pour le même vecteur de temps d'événement, favorisant parfois la direction du temps en arrière. Cela montre qu'un ajustement significatif des processus de Hawkes à des données réelles avec des noyaux flexibles n'implique pas une flèche du temps précise, sauf si on la teste.
  • Régularités dynamiques des enchères d'ouverture et de clôture des actions américaines.

    Damien CHALLET, Nikita GOURIANOV
    Market Microstructure and Liquidity | 2018
    Nous étudions d'abord les propriétés statiques des enchères d'ouverture et de clôture, telles que le volume typique des enchères par rapport au volume quotidien et les distributions des valeurs des ordres. Nous montrons ensuite que le prix indicatif de l'appariement est fortement réversible en raison du déséquilibre, ce que nous lions à un comportement stratégique. Enfin, nous étudions la façon dont le prix final de l'enchère réagit au placement des ordres, notamment en fonction d'événements d'amélioration ou d'aggravation du déséquilibre, et nous constatons une grande différence entre les enchères d'ouverture et de clôture, ce qui souligne le rôle de la liquidité et de la négociation simultanée dans le carnet d'ordres pré-ouvert ou ouvert au marché.
  • Econophysique et sociophysique : Recent Progress and Future Directions.

    Jean philippe BOUCHAUD, Damien CHALLET, Frederic ABERGEL, Hideaki AOYAMA, Bikas k CHAKRABARTI, Anirban CHAKRABORTI, Nivedita DEO, Dhruv RAINA, Irena VODENSKA
    New Economic Windows | 2017
    Nous examinons d'abord les preuves empiriques que les prix des actifs ont connu des épisodes de grandes fluctuations et ont été inefficaces depuis au moins 200 ans. Nous passons brièvement en revue les résultats théoriques récents ainsi que les fondements neurologiques du suivi des tendances et soutenons enfin que ces propriétés des prix des actifs peuvent être attribuées à deux mécanismes fondamentaux qui n'ont pas changé depuis plusieurs siècles : une préférence innée pour le suivi des tendances et la tendance collective à exploiter autant que possible les arbitrages de prix détectables, ce qui entraîne des boucles de rétroaction déstabilisantes.
  • Les investisseurs négocient-ils trop ? Une expérience de laboratoire.

    Damien CHALLET, Jean philippe BOUCHAUD, Cars HOMMES, Domenico MASSARO, Joao DA GAMA BATISTA
    Journal of Economic Behavior & Organization | 2017
    Nous menons une expérience pour étudier l'émergence d'une activité de trading excessive et synchronisée conduisant à des krachs boursiers. Bien que l'environnement favorise clairement une stratégie d'achat et de conservation, nous observons que les sujets négocient trop, ce qui est préjudiciable à leur richesse étant donné l'impact du marché mis en œuvre (connu d'eux). Nous constatons que la préférence pour le risque conduit à des taux d'activité plus élevés et que les anticipations de prix sont totalement cohérentes avec les actions des sujets. En particulier, les sujets qui négocient essaient de faire des profits en jouant une stratégie d'achat à bas prix et de vente à prix élevé. Enfin, nous ne détectons pas de krachs provoqués par une panique collective, mais plutôt une synchronisation faible mais significative de l'activité d'achat.
  • Pourquoi les prix des actifs ont-ils si peu changé en 200 ans.

    Jean philippe BOUCHAUD, Damien CHALLET
    New Economic Windows | 2017
    Pas de résumé disponible.
  • Classement plus net des actifs à partir des durées totales de drawdown.

    Damien CHALLET
    Applied Mathematical Finance | 2017
    Nous montrons que la durée totale des drawdowns fournit un estimateur sans moment, non biaisé, efficace et robuste des ratios de Sharpe, à la fois pour les rendements de prix gaussiens et à queue lourde. Nous utilisons ensuite cette quantité pour déduire une expression analytique du biais des estimateurs du ratio de Sharpe basés sur le moment en fonction de l'exposant de queue de la distribution des rendements. L'hétérogénéité des exposants de queue à tout moment parmi les actifs implique que notre nouvelle méthode donne des classements d'actifs significativement différents de ceux des méthodes basées sur les moments, en particulier dans les périodes de grande volatilité. Ceci est pleinement confirmé en utilisant 20 ans de données historiques sur 3449 actions américaines liquides.
  • Simulation réaliste des marchés financiers : analyse des comportements du marché par le troisième mode de la science.

    Damien CHALLET
    Journal of Economic Interaction and Coordination | 2017
    Pas de résumé disponible.
  • Tester la causalité des processus de Hawkes avec l'inversion du temps.

    Marcus CORDI, Damien CHALLET, Ioane MUNI TOKE
    SSRN Electronic Journal | 2017
    Pas de résumé disponible.
  • La sagesse de la foule institutionnelle.

    Kevin PRIMICERIO, Damien CHALLET, Stanislao GUALDI
    2017
    Il est démontré que la structure moyenne du portefeuille des investisseurs institutionnels possède des propriétés qui tiennent compte des coûts de transaction de manière optimale. Cela implique que les institutions financières font preuve, sans le savoir, de rationalité collective, ou de sagesse de la foule. Les écarts individuels par rapport à la référence rationnelle sont importants, ce qui montre que la rationalité du système ne nécessite pas des individus quasi rationnels. Enfin, nous discutons de l'importance de tenir compte des contraintes lors de l'évaluation de la présence de la sagesse des foules.
  • Robustesse de la stratégie de trading optimale.

    Ahmed BEL HADJ AYED, Frederic ABERGEL, Gregoire LOEPER, Denis TALAY, Frederic ABERGEL, Gregoire LOEPER, Damien CHALLET, Huyen PHAM, Mathieu ROSENBAUM
    2016
    L’objectif principal de cette thèse est d’apporter de nouveaux résultats théoriques concernant la performance d’investissements basés sur des modèles stochastiques. Pour ce faire, nous considérons la stratégie optimale d’investissement dans le cadre d’un modèle d’actif risqué à volatilité constante et dont la tendance est un processus caché d’Ornstein Uhlenbeck. Dans le premier chapitre,nous présentons le contexte et les objectifs de cette étude. Nous présentons, également, les différentes méthodes utilisées, ainsi que les principaux résultats obtenus. Dans le second chapitre, nous nous intéressons à la faisabilité de la calibration de la tendance. Nous répondons à cette question avec des résultats analytiques et des simulations numériques. Nous clôturons ce chapitre en quantifiant également l’impact d’une erreur de calibration sur l’estimation de la tendance et nous exploitons les résultats pour détecter son signe. Dans le troisième chapitre, nous supposons que l’agent est capable de bien calibrer la tendance et nous étudions l’impact qu’a la non-observabilité de la tendance sur la performance de la stratégie optimale. Pour cela, nous considérons le cas d’une utilité logarithmique et d’une tendance observée ou non. Dans chacun des deux cas, nous explicitons la limite asymptotique de l’espérance et la variance du rendement logarithmique en fonction du ratio signal-sur-bruit et de la vitesse de retour à la moyenne de la tendance. Nous concluons cette étude en montrant que le ratio de Sharpe asymptotique de la stratégie optimale avec observations partielles ne peut dépasser 2/(3^1.5)∗100% du ratio de Sharpe asymptotique de la stratégie optimale avec informations complètes. Le quatrième chapitre étudie la robustesse de la stratégie optimale avec une erreur de calibration et compare sa performance à une stratégie d’analyse technique. Pour y parvenir, nous caractérisons, de façon analytique,l’espérance asymptotique du rendement logarithmique de chacune de ces deux stratégies. Nous montrons, grâce à nos résultats théoriques et à des simulations numériques, qu’une stratégie d’analyse technique est plus robuste que la stratégie optimale mal calibrée.
  • Etude de quelques modèles issus de la théorie des jeux en champ moyen.

    Igor SWIECICKI, Thierry GOBRON, Denis ULLMO, Jean philippe BOUCHAUD, Denis ULLMO, Pierre CARDALIAGUET, Gabriel TURINICI, Damien CHALLET, Pablo JENSEN
    2016
    La théorie des jeux en champ moyen constitue un formalisme puissant introduit récemmentpour étudier des problèmes d’optimisation stochastiques avec un grand nombre d’agents. Aprèsavoir rappelé les principes de base de cette théorie et présenté quelques cas d’applicationtypiques, on étudie en détail un modèle stylisé de séminaire, de type champ moyen. Nousdérivons une équation exacte qui permet de prédire l’heure de commencement du séminaire etanalysons différents régimes limites, dans lesquels on parvient à des expressions approchées de lasolution. Ainsi on obtient un "diagramme de phase" du problème. On aborde ensuite un modèleplus complexe de population avec des effets de groupe attractifs. Grâce à une analogie formelleavec l’équation de Schrödinger non linéaire, on met en évidence des lois d’évolutions généralespour les valeurs moyennes du problème, que le système vérifie certaines lois de conservation etl’ on développe des approximations de type variationnel. Cela nous permet de comprendre lecomportement qualitatif du problème dans le régime de fortes interactions.
  • Réseau statistiquement validé de chevauchements de portefeuilles et de risque systémique.

    Damien CHALLET, Stanislao GUALDI, Kevin PRIMICERIO, Giulio CIMINI, Riccardo DI CLEMENTE
    Scientific Reports | 2016
    La détention d'actifs communs par des institutions financières (chevauchement de portefeuilles) est aujourd'hui considérée comme un canal important de contagion financière, susceptible de déclencher des ventes à la sauvette et des pertes sévères au niveau systémique. Nous proposons une méthode pour évaluer la signification statistique du chevauchement entre des portefeuilles diversifiés de manière hétérogène, que nous utilisons pour construire un réseau validé d'institutions financières où les liens indiquent des canaux de contagion potentiels. La méthode est mise en œuvre sur une base de données historique de participations institutionnelles allant de 1999 à la fin de 2013, mais peut être appliquée à tout réseau bipartite. Nous constatons que la proportion de liens validés (c'est-à-dire de chevauchements significatifs) a augmenté régulièrement avant la crise financière de 2007-2008 et a atteint un maximum lorsque la crise s'est produite. Nous soutenons que la nature de cette mesure implique que le risque systémique lié à la liquidation des ventes à la sauvette était maximal à ce moment-là. Après une forte baisse en 2008, le risque systémique a repris sa croissance en 2009, avec une accélération notable en 2013. Nous montrons enfin que les tendances du marché ont tendance à être amplifiées dans les portefeuilles identifiés par l'algorithme, de sorte qu'il est possible d'avoir un signal informatif sur les institutions qui sont sur le point de subir (ou de profiter) des pertes (ou des gains) les plus importantes.
  • Trader Lead-Lag Networks et prédiction du flux d'ordres.

    Damien CHALLET, Rrmy CHICHEPORTICHE, Mehdi LALLOUACHE, Serge KASSIBRAKIS
    SSRN Electronic Journal | 2016
    Pas de résumé disponible.
  • Regrets, apprentissage et sagesse.

    Damien CHALLET
    The European Physical Journal Special Topics | 2016
    Cette contribution examine dans quelle mesure l'éconophysique peut contribuer à la reconstruction de la théorie économique. Elle se concentre sur l'agrégation, l'apprentissage individuel vs collectif et la sagesse fonctionnelle des foules.
  • Clustering in foreign exchange markets : price, trades and traders.

    Mehdi LALLOUACHE, Frederic ABERGEL, Damien CHALLET, Fabrizio LILLO, Frederic ABERGEL, Damien CHALLET, Fulvio BALDOVIN, Vladimir FILIMONOV, Roberto RENO
    2015
    En utilisant des données haute-fréquence inédites, cette thèse étudie trois types de regroupements (“clusters”) présents dans le marché des changes: la concentration d'ordres sur certains prix, la concentration des transactions dans le temps et l'existence de groupes d'investisseurs prenant les mêmes décisions. Nous commençons par étudier les propriétés statistiques du carnet d'ordres EBS pour les paires de devises EUR/USD et USD/JPY et l'impact d'une réduction de la taille du tick sur sa dynamique. Une grande part des ordres limites est encore placée sur les anciens prix autorisés, entraînant l'apparition de prix-barrières, où figurent les meilleures limites la plupart du temps. Cet effet de congestion se retrouve dans la forme moyenne du carnet où des pics sont présents aux distances entières. Nous montrons que cette concentration des prix est causée par les traders manuels qui se refusent d’utiliser la nouvelle résolution de prix. Les traders automatiques prennent facilement la priorité, en postant des ordres limites un tick devant les pics de volume.Nous soulevons ensuite la question de l'aptitude des processus de Hawkes à rendre compte de la dynamique du marché. Nous analysons la précision de tels processus à mesure que l'intervalle de calibration est augmenté. Différent noyaux construits à partir de sommes d'exponentielles sont systématiquement comparés. Le marché FX qui ne ferme jamais est particulièrement adapté pour notre but, car il permet d’éviter les complications dues à la fermeture nocturne des marchés actions. Nous trouvons que la modélisation est valide selon les trois tests statistiques, si un noyau à deux exponentielles est utilisé pour fitter une heure, et deux ou trois pour une journée complète. Sur de plus longues périodes la modélisation est systématiquement rejetée par les tests à cause de la non-stationnarité du processus endogène. Les échelles de temps d'auto-excitation estimées sont relativement courtes et le facteur d'endogénéité est élevé mais sous-critique autour de 0.8. La majorité des modèles à agents suppose implicitement que les agents interagissent à travers du prix des actifs et des volumes échangés. Certains utilisent explicitement un réseau d'interaction entre traders, sur lequel des rumeurs se propagent, d'autres, un réseau qui représente des groupes prenant des décisions communes. Contrairement à d'autres types de données, de tels réseaux, s'ils existent, sont nécessairement implicites, ce qui rend leur détection compliquée. Nous étudions les transactions des clients de deux fournisseur de liquidités sur plusieurs années. En supposant que les liens entre agents sont déterminés par la synchronisation de leur activité ou inactivité, nous montrons que des réseaux d'interactions existent. De plus, nous trouvons que l'activité de certains agents entraîne systématiquement l’activité d'autres agents, définissant ainsi des relations de type “lead-lag” entre les agents. Cela implique que le flux des clients est prévisible, ce que nous vérifions à l'aide d'une méthode sophistiquée d'apprentissage statistique.
  • Une approche mathématique de l'investissement boursier.

    Marouane ANANE, Frederic ABERGEL, Eric MOULINES, Frederic ABERGEL, Nicolas VAYATIS, Anirban CHAKRABORTI, Charles albert LEHALLE, Damien CHALLET, Nicolas VAYATIS, Anirban CHAKRABORTI
    2015
    Le but de cette thèse est de répondre au vrai besoin de prédire les fluctuations futures des prix d'actions. En effet, l'aléatoire régissant ces fluctuations constitue pour des acteurs de la finance, tels que les Market Maker, une des plus grandes sources de risque. Tout au long de cette étude, nous mettons en évidence la possibilité de réduire l'incertitude sur les prix futurs par l'usage des modèles mathématiques appropriés. Cette étude est rendue possible grâce à une grande base de données financières et une puissante grille de calcul mises à notre disposition par l'équipe Automatic Market Making de BNP Paribas. Dans ce document, nous présentons uniquement les résultats de la recherche concernant le trading haute fréquence. Les résultats concernant la partie basse fréquence présentent un intérêt scientifique moindre pour le monde académique et rentrent par ailleurs dans le cadre des résultats confidentiels. Ces résultats seront donc volontairement omis.Dans le premier chapitre, nous présentons le contexte et les objectifs de cette étude. Nous présentons, également, les différentes méthodes utilisées, ainsi que les principaux résultats obtenus. Dans le chapitre 2, nous nous intéressons à l'apport de la supériorité technologique en trading haute fréquence. Dans ce but, nous simulons un trader ultra rapide, omniscient, et agressif, puis nous calculons son gain total sur 3 ans. Les gains obtenus sont très modestes et reflètent l'apport limité de la technologie en trading haute fréquence. Ce résultat souligne l'intérêt primordial de la recherche et de la modélisation dans ce domaine.Dans le chapitre 3, nous étudions la prédictibilité des prix à partir des indicateurs de carnet d'ordre. Nous présentons, à l'aide des espérances conditionnelles, des preuves empiriques de dépendances statistiques entre les prix et les différents indicateurs. L'importance de ces dépendances résulte de la simplicité de la méthode, éliminant tout risque de surapprentissage des données. Nous nous intéressons, ensuite, à la combinaison des différents indicateurs par une régression linéaire et nous analysons les différents problèmes numériques et statistiques liés à cette méthode. Enfin, nous concluons que les prix sont prédictibles pour un horizon de quelques minutes et nous mettons en question l'hypothèse de l'efficience du marché.Dans le chapitre 4, nous nous intéressons au mécanisme de formation du prix à partir des arrivés des évènements dans le carnet d'ordre. Nous classifions les ordres en douze types dont nous analysons les propriétés statistiques. Nous étudions par la suite les dépendances entre ces différents types d'ordres et nous proposons un modèle de carnet d'ordre en ligne avec les observations empiriques. Enfin, nous utilisons ce modèle pour prédire les prix et nous appuyons l'hypothèse de la non-efficience des marchés, suggérée au chapitre 3.
  • L'effondrement soudain de la confiance dans les sociétés en réseau.

    Joao DA GAMA BATISTA, Jean philippe BOUCHAUD, Damien CHALLET
    The European Physical Journal B | 2015
    La confiance est un phénomène collectif et auto-réalisateur qui suggère des analogies avec les transitions de phase. Nous introduisons un modèle stylisé pour l'accumulation et l'effondrement de la confiance dans les réseaux, qui présente génériquement une transition de premier ordre. L'hypothèse de base de notre modèle est que si la confiance engendre la confiance, la panique engendre également la panique, en ce sens qu'une petite baisse de confiance peut être amplifiée et conduire finalement à une chute soudaine et catastrophique de la confiance. Nous montrons, en utilisant à la fois des simulations numériques et des arguments analytiques de champ moyen, qu'il existe des régions étendues de l'espace des paramètres où deux états d'équilibre coexistent : un réseau bien connecté où la confiance est élevée, et un réseau peu connecté où la confiance est faible. Dans ces régions de coexistence, des sauts spontanés de l'état bien connecté à l'état mal connecté peuvent se produire, correspondant à un effondrement soudain de la confiance qui n'est pas causé par une catastrophe externe majeure. Dans les grands systèmes, les crises spontanées sont remplacées par la dépendance à l'égard de l'histoire : le fait que le système se retrouve dans un état ou dans l'autre dépend essentiellement des conditions initiales. Enfin, nous documentons une nouvelle phase, dans laquelle les agents sont connectés mais méfiants.
  • Mécanique statistique de l'allocation compétitive des ressources à l'aide de modèles basés sur les agents.

    Anirban CHAKRABORTI, Damien CHALLET, Arnab CHATTERJEE, Matteo MARSILI, Yi cheng ZHANG, Bikas k. CHAKRABARTI
    Physics Reports | 2015
    Dans la plupart des situations, la demande dépasse les ressources disponibles, ce qui donne lieu à la concurrence, à l'interaction et à l'apprentissage. Dans cet article, nous passons en revue un large éventail de modèles multi-agents de compétition et les méthodes utilisées pour les comprendre analytiquement. Nous soulignons la puissance des concepts et des outils de la mécanique statistique pour comprendre et expliquer pleinement les phénomènes collectifs tels que les transitions de phase et la mémoire longue, ainsi que la correspondance entre l'hétérogénéité des agents et le désordre physique. Comme ces méthodes peuvent être appliquées à tout modèle à grande échelle composé d'agents adaptatifs hétérogènes avec une interaction non linéaire, elles fournissent un paradigme unificateur prospectif pour de nombreuses disciplines scientifiques.
  • Les limites de la signification statistique des processus de Hawkes adaptés aux données financières.

    Mehdi LALLOUACHE, Damien CHALLET
    Quantitative Finance | 2015
    De nombreux ajustements des processus de Hawkes aux données financières semblent plutôt bons, mais la plupart d'entre eux ne sont pas statistiquement significatifs. Cela soulève la question de savoir quelle partie de la dynamique du marché ce modèle est capable de prendre en compte exactement. Nous documentons la précision de ces processus lorsque l'on fait varier l'intervalle de temps de calibration et nous comparons les performances de différents types de noyaux constitués de sommes d'exponentielles. En raison de leur ouverture 24 heures sur 24, les marchés des changes sont parfaitement adaptés à notre objectif, car ils nous permettent d'éviter les complications liées aux longues fermetures quotidiennes de nuit des marchés des actions. On peut atteindre la signification statistique selon trois tests simultanés à condition d'utiliser des noyaux avec deux exponentielles pour l'ajustement d'une heure à la fois, et deux ou trois exponentielles pour des journées complètes, alors que des périodes plus longues n'ont pas pu être ajustées de manière statistiquement satisfaisante en raison de la non-stationnarité du processus endogène. Les échelles de temps ajustées sont relativement courtes et le facteur d'endogénéité est élevé mais sous-critique à environ 0,8.
  • Les données de Google Trend sont-elles plus prévisibles que les retours de prix ?

    Damien CHALLET, Ahmed bel hadj AYED
    Journal of Investment Strategies | 2015
    En utilisant des méthodes d'apprentissage automatique non linéaires et une procédure de backtest appropriée, nous examinons de manière critique l'affirmation selon laquelle Google Trends peut prédire les rendements futurs des prix. Nous passons d'abord en revue les nombreux biais potentiels qui peuvent influencer positivement les backtests avec ce type de données, le choix des mots-clés étant de loin le plus grand coupable. Nous soutenons ensuite que la vraie question est de savoir si ces données contiennent plus de prévisibilité que les rendements des prix eux-mêmes : notre backtest donne une performance d'environ 17bps par semaine qui ne dépend que faiblement du type de données sur lesquelles les prédicteurs sont basés, c'est-à-dire soit les rendements des prix passés, soit les données de Google Trends, soit les deux.
  • Les données de Google Trends sont-elles plus prévisibles que les rendements des prix ?

    Damien CHALLET, Ahmed BEL HADJ AYED
    The Journal of Investment Strategies | 2015
    À l'aide de méthodes d'apprentissage automatique non linéaires et d'une procédure de backtest appropriée, nous examinons de manière critique l'affirmation selon laquelle Google Trends peut prédire les rendements futurs des cours. Nous passons d'abord en revue les nombreux biais potentiels qui peuvent influencer positivement les backtests avec ce type de données, le choix des mots-clés étant de loin le plus grand coupable. Nous soutenons ensuite que la vraie question est de savoir si ces données contiennent plus de prévisibilité que les rendements des prix eux-mêmes : notre backtest donne une performance d'environ 17bps par semaine qui ne dépend que faiblement du type de données sur lesquelles les prédicteurs sont basés, c'est-à-dire soit les rendements des prix passés, soit les données de Google Trends, soit les deux.
  • Tests non paramétriques à un et deux échantillons pour le rapport signal/bruit basé sur les statistiques d'enregistrement.

    Damien CHALLET
    2015
    Une nouvelle famille de statistiques non paramétriques, les r-statistiques, est introduite. Elle consiste à compter le nombre d'enregistrements de la somme cumulée de l'échantillon. La statistique r à échantillon unique est presque aussi puissante que la statistique t de Student pour les variables gaussiennes et uniformément distribuées, et plus puissante que les statistiques du signe et du rang signé de Wilcoxon tant que les données ne sont pas trop lourdes. Trois statistiques r paramétriques à deux échantillons sont proposées, l'une ayant une spécificité plus élevée mais une sensibilité plus faible que le test U de Mann-Whitney et l'autre une sensibilité plus élevée mais une spécificité plus faible. Une statistique r non paramétrique à deux échantillons est introduite, dont la puissance est très proche de celle de la statistique de Welch pour les variables gaussiennes ou uniformément distribuées.
  • MMCS, Modélisation mathématique des systèmes complexes.

    Frederic ABERGEL, Marc AIGUIER, Damien CHALLET, Paul henry COURNEDE, Gilles FAY, Pauline GODILLON LAFITTE
    Mathematical modelling of complex systems | 2014
    Pas de résumé disponible.
  • Les systèmes complexes.

    Johannes BERG, Ludovic BERTHIER, Damien CHALLET, Daniel s. FISHER, Sara FRANCESCHELLI, Irene GIARDINA, Alan KIRMAN, Satya MAJUMDAR, Remi MONASSON, Andrea MONTANARI, Rudiger URBANKE, Mark e. j. NEWMAN, Giorgio PARISI, James p. SETHNA, Cristina TONINELLI, Lenka ZDEBOROVA, Jean philippe BOUCHAUD, Marc MEZARD, Jean DALIBARD
    2014
    Pas de résumé disponible.
  • Ajustements statistiquement significatifs des processus de Hawkes aux données financières.

    Mehdi LALLOUACHE, Damien CHALLET
    SSRN Electronic Journal | 2014
    Pas de résumé disponible.
  • Les données de tendance de Google sont-elles plus prévisibles que les retours de prix ?

    Damien CHALLET, Ahmed BEL HADJ AYED
    SSRN Electronic Journal | 2014
    En utilisant des méthodes d'apprentissage automatique non linéaires et une procédure de backtest appropriée, nous examinons de manière critique l'affirmation selon laquelle Google Trends peut prédire les rendements futurs des prix. Nous passons d'abord en revue les nombreux biais potentiels qui peuvent influencer positivement les backtests avec ce type de données, le choix des mots-clés étant de loin le plus grand coupable. Nous soutenons ensuite que la vraie question est de savoir si ces données contiennent plus de prévisibilité que les rendements des prix eux-mêmes : notre backtest donne une performance d'environ 17bps par semaine qui ne dépend que faiblement du type de données sur lesquelles les prédicteurs sont basés, c'est-à-dire soit les rendements des prix passés, soit les données de Google Trends, soit les deux.
  • Une mesure robuste du comportement anticonformiste de l'investisseur.

    Damien CHALLET, David MORTON DE LACHAPELLE
    New Economic Windows | 2013
    En utilisant l'historique des transactions de tous les clients d'un courtier en ligne, nous analysons les flux d'investissement quotidiens agrégés des investisseurs individuels, des entreprises et des gestionnaires d'actifs. Le calcul de la probabilité que les rendements des prix et les flux d'investissement quotidiens aient le même signe fournit une caractérisation robuste du comportement contrariant. Les trois catégories se révèlent être contrariantes, mais avec des intensités très différentes. Les investisseurs individuels sont de loin les plus contrariants des trois catégories, suivis par les entreprises. Les gestionnaires d'actifs ne sont que légèrement contrariants en ce qui concerne les rendements positifs des prix.
  • Précision de la prédiction et manque de rigueur des fonctions log-périodiques.

    David s. BREE, Damien CHALLET, Pier paolo PEIRANO
    Quantitative Finance | 2013
    Pas de résumé disponible.
  • Prédire les marchés financiers à l'aide de Google Trends et de mots-clés pas si aléatoires.

    Damien CHALLET, Ahmed BEL HADJ AYED
    SSRN Electronic Journal | 2013
    Pas de résumé disponible.
  • Prédire les marchés financiers avec Google Trends et des mots-clés pas si aléatoires.

    Damien CHALLET, Ahmed BEL HADJ AYED
    2013
    Nous vérifions les affirmations selon lesquelles les données issues de Google Trends contiennent suffisamment de données pour prédire les futurs rendements des indices financiers. Nous discutons d'abord des nombreux biais subtils (et moins subtils) qui peuvent affecter le backtest d'une stratégie de trading, en particulier lorsqu'elle est basée sur de telles données. Comme on pouvait s'y attendre, le choix des mots-clés est crucial : en utilisant un système de backtesting de qualité industrielle, nous vérifions que les mots-clés aléatoires liés à la finance ne contiennent pas plus d'informations prédictives exploitables que les mots-clés aléatoires liés aux maladies, aux voitures classiques et aux jeux d'arcade. Nous montrons toutefois que d'autres mots-clés appliqués à des actifs appropriés donnent lieu à des stratégies solidement rentables, confirmant ainsi l'intuition de Preis et al. (2013).
Les affiliations sont détectées à partir des signatures des publications identifiées dans scanR. Un auteur peut donc apparaître affilié à plusieurs structures ou tutelles en fonction de ces signatures. Les dates affichées correspondent seulement aux dates des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr