LEHALLE Charles Albert

< Retour à ILB Patrimoine
Affiliations
  • 2012 - 2020
    Imperial College London
  • 2014 - 2019
    Capital fund management
  • 2004 - 2005
    Université Paris 6 Pierre et Marie Curie
  • 2020
  • 2019
  • 2018
  • 2017
  • 2016
  • 2015
  • 2014
  • 2013
  • 2005
  • Modélisation des coûts de transaction lorsque les transactions peuvent être encombrées : un réseau bayésien utilisant un déséquilibre des ordres partiellement observable.

    Marie BRIERE, Charles albert LEHALLE, Tamara NEFEDOVA, Amine RABOUN
    Machine Learning for Asset Management | 2020
    En utilisant une large base de données des transactions des investisseurs institutionnels américains sur le marché des actions, cet article explore l'effet des exécutions simultanées sur les coûts de transaction. Nous concevons un réseau bayésien modélisant les interdépendances entre les coûts de transaction des investisseurs, les caractéristiques des actions (écart entre les cours acheteur et vendeur, rotation et volatilité), les attributs des méta-ordres (côté et taille de la transaction) et la pression du marché pendant l'exécution, mesurée par le déséquilibre du flux d'ordres net des méta-ordres des investisseurs. Contrairement aux algorithmes d'apprentissage automatique standard, les réseaux bayésiens sont capables de tenir compte des interdépendances explicites entre les variables. Ils s'avèrent également robustes aux valeurs manquantes, car ils sont capables de rétablir leur valeur la plus probable compte tenu de l'état du monde. Le déséquilibre du flux d'ordres n'étant que partiellement observable (sur un sous-ensemble de transactions ou avec un délai), nous montrons comment concevoir un réseau bayésien pour déduire sa distribution et comment utiliser cette information pour estimer les coûts de transaction. Notre modèle fournit de meilleures prévisions que les modèles standard (MCO). L'erreur de prévision est plus faible et diminue avec la taille des ordres des investisseurs, car les ordres importants sont plus informatifs sur le déséquilibre du flux d'ordres agrégé (le R2 augmente hors échantillon de -0,17% à 2,39% pour le décile le plus petit au plus grand de la taille des ordres). Enfin, nous montrons que la précision des prévisions des coûts de transaction dépend fortement de la volatilité des actions, avec un coefficient de 0,78.
  • Apprentissage automatique pour la recommandation de produits financiers.

    Baptiste BARREAU, Damien CHALLET, Michael BENZAQUEN, Charles albert LEHALLE, Elsa NEGRE, Sarah LEMLER, Eduardo ABI JABER, Sylvain ARLOT, Charles albert LEHALLE, Elsa NEGRE
    2020
    L’anticipation des besoins des clients est cruciale pour toute entreprise — c’est particulièrement vrai des banques d’investissement telles que BNP Paribas Corporate and Institutional Banking au vu de leur rôle dans les marchés financiers. Cette thèse s’intéresse au problème de la prédiction des intérêts futurs des clients sur les marchés financiers, et met plus particulièrement l’accent sur le développement d’algorithmes ad hoc conçus pour résoudre des problématiques spécifiques au monde financier.Ce manuscrit se compose de cinq chapitres, répartis comme suit :- Le chapitre 1 expose le problème de la prédiction des intérêts futurs des clients sur les marchés financiers. Le but de ce chapitre est de fournir aux lecteurs toutes les clés nécessaires à la bonne compréhension du reste de cette thèse. Ces clés sont divisées en trois parties : une mise en lumière des jeux de données à notre disposition pour la résolution du problème de prédiction des intérêts futurs et de leurs caractéristiques, une vue d’ensemble, non exhaustive, des algorithmes pouvant être utilisés pour la résolution de ce problème, et la mise au point de métriques permettant d’évaluer la performance de ces algorithmes sur nos jeux de données. Ce chapitre se clôt sur les défis que l’on peut rencontrer lors de la conception d’algorithmes permettant de résoudre le problème de la prédiction des intérêts futurs en finance, défis qui seront, en partie, résolus dans les chapitres suivants .- Le chapitre 2 compare une partie des algorithmes introduits dans le chapitre 1 sur un jeu de données provenant de BNP Paribas CIB, et met en avant les difficultés rencontrées pour la comparaison d’algorithmes de nature différente sur un même jeu de données, ainsi que quelques pistes permettant de surmonter ces difficultés. Ce comparatif met en pratique des algorithmes de recommandation classiques uniquement envisagés d’un point de vue théorique au chapitre précédent, et permet d’acquérir une compréhension plus fine des différentes métriques introduites au chapitre 1 au travers de l’analyse des résultats de ces algorithmes .- Le chapitre 3 introduit un nouvel algorithme, Experts Network, i.e., réseau d’experts, conçu pour résoudre le problème de l’hétérogénéité de comportement des investisseurs d’un marché donné au travers d’une architecture de réseau de neurones originale, inspirée de la recherche sur les mélanges d’experts. Dans ce chapitre, cette nouvelle méthodologie est utilisée sur trois jeux de données distincts : un jeu de données synthétique, un jeu de données en libre accès, et un jeu de données provenant de BNP Paribas CIB. Ce chapitre présente aussi en plus grand détail la genèse de l’algorithme et fournit des pistes pour l’améliorer .- Le chapitre 4 introduit lui aussi un nouvel algorithme, appelé History-augmented collaborative filtering, i.e., filtrage collaboratif augmenté par historiques, qui proposes d’augmenter les approches de factorisation matricielle classiques à l’aide des historiques d’interaction des clients et produits considérés. Ce chapitre poursuit l’étude du jeu de données étudié au chapitre 2 et étend l’algorithme introduit avec de nombreuses idées. Plus précisément, ce chapitre adapte l’algorithme de façon à permettre de résoudre le problème du cold start, i.e., l’incapacité d’un système de recommandation à fournir des prédictions pour de nouveaux utilisateurs, ainsi qu’un nouveau cas d’application sur lequel cette adaptation est essayée .- Le chapitre 5 met en lumière une collection d’idées et d’algorithmes, fructueux ou non, qui ont été essayés au cours de cette thèse. Ce chapitre se clôt sur un nouvel algorithme mariant les idées des algorithmes introduits aux chapitres 3 et 4.
  • Méthodes numériques et apprentissage profond pour les problèmes de contrôle stochastique et les équations aux dérivées partielles.

    Come HURE, Huyen PHAM, Frederic ABERGEL, Gilles PAGES, Huyen PHAM, Frederic ABERGEL, Gilles PAGES, Romuald ELIE, John g. m. SCHOENMAKERS, Charles albert LEHALLE, Emmanuel GOBET, Jean francois CHASSAGNEUX, Romuald ELIE, John g. m. SCHOENMAKERS
    2019
    La thèse porte sur les schémas numériques pour les problèmes de décisions Markoviennes (MDPs), les équations aux dérivées partielles (EDPs), les équations différentielles stochastiques rétrogrades (ED- SRs), ainsi que les équations différentielles stochastiques rétrogrades réfléchies (EDSRs réfléchies). La thèse se divise en trois parties.La première partie porte sur des méthodes numériques pour résoudre les MDPs, à base de quan- tification et de régression locale ou globale. Un problème de market-making est proposé: il est résolu théoriquement en le réécrivant comme un MDP. et numériquement en utilisant le nouvel algorithme. Dans un second temps, une méthode de Markovian embedding est proposée pour réduire des prob- lèmes de type McKean-Vlasov avec information partielle à des MDPs. Cette méthode est mise en œuvre sur trois différents problèmes de type McKean-Vlasov avec information partielle, qui sont par la suite numériquement résolus en utilisant des méthodes numériques à base de régression et de quantification.Dans la seconde partie, on propose de nouveaux algorithmes pour résoudre les MDPs en grande dimension. Ces derniers reposent sur les réseaux de neurones, qui ont prouvé en pratique être les meilleurs pour apprendre des fonctions en grande dimension. La consistance des algorithmes proposés est prouvée, et ces derniers sont testés sur de nombreux problèmes de contrôle stochastique, ce qui permet d’illustrer leurs performances.Dans la troisième partie, on s’intéresse à des méthodes basées sur les réseaux de neurones pour résoudre les EDPs, EDSRs et EDSRs réfléchies. La convergence des algorithmes proposés est prouvée. et ces derniers sont comparés à d’autres algorithmes récents de la littérature sur quelques exemples, ce qui permet d’illustrer leurs très bonnes performances.
  • High-frequency trading : statistical analysis, modelling and regulation.

    Pamela SALIBA, Mathieu ROSENBAUM, Nicole EL KAROUI, Mathieu ROSENBAUM, Jean philippe BOUCHAUD, Alain CHABOUD, Olivier GUEANT, Frederic ABERGEL, Alexandra GIVRY, Charles albert LEHALLE, Jean philippe BOUCHAUD, Fabrizio LILLO, Alain CHABOUD
    2019
    Cette thèse est constituée de deux parties liées l’une à l’autre. Dans la première, nous étudions empiriquement le comportement des traders haute fréquence sur les marchés financiers européens. Nous utilisons les résultats obtenus afin de construire dans la seconde partie de nouveaux modèles multi-agents. L’objectif principal de ces modèles est de fournir aux régulateurs et plateformes de négociation des outils innovants leur permettant de mettre en place des règles pertinentes pour la microstructure et de quantifier l’impact des divers participants sur la qualité du marché.Dans la première partie, nous effectuons deux études empiriques sur des données uniques fournies par le régulateur français. Nous avons accès à l’ensemble des ordres et transactions des actifs du CAC 40, à l’échelle de la microseconde, avec par ailleurs les identités des acteurs impliqués. Nous commençons par comparer le comportement des traders haute fréquence à celui des autres intervenants, notamment pendant les périodes de stress, en termes de provision de liquidité et d’activité de négociation. Nous approfondissons ensuite notre analyse en nous focalisant sur les ordres consommant la liquidité. Nous étudions leur impact sur le processus de formation des prix et leur contenu informationnel selon les différentes catégories de flux : traders haute fréquence, participants agissant pour compte client et participants agissant pour compte propre.Dans la seconde partie, nous proposons trois modèles multi-agents. À l’aide d’une approche à la Glosten-Milgrom, nous parvenons avec notre premier modèle à construire l’ensemble du carnet d’ordres (spread et volume disponible à chaque prix) à partir des interactions entre trois types d’agents : un agent informé, un agent non informé et des teneurs de marché. Ce modèle nous permet par ailleurs de développer une méthodologie de prédiction du spread en cas de modification du pas de cotation et de quantifier la valeur de la priorité dans la file d’attente. Afin de se concentrer sur une échelle individuelle, nous proposons une deuxième approche où les dynamiques spécifiques des agents sont modélisées par des processus de type Hawkes non linéaires et dépendants de l’état du carnet d’ordres. Dans ce cadre, nous sommes en mesure de calculer en fonction des flux individuels plusieurs indicateurs pertinents relatifs à la microstructure. Il est notamment possible de classer les teneurs de marché selon leur contribution propre à la volatilité. Enfin, nous introduisons un modèle où les fournisseurs de liquidité optimisent leurs meilleurs prix à l’achat et à la vente en fonction du profit qu’ils peuvent générer et du risque d’inventaire auquel ils sont confrontés. Nous mettons alors en évidence théoriquement et empiriquement une nouvelle relation importante entre inventaire et volatilité.
  • Stock Market Liquidity and the Trading Costs of Asset Pricing Anomalies.

    Marie BRIERE, Charles albert LEHALLE, Tamara NEFEDOVA, Amine RABOUN
    2019
    En utilisant une large base de données des transactions des investisseurs institutionnels américains, ce papier revisite la question des coûts de transaction des portefeuilles basés sur les anomalies. Les coûts réels payés par les grands investisseurs pour mettre en œuvre les anomalies bien identifiées de taille, de valeur et de momentum sont inférieurs à ce qui a été documenté dans les études précédentes. Nous constatons que l'investisseur moyen paie un coût de transaction annuel de 17 pb pour la taille, 24 pb pour la valeur et 274 pb pour le momentum. Les trois stratégies génèrent des rendements statistiquement significatifs de respectivement 5,21%, 2,79% et 2,77% après prise en compte des coûts de transaction. Lorsque l'impact du marché est pris en compte, les coûts de transaction réduisent considérablement la rentabilité des anomalies bien connues pour les grands portefeuilles, cependant, ces anomalies restent rentables pour les portefeuilles de taille moyenne. Les seuils de rentabilité en termes de taille de fonds sont de 206 milliards de dollars pour la taille, 16,1 milliards de dollars pour la valeur et 310 millions de dollars pour le momentum.
  • Le trading optimal grâce aux signaux.

    Hadrien DE MARCH, Charles albert LEHALLE
    2019
    Dans cet article, nous proposons un cadre mathématique pour traiter l'incertitude qui émerge lorsque le concepteur d'un algorithme de trading utilise un seuil sur un signal comme contrôle. Nous nous appuyons sur un théorème de Benveniste et Priouret pour déduire notre théorème de comportement asymptotique de l'inventaire (IAB) donnant la distribution complète de l'inventaire à tout moment pour une version continue en temps bien formulée de l'algorithme de trading. Ensuite, nous montrons comment contrôler cette incertitude pour une fonction de coût donnée.Il n'y a pas de solution sous forme fermée pour ce contrôle, donc nous proposons plusieurs schémas d'approximation et comparons leurs performances.De plus, nous expliquons comment appliquer le théorème IAB à tout algorithme de trading piloté par une vitesse de trading. Il n'est pas nécessaire de contrôler l'incertitude due au seuillage d'un signal pour exploiter le théorème IAB. Il peut être appliqué a posteriori à tout algorithme de négociation traditionnel.
  • Un jeu sur le champ moyen de la négociation de portefeuille et ses conséquences sur les corrélations perçues.

    Charles albert LEHALLE, Charafeddine MOUZOUNI
    2019
    Cet article va au-delà du modèle de jeu de champ moyen de trading optimal introduit par Pierre Cardaliaguet et Charles-Albert Lehalle dans [Cardaliaguet, P. et Lehalle, C.-A., Jeu de champ moyen de contrôles et application au trade crowding, Mathematics and Financial Economics (2018)]. On commence par l'étendre à des portefeuilles d'instruments corrélés. Cela conduit à plusieurs contributions originales : d'abord que les stratégies de couverture découlent naturellement de schémas de liquidation optimaux sur les portefeuilles. Deuxièmement, nous montrons l'influence des flux de transactions sur les estimations naïves de la volatilité et des corrélations intrajournalières. En nous concentrant sur cette relation importante, nous présentons une formule fermée exprimant les estimations standard des corrélations en fonction des corrélations sous-jacentes et du déséquilibre initial des gros ordres, via les flux optimaux de notre jeu de champ moyen entre traders. Pour étayer nos résultats théoriques, nous utilisons un jeu de données réel de 176 actions américaines de janvier à décembre 2014 échantillonné toutes les 5 minutes pour analyser l'influence des flux quotidiens sur les corrélations observées. Enfin, nous proposons une approche basée sur un modèle jouet pour calibrer notre modèle MFG sur les données.
  • Incorporation des signaux dans le trading optimal.

    Charles albert LEHALLE, Eyal NEUMAN
    Finance and Stochastics | 2019
    Pas de résumé disponible.
  • La finance de marché à l’ère de l’intelligence bon marché.

    Charles albert LEHALLE
    Revue d'économie financière | 2019
    Pas de résumé disponible.
  • Jeu de contrôle du champ moyen et application au "Trade Crowding".

    Pierre CARDALIAGUET, Charles albert LEHALLE
    Mathematics and Financial Economics | 2019
    Dans cet article, nous formulons le problème désormais classique de la liquidation optimale (ou du trading optimal) dans un jeu de champ moyen (MFG). Il s'agit d'un changement notable car les cadres mathématiques habituels se concentrent sur un grand opérateur face à un " bruit de fond " (ou " champ moyen "). Dans les cadres standards, les interactions entre le grand opérateur et le prix sont des termes d'impact sur le marché temporaires et permanents, ces derniers influençant le prix public. Dans ce document, le négociant est également confronté à l'incertitude des changements de prix équitables, mais pas seulement. Il doit faire face aux changements de prix générés par d'autres participants similaires du marché, qui ont également un impact permanent sur les prix, et agir de manière stratégique. Notre formulation MFG de ce problème appartient à la classe des " MFG étendus ", nous fournissons donc des résultats génériques pour traiter ces " MFG de contrôles ", avant de résoudre celui généré par la fonction de coût du trading optimal. Nous fournissons une formule fermée de sa solution, et traitons le cas des " préférences hétérogènes " (lorsque chaque participant a une aversion au risque différente). Enfin, nous donnons les conditions sous lesquelles les participants n'ont pas besoin de connaître instantanément l'état de l'ensemble du système, mais peuvent " l'apprendre " jour après jour, en observant les comportements des autres.
  • Contrôle optimal, apprentissage statistique et modélisation du carnet d'ordres.

    Othmane MOUNJID, Mathieu ROSENBAUM, Bruno BOUCHARD DENIZE, Mathieu ROSENBAUM, Charles albert LEHALLE, Gilles PAGES, Eric MOULINES, Sophie LARUELLE, Jean philippe BOUCHAUD, Olivier GUEANT, Xin GUO
    2019
    L'objectif principal de cette thèse est de comprendre les interactions entre les agents financiers et le carnet d'ordres. Elle se compose de six chapitres inter-connectés qui peuvent toutefois être lus indépendamment.Nous considérons dans le premier chapitre le problème de contrôle d'un agent cherchant à prendre en compte la liquidité disponible dans le carnet d'ordres afin d'optimiser le placement d'un ordre unitaire. Notre stratégie permet de réduire le risque de sélection adverse. Néanmoins, la valeur ajoutée de cette approche est affaiblie en présence de temps de latence: prédire les mouvements futurs des prix est peu utile si le temps de réaction des agents est lent.Dans le chapitre suivant, nous étendons notre étude à un problème d'exécution plus général où les agents traitent des quantités non unitaires afin de limiter leur impact sur le prix. Notre tactique permet d'obtenir de meilleurs résultats que les stratégies d'exécution classiques.Dans le troisième chapitre, on s'inspire de l'approche précédente pour résoudre cette fois des problèmes de market making plutôt que des problèmes d'exécution. Ceci nous permet de proposer des stratégies pertinentes compatibles avec les actions typiques des market makers. Ensuite, nous modélisons les comportements des traders haute fréquence directionnels et des brokers institutionnels dans le but de simuler un marché où nos trois types d'agents interagissent de manière optimale les uns avec les autres.Nous proposons dans le quatrième chapitre un modèle d'agents où la dynamique des flux dépend non seulement de l'état du carnet d'ordres mais aussi de l'historique du marché. Pour ce faire, nous utilisons des généralisations des processus de Hawkes non linéaires. Dans ce cadre, nous sommes en mesure de calculer en fonction de flux individuels plusieurs indicateurs pertinents. Il est notamment possible de classer les market makers en fonction de leur contribution à la volatilité.Pour résoudre les problèmes de contrôle soulevés dans la première partie de la thèse, nous avons développé des schémas numériques. Une telle approche est possible lorsque la dynamique du modèle est connue. Lorsque l'environnement est inconnu, on utilise généralement les algorithmes itératifs stochastiques. Dans le cinquième chapitre, nous proposons une méthode permettant d'accélérer la convergence de tels algorithmes.Les approches considérées dans les chapitres précédents sont adaptées pour des marchés liquides utilisant le mécanisme du carnet d'ordres. Cependant, cette méthodologie n'est plus nécessairement pertinente pour des marchés régis par des règles de fonctionnement spécifiques. Pour répondre à cette problématique, nous proposons, dans un premier temps, d'étudier le comportement des prix sur le marché très particulier de l'électricité.
  • Trois essais sur les stratégies de suivi de tendance.

    Charles CHEVALIER, Serge DAROLLES, Gaelle LE FOL, Gaelle LE FOL, Georges HUBNER, Jean paul LAURENT, Charles albert LEHALLE, Georges HUBNER, Jean paul LAURENT
    2019
    Les stratégies de suivi de tendance ont rencontré ces dernières années un fort d'intérêt de la part des investisseurs institutionnels, du fait notamment de leur bonne performance lors de la crise économique et financière de 2008. Les années 2016 à 2018 ont rebattu les cartes, avec des performances jugées mauvaises par de nombreux clients. Cette thèse s'intéresse aux différentes caractéristiques des stratégies de suivi de tendance que sont la performance, le risque et les coûts d'exécution, et propose de nouvelles manières d'aborder ces sujets. Le chapitre 1 explique la différence de performance entre les styles de hedge funds en confirmant la présence de tendances au sein des stratégies CTA et Global Macro. Le caractère assurantiel de cette stratégie est confirmé au sein de tous les types de hedge funds. Le chapitre 2 propose une nouvelle décomposition du risque associée aux stratégies de suivi de tendance en une composante commune et une composante spécifique. L'extraction d'un facteur de risque systématique et son ajout aux modèles factorielsstandards permettent de mieux expliquer les performances des styles de hedge funds, et ce de manière différente du chapitre 1. Enfin, le chapitre 3 aborde la question de l'exécution d'une stratégie de suivi de tendance. Le coût payé par l'investisseur, c'est-à-dire le coût associé à la gestion du portefeuille, n'est pas seulement fonction de la liquidité individuelle des actifs traités mais dépend également des décisions d'allocation prises par le gérant pour satisfaire aux objectifs de performance et de risque du fonds.
  • Contrôle Stochastique Impulsionnel avec Incertitude en Finance et en Assurance.

    Nicolas BARADEL, Bruno BOUCHARD DENIZE, Stephane LOISEL, Stephane LOISEL, Romuald ELIE, Huyen PHAM, Charles albert LEHALLE, Romuald ELIE, Huyen PHAM
    2018
    Cette thèse se compose de trois chapitres qui portent sur des problématiques de contrôle impulsionnel. Dans le premier chapitre, nous introduisons un cadre général de contrôle impulsionnel avec incertitude. Sachant une loi a priori sur des paramètres inconnus, nous expliquons comment celle-ci doit évoluer et l'intégrons au problème de contrôle optimal. Nous caractérisons la solution à travers une équation parabolique quasivariationnelle qui se résout numériquement puis donnons des exemples d'application à la finance. Dans le deuxième chapitre, nous introduisons un problème de contrôle impulsionnel avec incertitude dans un cadre actuariel. Un (ré)assureur fait face à des catastrophes naturelles et peut émettre des CAT bonds afin de réduire le risque pris. Nous caractérisons à nouveau le problème de contrôle optimal à travers une équation parabolique quasi-variationnelle qui se résout numériquement et donnons des exemples d'application. Dans le dernier chapitre, nous proposons une modélisation du prix à travers un carnet d'ordre complètement endogène. Nous résolvons des problèmes de contrôle optimal impulsionnel (placement d'ordre) d'agents économiques rationnels que nous rassemblons sur un même marché.
  • La microstructure du marché en pratique.

    Charles albert LEHALLE, Sophie LARUELLE
    2017
    Pas de résumé disponible.
  • The Behavior of High-Frequency Traders Under Different Market Stress Scenarios.

    Nicolas MEGARBANE, Pamela SALIBA, Charles albert LEHALLE, Mathieu ROSENBAUM
    Market Microstructure and Liquidity | 2017
    Pas de résumé disponible.
  • Placement stratégique des ordres à cours limité avec risque de sélection défavorable et rôle de la latence.

    Charles albert LEHALLE, Othmane MOUNJID
    Market Microstructure and Liquidity | 2017
    Pas de résumé disponible.
  • Mini-symposium sur la différenciation automatique et ses applications dans l'industrie financière.

    Sebastien GEERAERT, Charles albert LEHALLE, Barak a. PEARLMUTTER, Olivier PIRONNEAU, Adil REGHAI
    ESAIM: Proceedings and Surveys | 2017
    Pas de résumé disponible.
  • Jeu de contrôles en champ moyen et application à l'encombrement du marché.

    Pierre CARDALIAGUET, Charles albert LEHALLE
    Mathematics and Financial Economics | 2017
    Dans cet article, nous formulons le problème désormais classique de la liquidation optimale (ou du trading optimal) dans un jeu de champ moyen (MFG). Il s'agit d'un changement notable car les cadres mathématiques habituels se concentrent sur un grand opérateur face à un " bruit de fond " (ou " champ moyen "). Dans les cadres standards, les interactions entre le grand opérateur et le prix sont des termes d'impact sur le marché temporaires et permanents, ces derniers influençant le prix public. Dans ce document, le négociant est également confronté à l'incertitude des changements de prix équitables, mais pas seulement. Il doit faire face aux changements de prix générés par d'autres participants similaires du marché, qui ont également un impact permanent sur les prix, et agir de manière stratégique. Notre formulation MFG de ce problème appartient à la classe des " MFG étendus ", nous fournissons donc des résultats génériques pour traiter ces " MFG de contrôles ", avant de résoudre celui généré par la fonction de coût du trading optimal. Nous fournissons une formule fermée de sa solution, et traitons le cas des " préférences hétérogènes " (lorsque chaque participant a une aversion au risque différente). Enfin, nous donnons les conditions sous lesquelles les participants n'ont pas besoin de connaître instantanément l'état de l'ensemble du système, mais peuvent " l'apprendre " jour après jour, en observant les comportements des autres.
  • Comment prédire les conséquences d'un changement de valeur du tick ? Evidence from the Tokyo Stock Exchange Pilot Program.

    Weibing HUANG, Charles albert LEHALLE, Mathieu ROSENBAUM
    Market Microstructure and Liquidity | 2016
    Pas de résumé disponible.
  • Comment prédire les conséquences d'un changement de valeur du tick ? Evidence from the Tokyo Stock Exchange Pilot Program.

    Weibing HUANG, Charles albert LEHALLE, Mathieu ROSENBAUM
    SSRN Electronic Journal | 2015
    Pas de résumé disponible.
  • Modélisation, optimisation et estimation pour le contrôle en ligne des algorithmes de négociation sur les marchés à ordres limités.

    Joaquin FERNANDEZ TAPIA, Gilles PAGES, Charles albert LEHALLE, Marc HOFFMANN, Mathieu ROSENBAUM, Emmanuel BACRY, Frederic ABERGEL
    2015
    L'objectif de ce travail de thèse est une étude quantitive des differents problèmes mathematiques qui apparaissent en trading algorithmique. Concrètement, on propose une approche scientifique pour optimiser des processus relatifs a la capture et provision de liquidités pour des marchés electroniques.Du au fort caractère appliqué de ce travail, on n'est pas seulement intéressés par la rigeur mathématique de nos résultats, mais on souhaite aussi a comprendre ce travail de recherche dans le contexte des differentes étapes qui font partie de l'implementation pratique des outils que l'on developpe. par exemple l'interpretation du modèle, l'estimation de parametres, l'implementation informatique etc.Du point de vue scientifique, le coeur de notre travail est fondé sur deux techniques empruntées au monde de l'optimisation et des probabilités, celles sont : le contrôle stochastique et l'approximation stochastique.En particulier, on présente des resultats academiques originaux pour le probleme de market-making haute fréquence et le problème de liquidation de portefeuille en utilisant des limit-orders. dans le deux cas on utilise une approche d'optimisation dite backwards. De la même façon, on résout le problème de market-making en utilisant une approche "forward", ceci étant innovateur dans la litterature du trading optimal car il ouvre la porte à des techniques d'apprentissage automatique.Du pont de vue pratique, cette thèse cherches à creer un point entre la recherche academique et l'industrie financière. Nos resultats sont constamment considérés dans la perspective de leur implementation pratique. Ainsi, on concentre une grande partie de notre travail a étudier les differents facteurs qui sont importants a comprendre quand on transforme nos techniques quantitatives en valeur industrielle: comprendre la microstructure des marchés, des faits stylisés, traitrement des données, discussions sur les modèles, limitations de notre cadre scientifique etc.
  • Modèles mathématiques pour étudier et contrôler le processus de formation des prix.

    Charles albert LEHALLE
    2015
    Le processus de formation des prix est au coeur de tout modèles de mathématiques financières. D’abord approximé par un mouvement brownien (cf. [Karatzas & Shreve, 1998]), puis en y intégrant des sauts (voir [Shiryaev, 1999]) tant qu’il s’agissait d’échelles de temps longues, la prise en compte des volumes échangés est arrivée par la suite : - Dans un cadre économétrique (voir par exemple [Tauchen & Pitts, 1983]) pour tenter de mieux expliquer la dynamique des prix - dans le cadre d’études théoriques d’équilibres généraux où le “jeu d’enchère”est modélisé (comme dans [Kyle, 1985], [Ho & Stoll, 1983] ou [Glosten & Milgrom, 1985]). La régulation poussant de plus en plus d’échanges vers des marchés électroniques, de très grosses bases de données sont aujourd’hui disponibles. Elles contiennent non seulement les transactions effectives, mais aussi les déclarations d’intérêt de tous les participants. Ceci `a ouvert la porte `a des ́etudes empiriques (comme [Lillo et al. , 2003]) qui fournissent des pistes intéressantes à de nouvelles familles de modèles (voir par exemple [Bacry & Muzy, 2013]). Bien modéliser le processus de formation des prix permet de guider les régulateurs, qui tentent de favoriser les échanges sur des marchés électroniques (car il sont plus facilement trac ̧ables). Il permet aussi de mettre au point des techniques de trading optimal, qui, utilisées par les investisseurs et intermédiaires financiers, vont minimiser la perturbation des prix due à l’intensité des échanges.
  • Efficacité du processus de formation des prix en présence de participants à haute fréquence : une analyse du jeu de champ moyen.

    Aime LACHAPELLE, Jean michel LASRY, Charles albert LEHALLE, Pierre louis LIONS
    Mathematics and Financial Economics | 2015
    Cet article traite d'un modèle de marché stochastique avec coûts d'attente, pour des carnets d'ordres avec des traders hétérogènes. L'offre et la demande de liquidité déterminent la formation des prix et les traders anticipent les évolutions futures du carnet d'ordres. Le cadre naturel que nous utilisons est la théorie des jeux à champ moyen, une classe de jeux différentiels stochastiques avec un continuum de joueurs anonymes. Plusieurs sources d'hétérogénéité sont considérées, y compris la taille moyenne des ordres. Ainsi, nous sommes en mesure de considérer la coexistence des investisseurs institutionnels et des traders à haute fréquence (HFT). Nous fournissons à la fois des solutions analytiques et des expériences numériques. Les implications sur les quantités classiques sont explorées : taille du carnet d'ordres, prix, et écart effectif entre l'offre et la demande. Selon le modèle, dans les marchés où il n'y a que des investisseurs institutionnels, nous montrons l'existence de déséquilibres de liquidité inefficaces en équilibre, avec deux situations symétriques correspondant à ce que nous appelons des appels de liquidité. Dans ces situations, le prix de la transaction s'éloigne significativement du juste prix. Cependant, ce macro-phénomène disparaît dans les marchés avec à la fois des Investisseurs Institutionnels et du HFT, bien qu'une étude plus précise montre que les bénéfices de la nouvelle situation vont au HFT seulement, laissant les Investisseurs Institutionnels même avec des coûts de transaction plus élevés.
  • Impacts sur le marché et cycle de vie des ordres des investisseurs.

    Emmanuel BACRY, Adrian IUGA, Matthieu LASNIER, Charles albert LEHALLE
    Market Microstructure and Liquidity | 2015
    Pas de résumé disponible.
  • Méthodes d'optimisation et de statistique pour la finance à haute fréquence.

    Marc HOFFMANN, Mauricio LABADIE, Charles albert LEHALLE, Gilles PAGES, Huyen PHAM, Mathieu ROSENBAUM
    ESAIM: Proceedings and Surveys | 2014
    La finance haute fréquence a récemment évolué de la modélisation statistique et de l'analyse des données financières - où l'objectif initial était de reproduire des faits stylisés et de développer des outils d'inférence appropriés - vers l'optimisation du trading, où un agent cherche à exécuter un ordre (ou une série d'ordres) dans un environnement stochastique qui peut réagir à l'algorithme de trading de l'agent (impact sur le marché, facturation). Ce contexte pose de nouveaux défis scientifiques abordés par le minisymposium OPSTAHF.
  • Comprendre les enjeux du trading haute fréquence.

    Frederic ABERGEL, Charles albert LEHALLE, Mathieu ROSENBAUM
    The Journal of Trading | 2014
    Les récents changements réglementaires, connus sous le nom de Reg NMS aux États-Unis ou MiFID en Europe, ainsi que les effets de la crise financière (principalement son impact sur la liquidité), ont induit des changements majeurs sur la microstructure du marché sous deux aspects principaux : - la fragmentation de la liquidité autour de plusieurs lieux de négociation, avec l'apparition de nouveaux venus en Europe comme Chi-X, BATS Europe, ou Turquoise, certains d'entre eux n'étant pas réglementés ou "sombres". - la montée en puissance d'un nouveau type d'agents, les traders à haute fréquence, responsables de 40% à 70% des transactions. Ces deux effets sont liés puisque les traders à haute fréquence, étant les principaux clients des plateformes de négociation, ont un impact implicite sur les produits offerts par ces plateformes. En combinant une étude des résultats académiques récents et des preuves empiriques, ce document présente ce que nous considérons comme les éléments clés pour comprendre les enjeux de ces changements, et fournit également des indices potentiels pour atténuer certains d'entre eux. Une première section est consacrée à l'exposition des modifications récentes de la microstructure du marché. La seconde explique le rôle du processus de formation des prix et comment, en interagissant avec l'offre et la demande de liquidités, les traders haute fréquence peuvent le remodeler. La section suivante dévoile les différentes stratégies utilisées par ces nouveaux acteurs du marché et leur rentabilité. Enfin, la dernière section traite des outils récents conçus pour évaluer et contrôler l'activité de trading à haute fréquence.
  • La microstructure du marché en pratique.

    Charles albert LEHALLE, Sophie LARUELLE
    2013
    Pas de résumé disponible.
  • Prix d'affichage optimal des ordres à cours limité : apprentissage par la négociation.

    Sophie LARUELLE, Charles albert LEHALLE, Gilles PAGES
    Mathematics and Financial Economics | 2013
    Considérant qu'un trader ou un algorithme de trading interagissant avec les marchés lors d'enchères continues peut être modélisé par une procédure itérative ajustant le prix auquel il affiche les ordres à un rythme donné, cet article propose une procédure minimisant ses coûts. Nous prouvons la convergence a.s. de l'algorithme sous des hypothèses sur la fonction de coût et donnons quelques critères pratiques sur les paramètres du modèle pour s'assurer que les conditions d'utilisation de l'algorithme sont remplies (en utilisant notamment le principe de co-monotonie). Nous illustrons nos résultats par des expériences numériques sur des données simulées et en utilisant un ensemble de données sur les marchés financiers.
  • Gérer le risque lié aux stocks. Une solution au problème de la tenue de marché.

    Olivier GUEANT, Charles albert LEHALLE, Joaquin FERNANDEZ TAPIA
    Mathematics and Financial Economics | 2013
    Les teneurs de marché fixent en permanence des cours acheteur et vendeur pour les actions qu'ils ont en considération. Ils sont donc confrontés à un problème d'optimisation complexe dans lequel leur rendement, basé sur l'écart entre les cours acheteur et vendeur qu'ils cotent et la fréquence à laquelle ils fournissent effectivement de la liquidité, est remis en question par le risque de prix qu'ils supportent en raison de leur stock. Dans cet article, nous considérons un problème de contrôle stochastique similaire à celui introduit par Ho et Stoll et formalisé mathématiquement par Avellaneda et Stoikov. Le marché est modélisé à l'aide d'un prix de référence S_t suivant un mouvement brownien, les taux d'arrivée des ordres d'achat ou de vente consommant de la liquidité dépendent de la distance au prix de référence S_t et un teneur de marché maximise l'utilité attendue de son PnL sur un horizon temporel court. Nous montrons que les équations de Hamilton-Jacobi-Bellman peuvent être transformées en un système d'équations différentielles ordinaires linéaires et nous résolvons le problème du market making sous des contraintes d'inventaire. Nous fournissons également une caractérisation spectrale du comportement asymptotique des cotations optimales et proposons des approximations à forme fermée.
  • Des formes d'intensité générale en liquidation optimale.

    Olivier GUEANT, Charles albert LEHALLE
    Mathematical Finance | 2013
    Nous étudions le problème de la liquidation optimale en utilisant les ordres à cours limité. Si la littérature séminale sur la liquidation optimale, enracinée dans les modèles d'Almgren-Chriss, aborde le problème de la liquidation optimale en utilisant un compromis entre l'impact sur le marché et le risque de prix, elle ne répond qu'à la question générale du rythme de liquidation. La question même de la manière de procéder est en effet rarement abordée puisque la plupart des modèles classiques n'utilisent que les ordres du marché. Notre modèle, qui intègre à la fois le risque de prix et le risque de non-exécution, répond à cette question en utilisant la comptabilisation optimale des ordres à cours limité. Le cadre très général que nous proposons concernant la forme de l'intensité généralise à la fois le modèle risque-neutre présenté par Bayraktar et Ludkovski et le modèle développé par Gueant, Lehalle et Fernandez-Tapia, restreint à une intensité exponentielle.
  • Le contrôle non linéaire par réseaux de neurones formels: les perceptrons affines par morceaux.

    Charles albert LEHALLE
    2005
    Le but de ce travail est d'exposer de nouveaux résultats concernant l'utilisation d'une classe particulière de réseaux de neurones formels (les Perceptrons Affines Par morceaux: PAP) dans le cadre du contrôle optimal en boucle fermée. Les résultats principaux obtenus sont: plusieurs propriétés des PAP, concernant la nature des fonctions qu'ils peuvent émuler, un théorème constructif de représentation des fonctions continues affines par morceaux, qui permet de construire explicitement un PAP à partir d'une collection de fonctions affines, une série d'heuristiques pour l'apprentissage des paramètres d'un perceptron dans une boucle fermée et dans un cadre de contrôle optimal, des résultats théoriques concernant la stabilité de PAP utilisés comme contrôleurs. La dernière partie est consacrée des applications de ces résultats à la construction automatique de contrôleurs de la combustion de moteurs de voiture, qui ont donné lieu au dépot de deux brevets par Renault.
  • Contrôle non linéaire et Réseaux de neurones formels : les Perceptrons Affines Par morceaux.

    Charles albert LEHALLE, Robert AZENCOTT
    2005
    Pas de résumé disponible.
Les affiliations sont détectées à partir des signatures des publications identifiées dans scanR. Un auteur peut donc apparaître affilié à plusieurs structures ou tutelles en fonction de ces signatures. Les dates affichées correspondent seulement aux dates des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr