GUEGAN Dominique

< Retour à ILB Patrimoine
Thématiques des productions
Affiliations
  • 2016 - 2019
    IPAG Business School
  • 2015 - 2020
    Ca Foscari University of Venice
  • 2012 - 2020
    Centre d'économie de la Sorbonne
  • 2018 - 2019
    University of Economics Ho Chi Minh City
  • 2012 - 2013
    Ecole d'économie de Paris
  • 2021
  • 2020
  • 2019
  • 2018
  • 2017
  • 2016
  • 2015
  • 2014
  • 2013
  • 2011
  • 2009
  • 2008
  • 2006
  • 2005
  • 2003
  • 2002
  • 2000
  • 1998
  • 1995
  • Symétrie radiale multivariée des fonctions copule : comparaison d'échantillons finis dans le cas i.i.d.

    Monica BILLIO, Lorenzo FRATTAROLO, Dominique GUEGAN
    Dependence Modeling | 2021
    Pas de résumé disponible.
  • Une note sur l'interprétabilité des algorithmes d'apprentissage automatique.

    Dominique GUEGAN
    2020
    Nous nous intéressons à l'analyse du concept d'interprétabilité associé à un algorithme ML. Nous distinguons le "Comment", c'est-à-dire comment fonctionne une boîte noire ou un algorithme très complexe, du "Pourquoi", c'est-à-dire pourquoi un algorithme produit tel résultat. Ces questions intéressent de nombreux acteurs, utilisateurs, professions, régulateurs, entre autres. En utilisant un cadre formel standardisé, nous indiquons les solutions qui existent en précisant quels éléments de la chaîne d'approvisionnement sont impactés lorsque nous apportons des réponses aux questions précédentes. Cette présentation, en standardisant les notations, permet de comparer les différentes approches et de mettre en évidence les spécificités de chacune d'entre elles : tant leur objectif que leur processus. L'étude n'est pas exhaustive et le sujet est loin d'être clos.
  • Hedging in alternative aarkets

    Rostislav HALIPLII, Dominique GUEGAN, Marius christian FRUNZA, Catherine BRUNEAU, Dominique GUEGAN, Marius christian FRUNZA, Julien CHEVALLIER, Stephane GOUTTE
    2020
    La recherche faisant l'objet de cette thèse se concentre sur deux marchés alternatifs: les crypto­monnaies et les produits pétroliers. La plupart des marchés alternatifs sont loin d'être efficaces, et cela génère beaucoup de défis en termes de modélisation. Les modèles basés sur des distributions gaussiennes sont toujours le choix le plus populaire pour les analystes financiers quantitatifs et sont mis en œuvre même sur des marchés qui sont loin d'être efficients. Un cadre de modélisation solide pour l'alternative des actifs doit partir d'une distribution non gaussienne. Par conséquent, tout au long de cette thèse, le thème général de toutes les simulations et estimations est l'utilisation de l'hyperbolique généralisée distributions. Cette approche a une double justification. D'une part, il est essentiel pour développer un cadre quantitatif tranchant au-delà de l'univers gaussien, tester les performances du nouveau modèle dans des situations réelles. D'autre part, les marchés faisant l'objet de cette recherche (produits pétroliers et crypte-monnaies) n'ont ni les fondamentaux ni le comportement empirique qui pourraient justifier la modélisation traditionnelle.
  • Séminaire sur la blockchain : Risque et blockchain.

    Dominique GUEGAN
    Blockchain seminar: Risk and Blockchain | 2019
    Pas de résumé disponible.
  • Évaluation du risque de queue pour la dépendance non linéaire des indices sectoriels MSCI : Une approche par copules à trois niveaux.

    Giovanni de LUCA, Dominique GUEGAN, Giorgia RIVIECCIO
    Finance Research Letters | 2019
    L'auteur propose une technique d'estimation en trois étapes basée sur les copules afin de décrire la dépendance non linéaire sérielle et transversale entre des séries temporelles financières multiples, en explorant l'existence du risque de queue. Nous constatons sur les indices MSCI World Sector la meilleure performance de l'approche par rapport aux modèles Vector AutoRegressive classiques, en donnant les implications d'hypothèses mal spécifiées pour les marges et/ou la distribution conjointe et en fournissant des mesures de la dépendance de queue des variables financières impliquées dans l'analyse.
  • Crypto-actifs : le rôle des jetons d'ICO au sein d'un portefeuille bien diversifié.

    Saman ADHAMI, Dominique GUEGAN
    2019
    Cet article réexamine le débat sur la technologie blockchain, les crypto-actifs et les ICO, en apportant également la preuve que sur les marchés cryptographiques, il existe actuellement deux catégories d'actifs, à savoir les crypto-devises autonomes (ou "pièces") et les jetons, qui résultent d'une ICO et sont intrinsèquement liés à la performance de la société ou de l'entreprise émettrice. Alors que les premières ont fait l'objet de diverses études empiriques concernant la dynamique de leurs prix et leur effet sur la variance d'un portefeuille bien diversifié, aucune étude de ce type n'a été réalisée pour analyser les jetons cotés en bourse, qui, dans notre échantillon, sont plus de 700 et représentent un soutien d'environ 17,3 milliards de dollars provenant de leurs ICO respectives. Par conséquent, les investisseurs désireux d'optimiser leurs portefeuilles doivent d'abord évaluer le rôle de diversification, de couverture ou de refuge des jetons par rapport aux actifs traditionnels, en plus des "pièces", afin d'utiliser judicieusement cette nouvelle classe d'actifs. Après avoir construit divers indices pour représenter la classe d'actifs des jetons dans son ensemble et ses sous-classes, nous modélisons les corrélations conditionnelles dynamiques entre tous les actifs de notre échantillon afin d'obtenir des corrélations variant dans le temps pour chaque paire jeton-actif. Nous constatons que les jetons sont des diversificateurs efficaces mais ne constituent pas une couverture ou un actif refuge. Nous démontrons que les jetons conservent des différences systématiques importantes avec les deux autres classes d'actifs auxquelles ils sont le plus souvent comparés, à savoir les " pièces " et les actions.
  • Une valeur probante pour le cas d'utilisation de l'authentification blockchain.

    Dominique GUEGAN, Christophe HENOT
    Digital Finance | 2019
    L'industrie Fintech a facilité le développement d'entreprises utilisant la technologie blockchain. L'utilisation de cette technologie au sein du système bancaire et de l'industrie ouvre la voie à plusieurs questions concernant l'activité commerciale, l'environnement juridique et les dispositifs d'assurance. Dans cet article, en considérant la création de petites entreprises intéressées à développer leur activité avec une blockchain publique, nous analysons sous différents aspects pourquoi une entreprise (dans le système bancaire ou d'assurance, et l'industrie) décide qu'un protocole blockchain est plus légitime qu'un autre pour l'activité qu'elle veut développer en regardant les points de vue juridiques (en cas de litige). Nous associons à chaque blockchain une valeur probante qui permet d'assurer en cas de litige qu'une transaction a bien été effectuée. Nous illustrons notre proposition en utilisant 13 blockchains en fournissant dans ce cas un classement entre ces blockchains pour leur utilisation en environnement professionnel. Nous associons à cette valeur probante certaines caractéristiques principales de chaque blockchain comme la capitalisation boursière et la volatilité des rendements logarithmiques que les investisseurs doivent également prendre en compte avec la nouvelle valeur probante pour leur stratégie de gestion.
  • Sélection de variables et prévision par des méthodes automatisées pour les modèles linéaires : LASSO/adaLASSO et Autometrics.

    Camila EPPRECHT, Dominique GUEGAN, Alvaro VEIGA, Joel CORREA DA ROSA
    Communications in Statistics - Simulation and Computation | 2019
    Pas de résumé disponible.
  • Risques et blockchain.

    Dominique GUEGAN
    1st International Symposium on Entrepreneurship, Blockchain and Crypto-Finance | 2019
    Pas de résumé disponible.
  • Analyse du risque de crédit à l'aide de modèles d'apprentissage automatique et profond.

    Dominique GUEGAN
    Credit Risk Analysis Using Machine and Deep Learning Models | 2019
    En raison de l'hyper technologie associée au Big Data, à la disponibilité des données et à la puissance de calcul, la plupart des banques ou institutions financières de prêt renouvellent leurs modèles d'affaires. Les prédictions du risque de crédit, la surveillance, la fiabilité des modèles et le traitement efficace des prêts sont essentiels à la prise de décision et à la transparence. Dans ce travail, nous construisons des classificateurs binaires basés sur des modèles d'apprentissage automatique et profond sur des données réelles pour prédire la probabilité de défaut de paiement des prêts. Les 10 principales caractéristiques importantes de ces modèles sont sélectionnées puis utilisées dans le processus de modélisation pour tester la stabilité des classificateurs binaires en comparant les performances sur des données distinctes. Nous observons que les modèles basés sur des arbres sont plus stables que les modèles basés sur des réseaux de neurones artificiels multicouches. Ceci ouvre plusieurs questions relatives à l'utilisation intensive des systèmes d'apprentissage profond dans les entreprises.
  • Le risque opérationnel dans les paiements par blockchain.

    Dominique GUEGAN
    Fin-Tech HO2020 European Project: FINTECH Risk Management | 2019
    Pas de résumé disponible.
  • Fintech et Blockchain.

    Dominique GUEGAN
    Reading seminars 2018-2019 | 2019
    Le développement récent des crypto-actifs fait que la technologie blockchain suscite un intérêt croissant. Pour comprendre l'intérêt de cette innovation pour l'économie et la finance, il est important d'étudier les fondements du concept autour de la technologie blockchain. Tout d'abord, nous introduirons la notion de prêt entre pairs qui est l'une des composantes de la question, puis nous expliquerons le concept du Bitcoin qui est la première crypto-monnaie qui a été développée sur la base d'un protocole PoW (Proof-of-work). Nous analyserons en même temps les risques associés à cette crypto-activité et la réglementation qui existe. Dans un second temps, nous présenterons et analyserons différentes classes de blockchains et les mécanismes qui leur sont associés. Nous introduirons le concept de blockchain fermée et ouverte, publique et privée. Cela permettra d'introduire les différents types de protocoles qui régissent ces blockchains. Enfin, nous présenterons le concept d'ICO, nouveau moyen de financement par crypto-monnaies. L'analyse de la gouvernance de ce nouveau type de start-up sera fournie. Les risques associés à ces ICO seront analysés et la réglementation récente les concernant sera fournie.
  • Big Data, intelligence artificielle et blockchain.

    Dominique GUEGAN
    Big Data, Artificial Intelligence and Blockchain | 2019
    1 - Big Data et apprentissage réglementaire : Comment superviser les modèles d'apprentissage profond ? Ce séminaire vise à présenter (i) Les notions de Big Data, (ii) L'architecture indispensable à l'utilisation du Big Data, (iii) Le concept d'intelligence artificielle et les modèles associés, (iv) La question de l'existence d'un cadre réglementaire, (v) L'étude d'un cas d'usage développé au sein du système bancaire concernant le credit scoring. 2 - Les crypto-monnaies et le défi de la régulation financière : L'exemple du Bitcoin après avoir défini la notion de prêt de pair à pair, et de ledger distribué, le concept du Bitcoin est introduit. La réglementation autour des crypto-actifs est analysée : risques à distance et immédiats comme risques pour les utilisateurs. 3 - Le monde numérique : Blockchain et ICO : dans cet exposé, nous analysons le concept de blockchain et les différentes classes de blockchain avec leurs propriétés. Le cadre réglementaire est présenté. Les Initial Coin offerings sont également abordés avec leur intérêt et leurs limites.
  • Mesure du risque.

    Dominique GUEGAN, Bertrand k. HASSANI
    2019
    Cet ouvrage combine théorie et pratique pour analyser la mesure des risques de différents points de vue. Les limites d'un modèle dépendent du cadre sur lequel il a été construit ainsi que des hypothèses spécifiques, et les gestionnaires de risques doivent en être conscients lorsqu'ils évaluent les risques. Les auteurs étudient l'impact de ces limites, proposent un autre mode de pensée qui remet en question les hypothèses traditionnelles et fournissent également des solutions novatrices. Partant du modèle traditionnel de la valeur à risque (VaR) et de ses limites, l'ouvrage aborde des concepts tels que l'expected shortfall, la mesure spectrale, l'utilisation du spectre et les mesures de risque de distorsion d'un point de vue univarié et multivarié.
  • L'autre côté de la pièce : Les risques de la blockchain Libra.

    Louis ABRAHAM, Dominique GUEGAN
    2019
    Libra a été présentée comme une crypto-monnaie le 18 juin 2019 par Facebook. Le même jour, Facebook a annoncé le projet de Calibra, une filiale chargée du développement d'un porte-monnaie électronique et de services financiers. Compte tenu du risque primaire de souveraineté posé par la création de Libra, les Banques Centrales ont rapidement pris des positions très claires contre le projet et ont adressé de nombreuses questions aux responsables du projet portant sur les aspects de régulation et de souveraineté nationale. L'objectif de cet article est de fournir une analyse globale du projet afin d'englober plusieurs aspects de sa mise en œuvre et les problèmes qu'il soulève. Nous abordons une série de questions qui font partie de l'environnement des crypto-monnaies et de la technologie blockchain qui soutient le projet Libra. Nous identifions les principaux risques en considérant à la fois : le risque politique, les risques financiers, les risques économiques, les risques technologiques et l'éthique en nous concentrant sur la gouvernance du projet basée sur deux niveaux : l'un pour l'Association et l'autre pour la Blockchain Libra. Nous soulignons la difficulté de réguler un tel projet dès lors qu'il dépendra de plusieurs pays dont les législations sont très différentes. L'avenir de ce type de projet est évoqué à travers l'émergence des monnaies numériques des banques centrales.
  • Intelligence artificielle, données, éthique : Une approche holistique pour les risques et la réglementation.

    Alexis BOGROFF, Dominique GUEGAN
    2019
    Une liste exhaustive des risques relatifs aux cadres de big data et à leur utilisation par le biais de modèles d'intelligence artificielle est fournie, ainsi que des mesures et des solutions réalisables. Les biais, l'interprétabilité et l'éthique sont étudiés en profondeur, avec plusieurs interprétations du point de vue des développeurs, des entreprises et des régulateurs. Les réflexions suggèrent que les cadres fragmentés augmentent les risques de mauvaise spécification des modèles, d'opacité et de biais dans le résultat. Les experts du domaine et les statisticiens doivent être impliqués dans l'ensemble du processus, car l'objectif commercial doit guider chaque décision, de l'étape d'extraction des données à la prédiction finale activable. Nous proposons une approche holistique et originale pour prendre en compte les risques rencontrés tout au long de la mise en œuvre de systèmes utilisant l'intelligence artificielle, depuis le choix des données et la sélection de l'algorithme, jusqu'à la prise de décision.
  • Offres initiales de crypto-actifs (ICO), tokenisation et gouvernance d'entreprise.

    Stephane BLEMUS, Dominique GUEGAN
    2019
    Cet article examine les impacts potentiels des "initial coin offerings", et de plusieurs développements basés sur la technologie des registres distribués ("DLT"), sur la gouvernance d'entreprise. Alors que de nombreux articles académiques se concentrent principalement sur la qualification juridique des DLT et des crypto-actifs, et plus particulièrement sur la définition potentielle de ces derniers en tant que titres/instruments financiers, les auteurs analysent certains des cas d'utilisation basés sur la technologie DLT et leur potentiel pour des changements significatifs des analyses de gouvernance d'entreprise. Cet article étudie les conséquences dues à l'émergence de nouveaux types de parties prenantes de l'entreprise, à savoir les détenteurs de crypto-actifs, sur la gouvernance des petites et moyennes entreprises ("PME") ainsi que des sociétés cotées en bourse. Depuis début 2016, une nouvelle façon de lever des fonds s'est rapidement imposée comme un enjeu majeur pour les fondateurs de FinTech et les régulateurs financiers. Fréquemment appelée initial coin offerings, Initial Token Offerings ("ITO"), Token Generation Events ("TGE") ou simplement "token sales", nous utilisons dans notre article la terminologie Initial Crypto-asset Offerings ("ICO"), car elle décrit plus efficacement que "initial coin offerings" la grande diversité des actifs qui pourraient être créés et qui dépasse largement la question des moyens de paiement.
  • Une mesure plus précise pour des contrôles renforcés : VaR ou ES ?

    Dominique GUEGAN, Bertrand k. HASSANI
    Journal of International Financial Markets, Institutions and Money | 2018
    Cet article (ce travail a été réalisé par le Laboratoire d'Excellence sur la Réglementation Financière (Labex ReFi) soutenu par PRESheSam sous la référence ANR-10-LABEX-0095) analyse comment les risques sont mesurés dans les institutions financières, par exemple les risques de marché, de crédit, opérationnels, entre autres en ce qui concerne le choix des mesures de risque, le choix des distributions utilisées pour les modéliser et le niveau de confiance sélectionné. Nous discutons et illustrons les caractéristiques, les paradoxes et les problèmes observés, en comparant la Value-at-Risk et l'Expected Shortfall dans la pratique. Cet article est construit comme un diagnostic différentiel et vise à discuter de la fiabilité des mesures de risque et à faire quelques recommandations. (Ce document a été rédigé à une période très particulière, car la plupart des documents réglementaires rédigés au cours des 20 dernières années sont actuellement remis en question par les praticiens et les régulateurs eux-mêmes. Un certain désarroi a été observé parmi les gestionnaires de risques, car la plupart des modèles exigés par la réglementation n'étaient pas cohérents avec leur propre objectif de gestion des risques. L'éclairage apporté par cet article est basé sur une analyse académique des problèmes engendrés par certains textes réglementaires et son but n'est pas de créer une quelconque controverse).
  • Apprentissage réglementaire : Comment superviser les modèles d'apprentissage automatique ? Une application à l'évaluation du crédit.

    Dominique GUEGAN, Bertrand HASSANI
    The Journal of Finance and Data Science | 2018
    L'arrivée des stratégies Big Data menace les dernières tendances de la réglementation financière liées à la simplification des modèles et à l'amélioration de la comparabilité des approches choisies par les institutions financières. En effet, la philosophie dynamique intrinsèque des stratégies Big Data est presque incompatible avec le cadre légal et réglementaire actuel, comme illustré dans cet article. De plus, comme nous l'avons présenté dans notre application au credit scoring, la sélection des modèles peut également évoluer de manière dynamique, ce qui oblige les praticiens et les régulateurs à développer des bibliothèques de modèles, des stratégies permettant de passer de l'un à l'autre ainsi que des approches de supervision permettant aux institutions financières d'innover dans un environnement à risque réduit. L'objectif de cet article est donc d'analyser les questions liées à l'environnement Big Data et en particulier aux modèles d'apprentissage automatique, en mettant en évidence les problèmes présents dans le cadre actuel, en confrontant les flux de données, le processus de sélection des modèles et la nécessité de générer des résultats appropriés.
  • Analyse du risque de crédit à l'aide de modèles d'apprentissage automatique et profond.

    Dominique GUEGAN, Peter ADDO, Bertrand HASSANI
    Risks | 2018
    En raison de la technologie avancée associée au Big Data, de la disponibilité des données et de la puissance de calcul, la plupart des banques ou des établissements de crédit renouvellent leurs modèles économiques. Les prédictions du risque de crédit, la surveillance, la fiabilité des modèles et le traitement efficace des prêts sont essentiels à la prise de décision et à la transparence. Dans ce travail, nous construisons des classificateurs binaires basés sur des modèles d'apprentissage automatique et profond sur des données réelles pour prédire la probabilité de défaut de paiement des prêts. Les 10 principales caractéristiques importantes de ces modèles sont sélectionnées puis utilisées dans le processus de modélisation pour tester la stabilité des classificateurs binaires en comparant leurs performances sur des données distinctes. Nous observons que les modèles basés sur les arbres sont plus stables que les modèles basés sur les réseaux neuronaux artificiels multicouches. Ceci ouvre plusieurs questions relatives à l'utilisation intensive des systèmes d'apprentissage profond dans les entreprises.
  • Analyse du risque de crédit à l'aide de modèles d'apprentissage automatique et profond.

    Peter ADDO, Dominique GUEGAN, Bertrand HASSANI
    2018
    En raison de l'hyper technologie associée au Big Data, à la disponibilité des données et à la puissance de calcul, la plupart des banques ou institutions financières de prêt renouvellent leurs modèles d'affaires. Les prédictions du risque de crédit, la surveillance, la fiabilité des modèles et le traitement efficace des prêts sont essentiels à la prise de décision et à la transparence. Dans ce travail, nous construisons des classificateurs binaires basés sur des modèles d'apprentissage automatique et profond sur des données réelles pour prédire la probabilité de défaut de paiement des prêts. Les 10 principales caractéristiques importantes de ces modèles sont sélectionnées puis utilisées dans le processus de modélisation pour tester la stabilité des classificateurs binaires en comparant les performances sur des données distinctes. Nous observons que les modèles basés sur des arbres sont plus stables que les modèles basés sur des réseaux de neurones artificiels multicouches. Ceci ouvre plusieurs questions relatives à l'utilisation intensive des systèmes d'apprentissage profond dans les entreprises.
  • Le monde numérique : II - Alternatives à la blockchain Bitcoin.

    Dominique GUEGAN
    Bankers Markets & Investors : an academic & professional review | 2018
    Pas de résumé disponible.
  • Mesurer le risque dans un environnement explosif.

    Dominique GUEGAN, Kruse becher ROBIN, Hans jorg METTENHEIM, VON, Wegener CHRISTOPH
    Vietnam Symposium in Banking and Finance (VSBF) | 2018
    Les bulles d'actifs financiers peuvent être caractérisées par des périodes d'expansion et d'effondrement. Les expansions sont souvent modélisées comme des processus explosifs pour le prix des actifs. Ignorer cette explosivité conduit à une valeur à risque (VaR) mal spécifiée et à des mesures connexes, par exemple le manque à gagner attendu. En considérant un modèle autorégressif explosif. Nous constatons que la VaR non ajustée à la baisse est surestimée dans les périodes explosives et également mal spécifiée pendant l'effondrement. La forme de la mauvaise spécification dépend fortement de plusieurs facteurs : (i) la prévision de la VaR, (ii) la durée et la force du régime explosif (mesurées par la longueur du sous-échantillon explosif et de la racine explosive), et (iii) la nature de l'effondrement. L'ampleur des effets (en termes d'exigences de capital) est quantifiée au moyen d'une étude approfondie de simulation Monte Carlo. Nous proposons un terme de correction à ajouter à la VaR qui tient compte de la perte inattendue due à un éclatement. Dans nos applications empiriques, nous démontrons les mérites et les limites des ajustements de la VaR suggérés, qui doivent être pris en compte à des fins de gestion.
  • Le monde numérique : II - Des alternatives à la blockchain Bitcoin ?

    Dominique GUEGAN
    2018
    Dans un précédent article (Le monde numérique : I - Bitcoin : de l'histoire au réel, Guégan, 2018), nous expliquons certaines limites et intérêts du système Bitcoin et pourquoi les banquiers centraux et les régulateurs doivent prendre une décision sur son existence. Dans cet article, nous développons quelques alternatives à la blockchain Bitcoin qui sont envisagées par le système bancaire et les industries.
  • ICO : la nouvelle façon d lever des fonds sans contrainte ?

    Dominique GUEGAN
    Revue Banque | 2018
    Les ICO donnent l'opportunité aux personnes possédant des cryptomonnaies d'investir ces montants. Ces opérations se sont multipliées au cours des deux dernières années, mais elles présentent des risques importants tant pour les souscripteurs que pour les émetteurs. Il est urgent de leur fixer un cadre réglementaire approprié.
  • Un nouveau jeton : le CommodCoin. Quel peut être son intérêt pour le marché financier ? Une modélisation macro-économique.

    Dominique GUEGAN
    Digital, Innovation, Entrepreneurship and Financing | 2018
    Dans cet article, nous discutons de l'intérêt pour le marché financier d'un token construit sur des matières premières. Tout d'abord, nous introduisons la notion de jetons, et nous proposons une classification des jetons qui peuvent être construits sur la base de différentes crypto-monnaies puis sur différentes classes et générations de blockchains, certains sont créés par des Etats afin de dynamiser l'économie locale ou nationale. Puis enfin, nous introduisons un token indexé sur une matière première qui pourrait être proposé par un système bancaire en vue de développer un marché monopolistique et de contrôler le secteur de cette matière première. Nous proposons un modèle macro-économique où une partie de l'économie utilise le CommodCoin, puis une analyse contre-factuelle pour analyser l'impact de l'introduction du CommodCoin sur l'économie. Après l'introduction d'un modèle de base correspondant à un modèle de petite économie ouverte avec deux secteurs non concurrents utilisant la monnaie fiduciaire, nous présentons un modèle contre-factuel dans lequel les deux secteurs peuvent utiliser le CommodCoin pour les transactions intra-sectorielles et également les monnaies fiduciaires. Nous nous interrogeons sur l'intérêt de ce type de proposition pour l'industrie financière.
  • Mesurer le risque dans un environnement explosif.

    Dominique GUEGAN, Kruse becher ROBIN, Hans jorg METTENHEIM, VON, Wegener CHRISTOPH
    Forecasting Financial Markets (FFM) | 2018
    Les bulles d'actifs financiers peuvent être caractérisées par des périodes d'expansion et d'effondrement. Les expansions sont souvent modélisées comme des processus explosifs pour le prix des actifs. Ignorer cette explosivité conduit à une valeur à risque (VaR) mal spécifiée et à des mesures connexes, par exemple le manque à gagner attendu. En considérant un modèle autorégressif explosif. Nous constatons que la VaR non ajustée à la baisse est surestimée dans les périodes explosives et également mal spécifiée pendant l'effondrement. La forme de la mauvaise spécification dépend fortement de plusieurs facteurs : (i) la prévision de la VaR, (ii) la durée et la force du régime explosif (mesurées par la longueur du sous-échantillon explosif et de la racine explosive), et (iii) la nature de l'effondrement. L'ampleur des effets (en termes d'exigences de capital) est quantifiée au moyen d'une étude approfondie de simulation Monte Carlo. Nous proposons un terme de correction à ajouter à la VaR qui tient compte de la perte inattendue due à un éclatement. Dans nos applications empiriques, nous démontrons les mérites et les limites des ajustements de la VaR suggérés, qui doivent être pris en compte à des fins de gestion.
  • Initial Token Offerings (ITOs) et gouvernance d'entreprise.

    Dominique GUEGAN, Stephane BLEMUS
    Forecasting Financial Markets (FFM) | 2018
    Dans cet exposé, nous analysons le nouveau concept de levée de fonds par IPO, la question de la réglementation et la gouvernance.
  • Évaluation de la couverture par procuration sur les marchés des carburéacteurs.

    Dominique GUEGAN, Marius FRUNZA, Rostislav HALIPLII
    IRMBAM 2018 | 2018
    L'objectif de cette recherche est d'explorer le risque associé à la couverture sur les marchés du kérosène. Elle se concentre sur la recherche de l'instrument de couverture de substitution le plus efficace pour le marché spot de Singapour. En raison de ses particularités, ce marché ne présente pas les mêmes caractéristiques que les marchés financiers traditionnels. En apparence, il semble très lié au marché du pétrole, mais en réalité, il présente une liquidité insuffisante et affiche des effets de regroupement de volatilité inhabituels. Ce comportement a un impact direct sur les stratégies de couverture des raffineries, des compagnies aériennes et des négociants en carburéacteur. L'article explore les caractéristiques économétriques du prix du kérosène et souligne la nécessité des distributions à queue grasse et des modèles de regroupement de la volatilité. Il examine également la capacité de prévision de la densité de divers instruments de couverture de substitution, notamment les contrats à terme sur le kérosène, le brut et le gasoil. Les résultats montrent que le contrat à terme sur le gasoil de Singapour est le meilleur candidat pour couvrir le prix spot du Jet Fuel de Singapour.
  • Le monde numérique : I - Bitcoin : de l'histoire à la vie réelle.

    Dominique GUEGAN
    Bankers Markets & Investors : an academic & professional review | 2018
    Pas de résumé disponible.
  • Les ICO la nouvelle façon de lever des fonds sans contrainte ?

    Dominique GUEGAN
    2018
    Les ICO donnent l'opportunité aux personnes possédant des cryto-monnaies d'investir ces montants. Ces opérations se sont multipliées au cours des deux dernières années, mais elles présentent des risques importants tant pour les souscripteurs que les émetteurs. Il est urgent de leur fixer un cadre réglementaire approprié.
  • Le monde numérique : I - Bitcoin : de l'histoire à la réalité.

    Dominique GUEGAN
    2018
    Le bitcoin peut être considéré comme un moyen d'échange limité aux marchés en ligne, mais il n'est pas une unité de compte ni une réserve de valeur, et ne peut donc pas être considéré comme une monnaie. La valeur du bitcoin est très volatile et s'échange à des prix différents sur différentes plateformes d'échange, et peut donc être utilisée à des fins d'arbitrage. Son comportement peut être associé à celui d'une action très volatile, et la plupart des transactions en bitcoin sont destinées à des instruments spéculatifs. La forte volatilité du bitcoin et l'apparition d'une bulle spéculative dépendent du sentiment positif et de la confiance à l'égard du marché du bitcoin : plusieurs variables peuvent être considérées comme des indicateurs (volume de transactions, nombre de transactions, nombre de recherches Google, de requêtes wikipedia). La star des crypto-monnaies a atteint les 19 716 dollars en décembre 2017 et a baissé à 6 707 dollars le 29 mars 2018. En capitalisation, elle est à ce jour la 30e monnaie mondiale. Nous expliquons certaines limites et intérêts du système Bitcoin et pourquoi les banquiers centraux et les régulateurs doivent prendre une décision sur son existence, et quelle pourrait être l'évolution possible de la Blockchain Bitcoin.
  • La ruée vers le bitcoin est-elle terminée ?

    Dominique GUEGAN, Marius FRUNZA
    2018
    L'objectif de cette recherche est d'explorer les caractéristiques économétriques des taux Bitcoin-USD. Divers modèles non gaussiens sont ajustés aux rendements quotidiens afin de souligner les caractéristiques uniques du bitcoin par rapport à d'autres monnaies plus traditionnelles. L'hypothèse de l'efficience du marché est testée plus avant, et les principales raisons des violations de l'efficience sont discutées. L'objectif principal de l'article est d'évaluer la présence d'effets de bulle sur ce marché à l'aide de tests personnalisés capables de détecter le moment où se forment diverses bulles. Les résultats montrent que les prix du bitcoin ont connu deux épisodes d'inflation rapide en 2014 et 2017.
  • Sur l'estimation des paramètres du modèle saisonnier FISSAR.

    Papa CISSE, Dominique GUEGAN, Abdou ka DIONGUE
    2018
    Dans cet article, nous discutons des méthodes d'estimation des paramètres du modèle saisonnier FISSAR (Fractionally Integrated Separable Spatial Autoregressive with seasonality). Nous mettons d'abord en œuvre la méthode de régression basée sur le log-périodogramme et la méthode classique de Whittle pour estimer les paramètres de mémoire. Pour estimer les paramètres du modèle simultanément - paramètres d'innovation et paramètres de mémoire - la méthode du maximum de vraisemblance et la méthode de Whittle basée sur la simulation MCMC sont considérées. Nous étudions la cohérence et la normalité asymptotique des estimateurs par simulation.
  • Une nouvelle mesure de risque multivariée : la VaR de Kendall.

    Matthieu GARCIN, Dominique GUEGAN, Bertrand HASSANI
    2018
    La définition de la Value at Risk multivariée est un problème difficile, dont les solutions les plus courantes sont données par les VaR inférieure et supérieure, qui sont basées sur des copules : la VaR inférieure est en effet le quantile de la fonction de distribution multivariée, tandis que la VaR supérieure est le quantile de la fonction de survie multivariée. Dans cet article, nous présentons une nouvelle approche introduisant une Value at Risk multivariée d'ordre total, appelée Value at Risk de Kendall, qui relie l'approche copule à une définition alternative des quantiles multivariés, connue sous le nom de surface quantile, qui n'est pas utilisée en finance, à notre connaissance. Nous transformons plus précisément la notion de VaR orthante grâce à la fonction de Kendall afin d'obtenir une VaR multivariée ayant des propriétés avantageuses par rapport à la VaR orthante standard : elle est basée sur un ordre total et, pour une fonction de densité non atomique et supportée par Rd, il n'y a plus de distinction entre les VaR d-dimensionnelles basées sur la fonction de distribution ou sur la fonction de survie. Nous quantifions les différences entre cette nouvelle VaR de Kendall et les VaR orthogonales. En particulier, nous montrons que la VaR de Kendall est moins (respectivement plus) conservatrice que la VaR orthante inférieure (resp. orthante supérieure). La définition et les propriétés de la VaR de Kendall sont illustrées en utilisant des copules de Gumbel et de Clayton avec des distributions marginales lognormales et plusieurs niveaux de risque.
  • Une valeur probante pour l'authentification Blockchain Use Case.

    Dominique GUEGAN, Christophe HENOT
    2018
    L'industrie Fintech a facilité le développement d'entreprises utilisant la technologie blockchain. L'utilisation de cette technologie au sein du système bancaire et de l'industrie ouvre la voie à plusieurs questions concernant l'activité commerciale, l'environnement juridique et les dispositifs d'assurance. Dans cet article, en considérant la création de petites entreprises intéressées à développer leur activité avec une blockchain publique, nous analysons sous différents aspects pourquoi une entreprise (dans le système bancaire ou d'assurance, et l'industrie) décide qu'un protocole blockchain est plus légitime qu'un autre pour l'activité qu'elle veut développer en regardant les points de vue juridiques (en cas de litige). Nous associons à chaque blockchain une valeur probante qui permet d'assurer en cas de litige qu'une transaction a bien été effectuée. Nous illustrons notre proposition en utilisant treize blockchains en fournissant dans ce cas un classement entre ces blockchains pour leur utilisation en milieu professionnel. Nous associons à cette valeur probante certaines caractéristiques principales de toute blockchain comme la capitalisation boursière et la volatilité des rendements logarithmiques que les investisseurs doivent également prendre en compte avec la nouvelle valeur probante pour leur stratégie de gestion.
  • Analyse du risque de crédit à l'aide de modèles d'apprentissage automatique et profond.

    Dominique GUEGAN
    3small Business Risk, Financial Regulation and Big Data Analytics | 2018
    En raison de la technologie avancée associée au Big Data, de la disponibilité des données et de la puissance de calcul, la plupart des banques ou des établissements de crédit renouvellent leurs modèles économiques. Les prédictions du risque de crédit, la surveillance, la fiabilité des modèles et le traitement efficace des prêts sont essentiels à la prise de décision et à la transparence. Dans ce travail, nous construisons des classidiers binaires basés sur des modèles d'apprentissage automatique et profond sur des données réelles pour prédire la probabilité de défaut de paiement des prêts. Les 10 principales caractéristiques importantes de ces modèles sont sélectionnées puis utilisées dans le processus de modélisation pour tester la stabilité des classificateurs binaires en comparant leurs performances sur des données distinctes. Nous observons que les modèles basés sur les arbres sont plus stables que les modèles basés sur les réseaux neuronaux artificiels multicouches. Ceci ouvre plusieurs questions relatives à l'utilisation intensive des systèmes d'apprentissage profond dans les entreprises.
  • Analyse du risque de crédit à l'aide de modèles d'apprentissage automatique et profond.

    Peter martey ADDO, Dominique GUEGAN, Bertrand HASSANI
    SSRN Electronic Journal | 2018
    Pas de résumé disponible.
  • Test des effets de levier dans les rendements des actions américaines.

    Christophe CHORRO, Dominique GUEGAN, Florian IELPO, Hanjarivo LALAHARISON
    Journal of Empirical Finance | 2018
    Cet article remet en question l'utilité empirique des effets de levier pour prévoir la dynamique des rendements des actions. En échantillon, nous trouvons systématiquement une contribution significative mais limitée des effets de levier sur les 25 dernières années des rendements du S&P 500. Du point de vue de la prévision hors échantillon et en utilisant une variété de modèles différents, nous ne trouvons aucune valeur statistique ou économique dans l'utilisation des effets de levier, à condition qu'une distribution conditionnelle asymétrique et à queue grasse soit utilisée. Cette conclusion est valable tant au niveau de l'indice que pour 70 % des actions individuelles composant l'indice boursier.
  • Prévision non paramétrique des fonctions de densité de probabilité multivariées.

    Dominique GUEGAN, Matteo IACOPINI
    2018
    L'étude de la dépendance entre les variables aléatoires est au cœur de la statistique théorique et appliquée. Les modèles de copules statiques et dynamiques sont utiles pour décrire la structure de dépendance, qui est entièrement chiffrée dans la fonction de densité de probabilité de la copule. Cependant, ces modèles ne sont pas toujours capables de décrire le changement temporel des modèles de dépendance, qui est une caractéristique clé des données financières. Nous proposons un nouveau cadre non paramétrique pour modéliser une série temporelle de fonctions de densité de probabilité de copules, qui permet de prévoir la fonction entière sans avoir besoin de procédures de post-traitement pour garantir la positivité et l'intégrale unitaire. Nous exploitons une isométrie appropriée qui permet de transférer l'analyse dans un sous-ensemble de l'espace des fonctions intégrables carrées, où nous nous appuyons sur des techniques d'analyse fonctionnelle non paramétrique des données pour effectuer l'analyse. Le cadre ne suppose pas que les densités appartiennent à une famille paramétrique et il peut être appliqué avec succès également à des fonctions de densité de probabilité multivariées générales avec un support borné ou non borné. Enfin, un domaine d'application notable concerne l'étude des réseaux à variation temporelle représentés par des modèles de copules de vigne. Nous appliquons la méthodologie proposée pour estimer et prévoir la structure de dépendance variable dans le temps entre les indices S&P500 et NASDAQ.
  • Mesurer les risques dans la queue : La VaR extrême et son intervalle de confiance.

    Dominique GUEGAN, Bertrand HASSANI, Kehan LI
    Risk and Decision Analysis | 2017
    Contrairement à la tendance réglementaire actuelle concernant les risques extrêmes, l'objectif de cet article est de souligner la nécessité de considérer la Value-at-Risk (VaR) avec des niveaux de confiance extrêmes tels que 99,9%, comme un moyen alternatif de mesurer les risques dans la "queue extrême". Bien que la définition mathématique de la VaR extrême soit triviale, son calcul est difficile en pratique, car l'incertitude de la VaR extrême peut ne pas être négligeable pour une quantité finie de données. Nous commençons à construire des intervalles de confiance autour de la VaR inconnue. Nous les construisons en utilisant deux approches différentes, la première utilise le résultat gaussien asymptotique et la seconde l'approche du point de selle, cette dernière s'avère plus robuste lorsque nous utilisons des échantillons finis. Nous comparons notre approche avec d'autres méthodologies basées sur des techniques de bootstrapping, en nous concentrant sur l'estimation des quantiles extrêmes d'une distribution. Enfin, nous appliquons ces intervalles de confiance pour réaliser un exercice de stress testing avec les rendements historiques des actions pendant la crise financière, afin d'identifier les violations potentielles de la VaR pendant les périodes de turbulences sur les marchés financiers.
  • Bitcoin et les défis de la réglementation financière.

    Dominique GUEGAN, Anastasia SOTIROPOULOU
    Capital Markets Law Journal | 2017
    Le bitcoin est la monnaie virtuelle la plus populaire et a attiré une attention extraordinaire en tant qu'innovation financière. Cette attention résulte moins du rôle du bitcoin en tant que moyen de paiement numérique, d'échange et de réserve de valeur, que de la nature décentralisée des transactions en bitcoin.Les bitcoins présentent divers risques, certains étant éloignés et d'autres plus immédiats. Si les risques à distance ne nécessitent pas, à l'heure actuelle, d'intervention réglementaire, les risques immédiats ne doivent pas rester hors de portée du droit financier. Les régulateurs doivent mettre en place des cadres qui protègent contre ces risques, mais d'une manière qui ne bride pas l'innovation. Théoriquement, trois aspects de l'écosystème bitcoin peuvent faire l'objet d'une réglementation : le système bitcoin lui-même (protocole bitcoin), les utilisations du bitcoin et les membres du système bitcoin. La régulation du système Bitcoin lui-même s'avère extrêmement difficile car il n'y a pas d'autorité centrale qui administre et contrôle le système, qui pourrait être soumis à une régulation. Au contraire, la réglementation pourrait s'appliquer aux utilisations illégales qui peuvent être faites des bitcoins et à certains des membres du système Bitcoin, notamment les fournisseurs de services d'échange et de portefeuille.
  • Blockchain Publique versus Blockchain Privée : Enjeux et Limites.

    Dominique GUEGAN
    2017
    La blockchain est un sujet très prisé dans le milieu bancaire et de l'assurance, de quoi s'agit-il ? La notion de blockchain émane de la cryptographie et il s'agit d'un protocole permettant de transmettre des informations de manière sécurisée. Nous distinguerons deux approches, l'approche publique décentralisée et l'approche privée centralisée. Le concept de blockchain est apparu grâce à l'émergence de crypto-monnaie et en particulier du Bitcoin. Si la blockchain doit devenir un outil important au sein des banques alors il est nécessaire d'avoir une connaissance assez juste des outils sous-jacents et des enjeux associés à cette nouvelle technologie. En effet, il apparait nécessaire d'identifier les risques qui y sont associés et de proposer des stratégies en vue de les contrôler.
  • Blockchain publique vs Blockchain privée : enjeux et limites.

    Dominique GUEGAN
    Revue Banque | 2017
    La blockchain est un sujet très prisé dans le milieu bancaire et de l'assurance, mais de quoi s'agit-il exactement ? La notion de blockchain émane de la cryptographie et il s'agit d'un protocole permettant de transmettre des informations de manière sécurisée. Nous distinguerons l'approche publique décentralisée et l'approche privée centralisée.
  • Blockchain publique et contrats intelligents. Ethéreum : possibilités et limites.

    Dominique GUEGAN
    Revue Banque | 2017
    Ethéreum est un protocole d'échanges décentralisés qui ne produit pas seulement une crypto-monnaie, mais permet aussi la création par les utilisateurs de contrats intelligents (smart contrats). Mais si la plate-forme laisse beaucoup de libertés aux acteurs en termes de développement d'applications, des questions de sécurité et de robustesse se posent encore concernant le protocole, les plates-formes, les bugs dans le code des contrats.
  • Bitcoin et le défi de la réglementation.

    Dominique GUEGAN
    Vietnam Symposium in Banking and Finance | 2017
    En un laps de temps relativement court, les monnaies virtuelles ("VC") ont gagné beaucoup de terrain et sont devenues une réalité économique, le bitcoin étant la plus dominante parmi plus de 500 monnaies virtuelles. Leur avènement, qui a commencé avec le bitcoin en 2008, a rapidement explosé en un écosystème financier émergent qui offre de nouvelles possibilités pour les systèmes de paiement de pair à pair, la transmission d'argent et les opportunités d'investissement, non seulement pour les acheteurs et les vendeurs de monnaies virtuelles, mais aussi pour les investisseurs dans l'activité commerciale des monnaies virtuelles, et peut-être de manière plus significative, pour les consommateurs.
  • Apprentissage réglementaire : Application de l'apprentissage automatique à l'évaluation du crédit.

    Dominique GUEGAN, Bertrand HASSANI
    DMBD 2017 | 2017
    L'arrivée des stratégies Big Data menace les dernières tendances de la réglementation financière liées à la simplification des modèles et à l'amélioration de la comparabilité des approches choisies par les institutions financières. En effet, la philosophie dynamique intrinsèque des stratégies Big Data est presque incompatible avec le cadre légal et réglementaire actuel, comme illustré dans cet article. En outre, comme nous l'avons présenté dans notre application à l'évaluation du crédit, la sélection des modèles peut également évoluer de manière dynamique, ce qui oblige les praticiens et les régulateurs à développer des bibliothèques de modèles, des stratégies permettant de passer de l'un à l'autre ainsi que des approches de supervision permettant aux institutions financières d'innover dans un environnement où les risques sont réduits. L'objectif de cet article est donc d'analyser les questions liées à l'environnement Big Data et en particulier aux modèles d'apprentissage automatique, en mettant en évidence les problèmes présents dans le cadre actuel, en confrontant les flux de données, le processus de sélection des modèles et la nécessité de générer des résultats appropriés.
  • Blockchain publique contre blockchain privée.

    Dominique GUEGAN
    2017
    Dans ce document, nous introduisons quelques réflexions relatives au concept de blockchain, à son fonctionnement et à ses enjeux pour le système bancaire. Ainsi, nous rappelons d'abord ce qu'est la cryptographie, puis nous introduisons le concept de blockchain comme un protocole de transmission d'informations de manière sécurisée, en distinguant deux approches possibles : l'approche publique décentralisée et l'approche privée centralisée. La notion de crypto-monnaie est introduite et deux exemples d'applications des blockchains publiques que sont le bitcoin et l'etherium sont fournis.
  • Impact de la multimodalité des distributions sur les calculs de la VaR et de l'ES.

    Dominique GUEGAN, Bertrand HASSANI, Kehan LI
    2017
    La distribution de probabilité unimodale a été largement utilisée pour le calcul de la Value-at-Risk (VaR) par les investisseurs, les gestionnaires de risques et les régulateurs. Cependant, les données financières peuvent être caractérisées par des distributions ayant plus d'un mode. L'utilisation d'une distribution unimodale peut entraîner un biais dans le calcul de la mesure du risque. Dans cet article, nous examinons l'influence de l'utilisation de distributions multimodales sur le calcul de la VaR et de l'Expected Shortfall (ES). Deux familles de distributions multimodales sont considérées : La famille de Cobb et la famille de distorsion. Nous proposons deux méthodes de calcul de la VaR et de l'ES pour ces familles : une technique d'échantillonnage par rejet adaptée pour la famille de Cobb et une approche par inversion pour la famille de distorsion. Pour l'étude empirique, deux ensembles de données sont considérés : un ensemble de données quotidiennes concernant le risque opérationnel et un scénario de trois mois de rendement de portefeuille de marché construit à partir de données intrajournalières de cinq minutes. Avec un spectre complet de niveaux de confiance de 0001 à 0,999, nous analysons la VaR et l'ES pour voir l'intérêt d'utiliser une distribution multimodale plutôt qu'une distribution unimodale.
  • Sélection de variables et prévision par des méthodes automatisées pour les modèles linéaires : LASSO/adaLASSO et Autometrics.

    Camila EPPRECHT, Dominique GUEGAN, Alvaro VEIGA, Joel CORREA DA ROSA
    2017
    Dans cet article, nous comparons deux approches de méthodes de sélection de modèle pour les modèles de régression linéaire : l'approche classique - Autometrics (sélection automatique générale-spécifique) - et l'apprentissage statistique - LASSO (régularisation ℓ1-norm) et adaLASSO (LASSO adaptatif). Dans une expérience de simulation, en considérant une configuration simple avec des variables candidates orthogonales et des données indépendantes, nous comparons les performances des méthodes concernant le pouvoir prédictif (prévision hors échantillon), la sélection du modèle correct (sélection des variables) et l'estimation des paramètres. Le cas où le nombre de variables candidates dépasse le nombre d'observations est également considéré. Enfin, dans une application utilisant des données génomiques provenant d'une expérience à haut débit, nous comparons le pouvoir prédictif des méthodes pour prédire l'épaisseur de l'épiderme chez les patients psoriasiques.
  • Test des effets de levier dans les rendements des actions américaines.

    Christophe CHORRO, Dominique GUEGAN, Florian IELPO, Hanjarivo LALAHARISON
    2017
    Cet article remet en question l'utilité empirique des effets de levier pour décrire la dynamique des rendements des actions. En s'appuyant sur des tests en et hors échantillon, nous trouvons systématiquement une faible contribution des effets de levier sur les 25 dernières années des rendements du S&P 500. L'asymétrie de la distribution conditionnelle des modèles de séries temporelles des rendements explique la majeure partie de l'asymétrie de la distribution des rendements. Cette conclusion est valable à la fois au niveau de l'indice et pour 70% des actions individuelles composant l'indice boursier.
  • Apprentissage réglementaire : comment superviser les modèles d'apprentissage automatique ? Une application à l'évaluation du crédit.

    Dominique GUEGAN, Bertrand HASSANI
    2017
    L'arrivée des stratégies Big Data menace les dernières tendances de la réglementation financière liées à la simplification des modèles et à l'amélioration de la comparabilité des approches choisies par les institutions financières. En effet, la philosophie dynamique intrinsèque des stratégies Big Data est presque incompatible avec le cadre légal et réglementaire actuel, comme illustré dans cet article. En outre, comme nous l'avons présenté dans notre application à l'évaluation du crédit, la sélection des modèles peut également évoluer de manière dynamique, ce qui oblige les praticiens et les régulateurs à développer des bibliothèques de modèles, des stratégies permettant de passer de l'un à l'autre ainsi que des approches de supervision permettant aux institutions financières d'innover dans un environnement où les risques sont réduits. L'objectif de cet article est donc d'analyser les questions liées à l'environnement Big Data et en particulier aux modèles d'apprentissage automatique, en mettant en évidence les problèmes présents dans le cadre actuel, en confrontant les flux de données, le processus de sélection des modèles et la nécessité de générer des résultats appropriés.
  • Méthode d'estimation en trois étapes pour les séries chronologiques multiples non linéaires.

    Dominique GUEGAN, Giovanni DE LUCA, Giorgia RIVIECCIO
    2017
    Nous présentons l'estimation du pseudo maximum de vraisemblance en trois étapes afin de réduire la charge de calcul lorsqu'un modèle basé sur une copule est appliqué à des séries temporelles multiples dans des dimensions élevées. La méthode est appliquée à des séries temporelles de Markov stationnaires générales, sous certaines hypothèses qui incluent une copule invariante dans le temps ainsi que des distributions marginales, étendant les résultats de Yi et Liao [2010]. Nous explorons, par le biais de données simulées et réelles, la performance du modèle par rapport au modèle vectoriel autorégressif classique, en donnant les implications d'hypothèses mal spécifiées pour les marges et/ou la distribution conjointe et en fournissant des mesures de dépendance de queue des variables économiques impliquées dans l'analyse.
  • Blockchain publique et contrats intelligents (Smart Contrats). Les possibilités ouvertes par Ethéreum. et ses limites.

    Dominique GUEGAN
    2017
    Ethéreum est un protocole d'échanges décentralisés qui ne produit pas seulement une crypto-monnaie, mais permet aussi la création par les utilisateurs de smart contrats. Mais si la plateforme laisse beaucoup de libertés aux acteurs en termes de développement d'applications, des questions de sécurité et de robustesse se posent encore concernant le protocole, les plateformes, les bugs dans le code des contrats.
  • Une autre classe d'opérateurs de distorsion.

    Dominique GUEGAN, Bertrand HASSANI, Kehan LI
    2017
    L'opérateur de distorsion proposé par Wang (2000) a été développé dans la littérature actuarielle et fait maintenant partie de l'inventaire des outils de mesure du risque disponibles pour les praticiens de la finance et de l'assurance. Dans cet article, nous proposons une classe alternative d'opérateurs de distorsion avec une cartographie inverse analytique explicite. Les opérateurs de distorsion sont basés sur la fonction tangente permettant de transformer une distribution unimodale symétrique en une distribution multimodale asymétrique.
  • Mesure des risques dans la queue extrême : La VaR extrême et son intervalle de confiance.

    Dominique GUEGAN, Bertrand HASSANI, Kehan LI
    2017
    Contrairement à la tendance réglementaire actuelle concernant les risques extrêmes, l'objectif de cet article est de souligner la nécessité de considérer la Value-at-Risk (VaR) avec des niveaux de confiance extrêmes tels que 99,9%, comme un moyen alternatif de mesurer les risques dans la "queue extrême". Bien que la définition mathématique de la VaR extrême soit triviale, son calcul est difficile en pratique, car l'incertitude de la VaR extrême peut ne pas être négligeable pour une quantité finie de données. Nous commençons à construire des intervalles de confiance autour de la VaR inconnue. Nous les construisons en utilisant deux approches différentes, la première utilisant le résultat de Smirnov (Smirnov, 1949 [24]) et la seconde le résultat de Zhu et Zhou (Zhu et Zhou, 2009 [25]), montrant que cette dernière est robuste lorsque nous utilisons des échantillons finis. Nous comparons notre approche avec d'autres méthodologies basées sur des techniques de bootstrap, Christoffersen et al. (2005) [7], en nous concentrant sur l'estimation des quantiles extrêmes d'une distribution. Enfin, nous appliquons ces intervalles de confiance pour réaliser un exercice de stress testing avec les rendements historiques des actions pendant la crise financière, afin d'identifier les violations potentielles de la VaR pendant les périodes de turbulence sur les marchés financiers.
  • Blockchain Publique versus Blockchain Privée : Enjeux et Limites.

    Dominique GUEGAN
    Revue Banque | 2017
    La blockchain est un sujet très prisé dans le milieu bancaire et de l'assurance, de quoi s'agit-il ? La notion de blockchain émane de la cryptographie et il s'agit d'un protocole permettant de transmettre des informations de manière sécurisée. Nous distinguerons deux approches, l'approche publique décentralisée et l'approche privée centralisée. Le concept de blockchain est apparu grâce à l'émergence de crypto-monnaie et en particulier du Bitcoin. Si la blockchain doit devenir un outil important au sein des banques alors il est nécessaire d'avoir une connaissance assez juste des outils sous-jacents et des enjeux associés à cette nouvelle technologie. En effet, il apparait nécessaire d'identifier les risques qui y sont associés et de proposer des stratégies en vue de les contrôler.
  • Symétrie de réflexion multivariée des fonctions copules.

    Monica BILLIO, Lorenzo FRATTAROLO, Dominique GUEGAN
    2017
    Nous proposons un test de copule non paramétrique multivarié de symétrie de réflexion. Le test est valide dans un nombre quelconque de dimensions, ce qui étend les résultats précédents qui couvrent le cas bivarié. De plus, la théorie asymptotique du test s'appuie sur des résultats récents sur le bootstrap du multiplicateur dépendant, valable pour des données à mélange sub-exponentiel fort. Grâce à l'introduction de ces deux caractéristiques, la procédure est adaptée aux séries chronologiques financières dont la dépendance asymétrique, dans les périodes de détresse, a déjà été documentée ailleurs. Nous réalisons une étude de simulation approfondie de la taille et de la puissance empiriques et fournissons plusieurs exemples d'applications. En particulier, nous étudions l'utilisation de la statistique comme indicateur de stress financier en la comparant avec le CISS, l'indicateur principal de la BCE.
  • Impact de la multimodalité des distributions sur le calcul de la VaR et de l'ES.

    Dominique GUEGAN, Bertrand HASSANI, Kehan LI
    10th International conference of the ERCIM WG on Computational and Methodological Statistics (CMStatistics 2017) | 2017
    La distribution de probabilité unimodale - dont la densité de probabilité ne présente qu'un seul pic, comme la distribution gaussienne ou la distribution de Student - a été largement utilisée pour le calcul de la valeur à risque (VaR) par les régulateurs et les gestionnaires de risques. Cependant, un histogramme de données financières peut avoir plus d'un mode. Dans ce cas, premièrement, une distribution unimodale peut ne pas fournir un bon ajustement sur les données en raison du nombre de modes, ce qui peut conduire à un biais pour le calcul de la mesure du risque. Deuxièmement, ces modes dans les queues contiennent des informations importantes pour le trading et la gestion du risque. Pour capturer l'information dans les modes, nous examinons dans cet article comment utiliser une distribution multimodale - sa densité ayant plus d'un pic - de la famille de distribution de Cobb (Cobb et al., 1983), pour calculer la VaR et l'Expected Shortfall (ES) pour les données ayant un histogramme multimodal. En général, la fonction de distribution cumulative d'une distribution multimodale appartenant à la famille de distribution de Cobb n'a pas de forme fermée. Cela signifie que nous ne pouvons pas calculer la VaR et l'ES, ou générer des nombres aléatoires en utilisant des approches d'inversion classiques. Nous utilisons donc des techniques de Monte-Carlo pour calculer la VaR et l'ES pour la distribution de Cobb. Tout d'abord, sur la base de l'algorithme d'échantillonnage par rejet, nous développons un moyen de simuler des nombres aléatoires directement à partir d'une densité de probabilité multimodale appartenant à la famille de Cobb. Enfin, avec ces techniques, nous calculons la VaR et l'ES pour une donnée associée au risque de marché et une autre donnée associée au risque opérationnel.
  • Propriétés statistiques du modèle autorégressif spatial séparable à intégration fractionnée saisonnière.

    Papa ousmane CISSE, Abdou ka DIONGUE, Dominique GUEGAN
    Afrika Statistika | 2016
    Dans cet article, nous introduisons un nouveau modèle appelé "Fractionally Integrated Separable Spatial Autoregressive processes with Seasonality" et noté "Seasonal FISSAR". Nous nous concentrons sur la classe des modèles spatiaux séparables dont la structure de corrélation peut être exprimée comme un produit de corrélations. Cette nouvelle modélisation permet de prendre en compte les modèles de saisonnalité observés dans les données spatiales. Nous étudions les propriétés de ce nouveau modèle en fournissant des conditions stationnaires, une forme explicite de la fonction d'autocovariance et la densité spectrale. Nous établissons également le comportement asymptotique de la fonction de densité spectrale au voisinage des fréquences saisonnières.
  • Combiner les mesures de risque pour surmonter leurs limites - représentation spectrale de la question de la sous-additivité, exigence de distorsion et valeur ajoutée de la solution VaR spatiale : Une application aux exigences réglementaires des institutions financières.

    Dominique GUEGAN, Bertrand HASSANI
    2016
    Pour mesurer les principaux risques encourus par les institutions financières, par exemple les risques de marché, de crédit et opérationnels, en ce qui concerne les mesures de risque, les distributions utilisées pour les modéliser et le niveau de confiance, la réglementation offre un choix limité ou exige la mise en œuvre d'une approche particulière. Dans cet article, nous soulignons et illustrons les paradoxes et les problèmes observés lors de la mise en œuvre d'une approche plutôt qu'une autre, les incohérences entre les méthodologies proposées et les problèmes liés à leur interprétation. En partant de la notion de cohérence, nous discutons de leurs propriétés, nous proposons des solutions alternatives, de nouvelles mesures de risque comme les approches spectrales et spatiales, et nous fournissons aux praticiens et aux superviseurs quelques recommandations pour évaluer, gérer et contrôler les risques dans une institution financière.
  • Mesures du risque à risque - Sommes-nous à côté de la plaque ? Discussions autour de la sous-additivité et de la distorsion.

    Dominique GUEGAN, Bertrand k. HASSANI
    2016
    Ce papier discute les exigences réglementaires (Comité de Bâle, ECB-SSM etEBA) pour mesurer les risques majeurs des institutions financières, par exemple les risques de marché, de crédit et opérationnels, en ce qui concerne le choix des mesures de risque, le choix des distributions utilisées pour les modéliser et le niveau de confiance. Nous soulignons et illustrons les paradoxes et les problèmes observés lors de la mise en œuvre d'une approche plutôt qu'une autre, les incohérences entre les méthodologies proposées et les objectifs requis pour les atteindre. Nous nous concentrons sur la notion de sous-additivité et sur les mesures de risque alternatives, fournissant au superviseur quelques recommandations et aux gestionnaires de risque quelques outils pour évaluer et gérer les risques dans une institution financière.
  • Rétrécissement par ondelettes d'un système dynamique bruyant avec impact non linéaire du bruit.

    Matthieu GARCIN, Dominique GUEGAN
    Physica D: Nonlinear Phenomena | 2016
    En filtrant les coefficients d'ondelettes, il est possible de construire une bonne estimation d'un signal pur à partir de données bruitées. En particulier, pour une simple influence linéaire du bruit, Donoho et Johnstone (1994) ont déjà défini une conception optimale du filtre dans le sens d'une minimisation de l'erreur faite lors de l'estimation du signal pur. Nous établissons ici un cadre différent où l'influence du bruit est non-linéaire. En particulier, nous proposons une méthode pour filtrer les coefficients d'ondelettes d'un système dynamique discret perturbé par un faible bruit, afin de construire de bonnes estimations du signal pur, notamment l'estimation de Bayes, l'estimation minimax, l'estimation oraculaire ou l'estimation par seuillage. Nous présentons l'exemple d'un système dynamique logistique et d'un système dynamique chaotique de Lorenz ainsi qu'une adaptation de notre technique afin de montrer empiriquement la robustesse de la méthode de seuillage en présence d'un bruit leptokurtique. De plus, nous testons à la fois le seuillage dur et le seuillage doux, ainsi qu'un autre type de seuillage plus lisse qui semble avoir presque le même pouvoir de reconstruction que le seuillage dur. Enfin, outre les tests sur un ensemble de données estimées, la méthode est testée sur des données financières : prix du pétrole et taux de change NOK/USD.
  • Réglementation financière : Des mesures plus précises pour améliorer le contrôle et la prise en compte de l'incertitude intrinsèque de la VaR.

    Dominique GUEGAN
    vsbf: 2016 Vietnam Symposium in Banking and Finance | 2016
    Pendant la crise, l'échec des modèles et le manque de capture des expositions extrêmes ont conduit le régulateur à changer la façon dont les risques étaient analysés, soit en exigeant que les institutions financières utilisent une distribution de probabilité sub-exponentielle (), soit en changeant la façon dont les corrélations étaient capturées () ou en suggérant de passer de la VaR à des mesures de risque sub-additives (). En effet, les modèles ont joué un rôle majeur durant cette crise, soit comme catalyseurs, soit comme déclencheurs. Avant de capturer les dépendances, le point technique est le choix de la distribution de probabilité et son utilisation pour fournir une mesure de risque qui est le point clé pour les banquiers et les régulateurs. Il est maintenant bien connu et admis par les praticiens que l'information importante pour la gestion du risque se trouve dans les queues des distributions qui caractérisent les facteurs de risque. L'objectif de cet article est de discuter de la question de considérer les distributions utilisées pour caractériser les risques et les mesures de risque associées de manière indépendante, car nous soutiendrons que les distributions et les mesures de risque sont indivisibles.
  • Mesures du risque - Sommes-nous à côté de la plaque ? Discussions autour de la sous-additivité et de la distorsion.

    Dominique GUEGAN
    Conference on Banking and Finance | 2016
    Pour mesurer les principaux risques encourus par les institutions financières, par exemple les risques de marché, de crédit et opérationnels, en ce qui concerne les mesures de risque, les distributions utilisées pour les modéliser et le niveau de confiance, la réglementation offre un choix limité ou exige la mise en œuvre d'une approche particulière. Dans cet article, nous passons en revue, soulignons et illustrons les paradoxes et les problèmes observés lors de la mise en œuvre d'une approche plutôt qu'une autre, les incohérences entre les méthodologies proposées et les problèmes liés à leur interprétation. En commençant par une discussion sur les propriétés intrinsèques de deux mesures de risque classiques : la Value-at-Risk et l'Expected Shortfall, nous illustrons à chaque étape notre proposition par un exemple basé sur des données réelles utilisant des estimations des mesures de risque elles-mêmes. \footnote{Dans cet article, nous discutons des fondements théoriques des mesures de risque ainsi que de leurs estimations, en les appliquant à des données réelles à des fins de gestion du risque. Notre objectif n'est pas une discussion statistique des propriétés des estimations utilisées, pour cela nous renvoyons à un article complémentaire : (Guegan2016). Ainsi, cet exercice fournit aux praticiens et aux superviseurs quelques recommandations pour évaluer, gérer et contrôler les risques dans une institution financière en s'appuyant sur des approches alternatives, par exemple, les mesures de risque spectrales, spectrales, de distorsion et spatiales.
  • Des mesures plus précises pour des contrôles renforcés : VaR ou ES ?

    Dominique GUEGAN, Bertrand HASSANI
    2016
    Cet article analyse la façon dont les risques sont mesurés dans les institutions financières, par exemple les risques de marché, de crédit, opérationnels, etc. en ce qui concerne le choix des mesures de risque, le choix des distributions utilisées pour les modéliser et le niveau de confiance sélectionné. Nous discutons et illustrons les caractéristiques, les paradoxes et les problèmes observés en comparant la Value-at-Risk et l'Expected Shortfall dans la pratique. Cet article est construit comme un diagnostic différentiel et vise à discuter de la fiabilité des mesures de risque ainsi qu'à faire quelques recommandations.
  • Note sur un nouveau modèle autorégressif spatial séparable à intégration fractionnée saisonnière.

    Papa ousmane CISSE, Abdou ka DIONGUE, Dominique GUEGAN
    2016
    Dans cet article, nous introduisons un nouveau modèle appelé processus autorégressifs spatiaux séparables à intégration fractionnée avec saisonnalité et dénommé FISSAR saisonnier pour les données spatiales bidimensionnelles. Nous nous concentrons sur la classe des modèles spatiaux séparables dont la structure de corrélation peut être exprimée comme un produit de corrélations. Cette nouvelle modélisation permet de prendre en compte les schémas de saisonnalité observés dans les données spatiales. Nous étudions les propriétés de ce nouveau modèle en fournissant des conditions de stationnarité, certaines formes d'expressions explicites de la fonction d'autocovariance et de la fonction de densité spectrale. Nous établissons le comportement asymptotique de la fonction de densité spectrale au voisinage des fréquences saisonnières et effectuons quelques simulations pour illustrer le comportement du modèle.
  • Incertitude dans la valeur à risque historique : une mesure alternative du risque basée sur les quantiles.

    Dominique GUEGAN, Bertrand k. HASSANI, Kehan LI
    2016
    Le secteur financier a largement utilisé des mesures de risque basées sur des quantiles et reposant sur la valeur à risque (VaR). Ces mesures doivent être estimées à partir d'un ensemble de données historiques pertinentes. Par conséquent, elles contiennent des incertitudes. Nous proposons une mesure de risque alternative basée sur un quantile (la VaR spectrale sous contrainte) pour capturer l'incertitude dans l'approche historique de la VaR. Celle-ci offre une flexibilité au gestionnaire de risque pour mettre en œuvre le cadre réglementaire prudentiel. Il peut s'agir d'une mesure de risque stressée basée sur la VaR. Enfin, nous proposons une application de stress testing pour cette mesure.
  • Perspectives futures des modèles de risque et de la finance.

    Raphael DOUADY, Alain BENSOUSSAN, Dominique GUEGAN, Charles TAPIERO
    International Series in Operations Research & Management Science | 2015
    Ce livre offre une perspective sur un certain nombre d'approches de la modélisation financière et de la gestion des risques. Il examine à la fois les questions théoriques et pratiques. Sur le plan théorique, les modèles de risques financiers sont des modèles d'une "incertitude" réelle et financière, fondée sur des informations communes et privées et sur des théories économiques définissant les règles auxquelles se conforment les marchés financiers. Les modèles financiers sont donc remis en question par leurs définitions et par un système financier en mutation alimenté par la mondialisation, la croissance technologique, la complexité, la réglementation et les nombreux facteurs qui contribuent à rendre les processus financiers continuellement remis en question et réévalués. Les fondements mathématiques sous-jacents des modèles de risques financiers fournissent des lignes directrices futures pour la modélisation des risques. Les chapitres de l'ouvrage fournissent des aperçus et des développements sélectifs qui peuvent contribuer à mieux comprendre la complexité de la modélisation financière et sa capacité à faire le lien entre les théories financières et leur pratique. Future Perspectives in Risk Models and Finance commence par un exposé détaillé d'Alain Bensoussan et al. sur les techniques d'estimation des GLM, accompagné de preuves des résultats fondamentaux. Les applications aux modèles statiques et dynamiques fournissent une approche unifiée de l'estimation des modèles de risque non linéaires. Une deuxième section s'intéresse à la définition des risques et à leur gestion. En particulier, Guegan et Hassani passent en revue un certain nombre de définitions de modèles de risque en soulignant l'importance des distributions bi-modales pour la réglementation financière. Un chapitre supplémentaire passe en revue les tests de résistance et leurs implications. Nassim Taleb et Sandis proposent une approche anti-fragilité basée sur la "peau dans le jeu". Pour conclure, Raphael Douady discute du CAR (Capital Adequacy Rule) non cyclique et de leurs effets d'aversion des risques systémiques. Une troisième section met l'accent sur les approches et les techniques de modélisation financière analytique. Tapiero et Vallois donnent un aperçu des systèmes mathématiques et de leur utilisation dans la modélisation financière. Ces systèmes englobent le cadre fondamental Arrow-Debreu qui sous-tend les modèles financiers de marchés complets et, par la suite, des systèmes mathématiques s'écartant de ce cadre mais généralisant néanmoins leur approche aux modèles financiers dynamiques. Explicitement, des modèles basés sur le calcul fractionnel, sur la persistance (mémoire courte) et sur la non-extensivité basée sur l'entropie. Les applications de ces modèles sont utilisées pour définir une approche de modélisation des modèles financiers incomplets et leur utilisation potentielle comme "mesure d'incomplétude". Par la suite, Bianchi et Pianese donnent un aperçu complet des modèles multi-fractionnels et de leurs importantes applications à la modélisation des prix des actifs. Enfin, Tapiero et Jinquyi considèrent le modèle d'évaluation binomial en discutant des effets de la mémoire sur l'évaluation des prix des actifs.
  • Rétrécissement optimal par ondelettes d'un système dynamique bruyant avec impact non linéaire du bruit.

    Matthieu GARCIN, Dominique GUEGAN
    2015
    En filtrant les coefficients des ondelettes, il est possible de construire une bonne estimation d'un signal pur à partir de données bruitées. En particulier, pour une simple influence linéaire du bruit, Donoho et Johnstone (1994) ont déjà défini une conception optimale du filtre dans le sens d'une bonne reconstruction du signal pur. Nous établissons ici un cadre différent où l'influence du bruit est non-linéaire. En particulier, nous proposons une méthode optimale pour filtrer les coefficients d'ondelettes d'un système dynamique discret perturbé par un faible bruit, afin de construire de bonnes estimations du signal pur, notamment l'estimation de Bayes, l'estimation minimax, l'estimation oraculaire ou l'estimation par seuillage. Nous présentons l'exemple d'un système dynamique chaotique simple ainsi qu'une adaptation de notre technique afin de montrer empiriquement la robustesse de la méthode de seuillage en présence d'un bruit leptokurtique. De plus, nous testons le seuillage dur et le seuillage doux ainsi qu'un autre type de seuillage plus lisse qui semble avoir presque le même pouvoir de reconstruction que le seuillage dur.
  • A time series approach to option pricing : Models, Methods and Empirical Performances.

    Christophe CHORRO, Dominique GUEGAN, Florian IELPO
    2015
    Pas de résumé disponible.
  • Analyse factorielle dynamique des prix des quotas de carbone : De la théorie classique du prix d'arbitrage aux régimes de commutation.

    Dominique GUEGAN, Marius cristian FRUNZA, Antonin LASSOUDIERE
    International Journal of Financial Markets and derivative | 2015
    L'objectif de cet article est d'identifier les facteurs fondamentaux qui déterminent le marché des quotas et de construire un modèle de type APT afin de fournir des prévisions précises pour le CO2. Nous montrons que les modèles de dépendance historiques mettent l'accent sur l'énergie, le gaz naturel, le pétrole, le charbon et les indices boursiers comme étant les principaux facteurs déterminant les prix des quotas de carbone. Il est évident que les résidus du modèle sont fortement inclinés et asymétriques, et que la distribution hyperbolique généralisée fournit les meilleurs résultats d'ajustement. L'introduction de la dynamique dans les paramètres du modèle APT via un modèle de chaîne de Markov cachée donne de meilleurs résultats que les résultats obtenus avec une approche statique. Les résultats empiriques indiquent clairement que ce modèle peut être utilisé pour la prévision des prix, qu'il est efficace dans et hors échantillon et qu'il produit des résultats cohérents dans la prévision des prix à terme des quotas.
  • Risque ou capital réglementaire ? Remettre les distributions au premier plan.

    Dominique GUEGAN, Bertrand HASSANI
    2015
    Cet article traite de l'exigence réglementaire (Comité de Bâle, ECB-SSM et EBA) de mesurer les risques majeurs des institutions financières, par exemple les risques de marché, de crédit et opérationnels, en ce qui concerne le choix des mesures de risque, le choix des distributions utilisées pour les modéliser et le niveau de confiance. Nous soulignons et illustrons les paradoxes et les problèmes observés lors de la mise en œuvre d'une approche plutôt qu'une autre et les incohérences entre les méthodologies proposées et l'objectif à atteindre. Ce papier fait quelques recommandations au superviseur et propose des procédures alternatives pour mesurer les risques.
  • La VaR de contrainte spectrale (SSVaR).

    Dominique GUEGAN, Bertrand k. HASSANI, Kehan LI
    2015
    L'un des principaux enseignements de la crise qui a débuté en 2007 a été la nécessité de renforcer la couverture des risques dans le cadre des fonds propres. En réponse, le Comité de Bâle a achevé, en juillet 2009, un certain nombre de réformes essentielles du dispositif de Bâle II qui augmenteront les exigences de fonds propres pour le portefeuille de négociation et les expositions de titrisation complexes, une source majeure de pertes pour de nombreuses banques internationales actives. L'une des réformes consiste à introduire une exigence de fonds propres fondée sur la valeur à risque (VaR) en cas de crise, sur la base d'une période continue de 12 mois de tensions financières importantes (Bâle III (2011) [1]). Cependant, le cadre de Bâle ne spécifie pas de modèle pour calculer la VaR stressée et laisse aux banques le soin de développer un modèle interne approprié pour capturer les risques matériels auxquels elles sont confrontées. Par conséquent, nous proposons une mesure du risque de stress "VaR spectrale de stress" (SSVaR) comme modèle de mise en œuvre de la VaR stressée, en exploitant la propriété de normalité asymptotique de la distribution de l'estimateur de la VaR p. En particulier, pour permettre à la SSVaR d'incorporer les informations de la structure de queue, nous effectuons une analyse spectrale pour la construire. En utilisant un ensemble de données composé de facteurs de risque opérationnel, nous ajustons un panel de distributions pour construire la SSVaR afin de la mettre en évidence. De plus, nous montrons comment la SSVaR peut être un indicateur de la robustesse du modèle interne de la banque.
  • Une approche de l'analyse transversale basée sur les rangs.

    Dominique GUEGAN, Monica BILLIO, Ludovic CALES
    European Journal of Operational Research | 2015
    Les ratios de type Sharpe ont été traditionnellement utilisés pour mesurer les performances des gestionnaires de portefeuille. Cependant, ils sont connus pour présenter des inconvénients majeurs. Parmi ceux-ci, deux sont complexes : (1) ils sont relatifs à la performance d'un pair et (2) le meilleur score est généralement supposé correspondre à une "bonne" allocation de portefeuille, sans garantie sur la qualité de cette allocation. Enfin, (3) ces mesures souffrent d'importantes erreurs d'estimation, ce qui les empêche de distinguer les performances de deux gestionnaires. Dans cet article, nous proposons une mesure transversale de la performance des portefeuilles qui tient compte de ces trois problèmes. Tout d'abord, nous définissons le score d'un portefeuille sur une seule période comme le pourcentage de portefeuilles investissables surperformés par ce portefeuille. Ce score quantifie la qualité de l'allocation en remédiant aux inconvénients (1) et (2). La nouvelle information apportée par la transversalité de ce score est ensuite discutée à travers des applications. Dans un deuxième temps, nous construisons un indice de performance, comme le score moyen en coupe transversale sur des périodes successives, dont l'estimation répond partiellement à l'inconvénient (3). Afin d'évaluer son caractère informatif et en utilisant des données empiriques, nous comparons ses prévisions avec celles des ratios de Sharpe et de Sortino. Les résultats montrent que notre mesure est la plus robuste et la plus informative. Cela valide l'utilité d'une telle mesure de performance transversale.
  • A Time Series Approach to Option Pricing.

    Christophe CHORRO, Dominique GUEGAN, Florian IELPO
    2015
    Pas de résumé disponible.
  • Quel est le meilleur modèle pour le taux d'inflation américain : un modèle de changements structurels ou un processus de mémoire longue.

    Dominique GUEGAN, Lanouar CHARFEDDINE
    Journal of Applied Econometrics | 2015
    Ce papier analyse la dynamique de la série d'inflation américaine en utilisant deux classes de modèles : les modèles de changements structurels et les processus à longue mémoire. Pour la première classe, nous utilisons le modèle de Markov Switching (MS-AR) de Hamilton (1989) et le modèle de changement structurel (SCH-AR) en utilisant la méthode séquentielle proposée par Bai et Perron (1998, 2003). Pour la deuxième classe, nous utilisons le processus ARFIMA développé par Granger et Joyeux (1980). De plus, nous cherchons à savoir si le comportement de mémoire longue observé est un comportement réel ou un comportement parasite créé par la présence de ruptures dans les séries temporelles. Nos résultats empiriques fournissent des preuves de changements dans la moyenne, les dates de rupture coïncident exactement avec certains événements économiques et financiers tels que la guerre du Vietnam et les deux chocs pétroliers. De plus, nous montrons que le comportement de mémoire longue observé est fallacieux et est dû à la présence de ruptures dans la série de données.
  • Test de l'effet de levier dans les rendements financiers.

    Christophe CHORRO, Dominique GUEGAN, Florian IELPO, Hanjarivo LALAHARISON
    SSRN Electronic Journal | 2014
    Pas de résumé disponible.
  • Ajustement de la notation souveraine des pays émergents à l'aide d'informations de marché : Impact sur les décisions d'investissement des institutions financières.

    Dominique GUEGAN, Bertrand k. HASSANI, Xin ZHAO
    Emerging Markets and the Global Economy | 2014
    Pas de résumé disponible.
  • The Time Series Toolbox for Financial Returns.

    Christophe CHORRO, Dominique GUEGAN, Florian IELPO
    A Time Series Approach to Option Pricing | 2014
    Pas de résumé disponible.
  • Densité de probabilité des coefficients d'ondelettes empiriques d'un chaos bruyant.

    Matthieu GARCIN, Dominique GUEGAN
    Physica D: Nonlinear Phenomena | 2014
    Nous nous intéressons aux coefficients empiriques aléatoires en ondelettes d'un signal bruyant lorsque ce signal est un chaos unidimensionnel ou multidimensionnel. Plus précisément, nous fournissons une expression de la densité de probabilité conditionnelle de ces coefficients, étant donné une grille d'observation discrète. Le bruit est supposé être décrit par une variable aléatoire symétrique alpha-stable. Si le bruit est un bruit dynamique, alors nous présentons l'expression exacte de la densité de probabilité de chaque coefficient d'ondelette du signal bruyant. Si nous sommes confrontés à un bruit de mesure, alors le bruit a une influence non linéaire et nous proposons deux approximations. La première repose sur une expansion de Taylor tandis que la seconde, reposant sur une expansion d'Edgeworth, améliore la première approximation générale de Taylor si les cumulants du bruit sont définis. Nous donnons quelques illustrations de ces résultats théoriques pour la carte logistique, la carte de tente et un chaos multidimensionnel, la carte de Hénon, perturbé par un bruit gaussien ou un bruit de Cauchy.
  • Le modèle univarié MT-STAR et une nouvelle procédure de test de linéarité et de racine unitaire.

    Peter martey ADDO, Monica BILLIO, Dominique GUEGAN
    Computational Statistics & Data Analysis | 2014
    Une nouvelle procédure pour tester la linéarité et la racine unitaire dans un cadre non linéaire est proposée en introduisant un nouveau modèle - le modèle MT-STAR - qui a des propriétés similaires au modèle ESTAR mais qui réduit les effets du problème d'identification et peut également tenir compte de l'asymétrie dans le mécanisme d'ajustement vers l'équilibre. La distribution asymptotique du test de racine unitaire proposé est non standard et est dérivée. La puissance du test est évaluée par une étude de simulation et quelques illustrations empiriques sur les taux de change réels montrent son exactitude.
  • Des séries chronologiques de rendements aux prix des options : L'approche du facteur d'actualisation stochastique.

    Christophe CHORRO, Dominique GUEGAN, Florian IELPO
    A Time Series Approach to Option Pricing | 2014
    Pas de résumé disponible.
  • Mesure du risque de distorsion ou transformation de distributions unimodales en fonctions multimodales.

    Dominique GUEGAN, Bertrand HASSANI
    International Series in Operations Research & Management Science | 2014
    Pas de résumé disponible.
  • Ingénierie des tests de stress : La vraie mesure du risque ?

    Dominique GUEGAN, Bertrand k. HASSANI
    International Series in Operations Research & Management Science | 2014
    Pas de résumé disponible.
  • Dynamiques non linéaires et ondelettes pour l'analyse des cycles économiques.

    Peter martey ADDO, Monica BILLIO, Dominique GUEGAN
    Wavelet Applications in Economics and Finance | 2014
    Nous proposons une analyse de la modalité du signal pour caractériser et détecter les schémas de non-linéarité dans la série chronologique de l'indice de la production industrielle américaine. L'analyse est réalisée à l'aide de la méthode DVV (delay vector variance) récemment proposée, qui examine la prévisibilité locale d'un signal dans l'espace de phase afin de détecter la présence de déterminisme et de non-linéarité dans une série chronologique. Les paramètres d'intégration optimaux utilisés dans l'analyse DVV sont obtenus par une méthode basée sur l'entropie différentielle utilisant des substituts de Fourier et d'ondelettes. Une ondelette de Morlet complexe est utilisée pour détecter et caractériser le cycle économique américain. Une analyse complète de la faisabilité de cette approche est fournie. Nos résultats coïncident avec les dates des pics et des creux des cycles économiques publiées par le National Bureau of Economic Research (NBER).
  • Mesures du risque de distorsion ou transformation de distributions unimodales en fonctions multimodales.

    Dominique GUEGAN, Bertrand HASSANI
    2014
    Le sujet particulier de cet article est de construire un cadre général qui peut considérer et analyser en même temps les risques de hausse et de baisse. Cet article propose une analyse comparative des mesures de risque conceptuelles, nous nous concentrons sur la mesure de risque basée sur les quantiles (ES et VaR), la mesure de risque spectrale et la mesure de risque de distorsion. Après avoir présenté chaque mesure, nous étudions leur intérêt et leurs limites. Sachant que la mesure de risque basée sur le quantile ne peut pas capturer correctement l'aversion au risque du gestionnaire de risque et que la mesure de risque spectrale peut être inconsistante par rapport à l'aversion au risque, nous proposons et développons une nouvelle mesure de risque de distorsion en étendant les travaux de Wang (2000) [38] et de Sereda et al (2010) [34]. Enfin, nous fournissons une analyse complète de la faisabilité de cette approche en utilisant l'ensemble des données du S&P500 du 01/01/1999 au 31/12/2011.
  • Chronologie des points de retournement pour la zone euro : A distance plot approach.

    Peter martey ADDO, Monica BILLIO, Dominique GUEGAN
    OECD Journal: Journal of Business Cycle Measurement and Analysis | 2014
    Nous proposons une méthode transparente pour établir une chronologie des points de retournement du cycle économique de la zone euro. Notre analyse est réalisée en exploitant le concept des graphiques de récurrence, en particulier les graphiques de distance, pour caractériser et détecter les points de retournement du cycle économique. Tout d'abord, nous appliquons le concept des diagrammes de récurrence sur la série de l'indice de la production industrielle (IPI) des États-Unis. Cette série sert de référence pour notre analyse car elle contient déjà une chronologie de référence pour le cycle économique américain, telle que fournie par le comité de datation du National Bureau of Economic Research (NBER). Nous utilisons ensuite ce concept pour construire une chronologie des points de retournement pour le cycle économique de la zone euro. En particulier, nous montrons que cette approche permet de détecter les points de retournement et aide à l'étude du cycle économique sans hypothèses a priori sur les propriétés statistiques de l'indicateur économique sous-jacent.
  • Approches modernes de l'analyse non linéaire des séries chronologiques économiques et financières.

    Peter martey ADDO, Dominique GUEGAN, Monica BILLIO, Philippe de PERETTI, Dominique GUEGAN, Monica BILLIO, Michael ROCKINGER, Massimiliano CAPORIN
    2014
    L’axe principal de la thèse est centré sur des approches non-linéaires modernes d’analyse des données économiques et financières, avec une attention particulière sur les cycles économiques et les crises financières. Un consensus dans la littérature statistique et financière s’est établie autour du fait que les variables économiques ont un comportement non-linéaire au cours des différentes phases du cycle économique. En tant que tel, les approches/modèles non-linéaires sont requis pour saisir les caractéristiques du mécanisme de génération des données intrinsèquement asymétriques, que les modèles linéaires sont incapables de reproduire.À cet égard, la thèse propose une nouvelle approche interdisciplinaire et ouverte à l’analyse des systèmes économiques et financiers. La thèse présente des approches robustes aux valeurs extrêmes et à la non-stationnarité, applicables à la fois pour des petits et de grands échantillons, aussi bien pour des séries temporelles économiques que financières. La thèse fournit des procédures dites étape par étape dans l’analyse des indicateurs économiques et financiers en intégrant des concepts basés sur la méthode de substitution de données, des ondelettes, espace incorporation de phase, la m´méthode retard vecteur variance (DVV) et des récurrences parcelles. La thèse met aussi en avant des méthodes transparentes d’identification, de datation des points de retournement et de l´évaluation des impacts des crises économiques et financières. En particulier, la thèse fournit également une procédure pour anticiper les crises futures et ses conséquences.L’étude montre que l’intégration de ces techniques dans l’apprentissage de la structure et des interactions au sein et entre les variables économiques et financières sera très utile dans l’élaboration de politiques de crises, car elle facilite le choix des méthodes de traitement appropriées, suggérées par les données.En outre, une nouvelle procédure pour tester la linéarité et la racine unitaire dans un cadre non-linéaire est proposé par l’introduction d’un nouveau modèle – le modèle MT-STAR – qui a des propriétés similaires au modèle ESTAR mais réduit les effets des problèmes d’identification et peut aussi représenter l’asymétrie dans le mécanisme d’ajustement vers l’équilibre. Les distributions asymptotiques du test de racine unitaire proposées sont non-standards et sont calculées. La puissance du test est évaluée par simulation et quelques illustrations empiriques sur les taux de change réel montrent son efficacité. Enfin, la thèse développe des modèles multi-variés Self-Exciting Threshold Autoregressive avec des variables exogènes (MSETARX) et présente une méthode d’estimation paramétrique. La modélisation des modèles MSETARX et des problèmes engendrés par son estimation sont brièvement examinés.
  • Ingénierie des tests de stress : la vraie mesure du risque ?

    Dominique GUEGAN, Bertrand HASSANI
    2014
    Les tests de résistance sont utilisés pour déterminer la stabilité ou la résilience d'une institution financière donnée en la soumettant délibérément. Dans cet article, nous nous concentrons sur ce qui peut conduire une banque à faire faillite et sur la façon dont sa résilience peut être mesurée. Deux familles de déclencheurs sont analysées : la première concerne l'impact d'événements externes (et/ou extrêmes), la seconde concerne les impacts du choix de modèles inadéquats pour les prédictions ou la mesure des risques. Plus précisément, les modèles deviennent inadéquats avec le temps parce qu'ils ne sont pas suffisamment flexibles pour s'adapter aux changements dynamiques.
  • Performances empiriques des modèles de séries temporelles discrètes.

    Christophe CHORRO, Dominique GUEGAN, Florian IELPO
    A Time Series Approach to Option Pricing | 2014
    Pas de résumé disponible.
  • Introduction.

    Christophe CHORRO, Dominique GUEGAN, Florian IELPO
    A Time Series Approach to Option Pricing | 2014
    Pas de résumé disponible.
  • Chronologie des points de retournement pour la zone euro.

    Peter martey ADDO, Monica BILLIO, Dominique GUEGAN
    OECD Journal: Journal of Business Cycle Measurement and Analysis | 2014
    Nous proposons une méthode transparente pour établir une chronologie des points de retournement du cycle économique de la zone euro. Notre analyse est réalisée en exploitant le concept des graphiques de récurrence, en particulier les graphiques de distance, pour caractériser et détecter les points de retournement du cycle économique. Tout d'abord, nous appliquons le concept des diagrammes de récurrence sur la série de l'indice de la production industrielle (IPI) des États-Unis. Cette série sert de référence pour notre analyse car elle contient déjà une chronologie de référence pour le cycle économique américain, telle que fournie par le comité de datation du National Bureau of Economic Research (NBER). Nous utilisons ensuite ce concept pour construire une chronologie des points de retournement pour le cycle économique de la zone euro. En particulier, nous montrons que cette approche permet de détecter les points de retournement et aide à l'étude du cycle économique sans hypothèses a priori sur les propriétés statistiques de l'indicateur économique sous-jacent.
  • Dynamiques non linéaires et graphiques de récurrence pour la détection des crises financières.

    Peter martey ADDO, Monica BILLIO, Dominique GUEGAN
    2013
    Pas de résumé disponible.
  • Un test omnibus pour détecter l'hétérogénéité dans les séries chronologiques.

    Dominique GUEGAN, Philippe DE PERETTI
    Computational Statistics | 2013
    Cet article se concentre sur une procédure permettant de tester les changements structurels dans les deux premiers moments d'une série temporelle, lorsqu'aucune information sur le processus à l'origine des ruptures n'est disponible. Nous modélisons la série comme un processus auto-régressif d'ordre fini plus un polynôme orthogonal de Bernstein pour capturer l'hétérogénéité. Le test de la nullité de l'invariance temporelle est ensuite réalisé en testant l'ordre du polynôme, en utilisant soit un critère d'information, soit un test de restriction. Cette procédure est un test omnibus dans le sens où elle couvre à la fois les changements structurels discrets purs et certains modèles de changements continus. Dans une certaine mesure, notre article peut être considéré comme une extension de Heracleous et al. (Econom Rev 27:363-384, 2008).
  • Dynamiques non linéaires et graphiques de récurrence pour la détection des crises financières.

    Peter martey ADDO, Monica BILLIO, Dominique GUEGAN
    The North American Journal of Economics and Finance | 2013
    L'identification des bulles et des crises financières est un sujet de préoccupation majeur car il est important de prévenir les effondrements qui peuvent avoir un impact sévère sur les nations et les économies. Notre analyse porte sur l'utilisation de la méthode DVV (delay vector variance) récemment proposée, qui examine la prévisibilité locale d'un signal dans l'espace de phase afin de détecter la présence de déterminisme et de non-linéarité dans une série chronologique. Les paramètres d'intégration optimaux utilisés dans l'analyse DVV sont obtenus par une méthode basée sur l'entropie différentielle en utilisant des substituts basés sur les ondelettes. Nous exploitons le concept des graphiques de récurrence pour étudier le marché boursier afin de localiser les modèles cachés, la non-stationnarité, et d'examiner la nature de ces graphiques dans les événements de crise financière. En particulier, les graphiques de récurrence sont utilisés pour détecter et caractériser les cycles financiers. Une analyse complète de la faisabilité de cette approche est fournie. Nous montrons que notre méthodologie est utile pour le diagnostic et la détection des bulles financières, qui ont eu un impact significatif sur les bouleversements économiques au cours des dernières décennies.
  • Evaluation des modèles de changement de régime pour l'analyse en temps réel du cycle économique de la zone euro.

    Monica BILLIO, Laurent FERRARA, Dominique GUEGAN, Gian luigi MAZZI
    Journal of Forecasting | 2013
    Dans cet article, nous visons à évaluer les modèles à commutation de Markov et à seuil dans leur capacité à identifier les points de retournement des cycles économiques. En utilisant des données vintage mises à jour sur une base mensuelle, nous comparons leur capacité à dater ex post l'occurrence des points de retournement, évaluons la stabilité dans le temps du signal émis par les modèles et évaluons leur capacité à détecter en temps réel les signaux de récession. Nous montrons que l'utilisation concurrentielle de ces modèles permet une analyse et une détection plus robuste des points de retournement. Pour réaliser l'analyse complète, nous avons construit une base de données historique millésimée pour la zone euro remontant à 1970 pour deux variables macroéconomiques mensuelles d'une importance majeure pour les perspectives économiques à court terme, à savoir l'indice de production industrielle et le taux de chômage. Copyright © 2013 John Wiley & Sons, Ltd.
  • VaRs multivariées pour le calcul du capital de risque opérationnel : une approche par structure de vigne.

    Dominique GUEGAN, Bertrand k. HASSANI
    International Journal of Risk Assessment and Management | 2013
    L'approche des mesures avancées de Bâle exige que les institutions financières calculent les exigences de capital sur la base de données internes. Dans ce document, nous introduisons une nouvelle méthodologie permettant de lier les exigences de capital aux risques opérationnels. Les données sont disposées dans une matrice de 56 cellules. En construisant une architecture de vigne, qui est une décomposition bivariée d'une structure à n dimensions (n > 2), nous présentons une nouvelle approche pour calculer les VaR multivariées du risque opérationnel. Nous discutons des résultats multivariés concernant l'impact de la structure de dépendance d'une part, et de la modélisation LDF d'autre part. Notre méthode est simple à mettre en œuvre, facile à interpréter et conforme aux nouvelles exigences du Comité de Bâle.
  • Densité de probabilité des coefficients d'ondelettes d'un chaos bruyant.

    Matthieu GARCIN, Dominique GUEGAN
    2013
    Nous nous intéressons aux coefficients aléatoires en ondelettes d'un signal bruyant lorsque ce signal est l'attracteur unidimensionnel ou multidimensionnel d'un chaos. Plus précisément, nous donnons une expression pour la densité de probabilité de tels coefficients. Si le bruit est un bruit dynamique, alors notre expression est exacte. Si nous faisons face à un bruit de mesure, alors nous proposons deux approximations utilisant l'expansion de Taylor ou l'expansion d'Edgeworth. Nous donnons quelques illustrations de ces résultats théoriques pour la carte logistique, la carte de tente et la carte de Hénon, perturbées par un bruit gaussien ou un bruit de Cauchy.
  • Echantillon non stationnaire et méta-distribution.

    Dominique GUEGAN
    ISI Platinum Jubilee volume: statistical science and interdisciplinary research (International Conference of Statistical Paradigms - Recent Advances and Reconciliations) | 2013
    Pas de résumé disponible.
  • Processus de copules projetées empiriques et indépendance conditionnelle : une version étendue.

    Lorenzo FRATTAROLO, Dominique GUEGAN
    2013
    Pas de résumé disponible.
  • Comprendre la dynamique des taux de change.

    Peter martey ADDO, Monica BILLIO, Dominique GUEGAN
    2013
    Avec l'émergence de la théorie du chaos et de la méthode des données de substitution, les approches non linéaires employées dans l'analyse des séries temporelles souffrent généralement d'une complexité de calcul élevée et d'un manque d'explication directe. Il est donc préférable de disposer de méthodes capables de caractériser les séries temporelles en fonction de leur nature linéaire, non linéaire, déterministe et stochastique. Dans cet article, nous proposons une analyse de la modalité du signal sur une variété de taux de change. L'analyse est réalisée à l'aide de la méthode de " variance vectorielle de retard " (DVV) récemment proposée, qui examine la prévisibilité locale d'un signal dans l'espace de phase pour détecter la présence de déterminisme et de non-linéarité dans une série temporelle. Les paramètres d'intégration optimaux utilisés dans l'analyse DVV sont obtenus par une méthode basée sur l'entropie différentielle en utilisant des substituts basés sur les ondelettes. Une analyse complète de la faisabilité de cette approche est fournie. Les résultats empiriques montrent que la méthode DVV peut être choisie comme une méthode alternative pour comprendre la dynamique des taux de change.
  • Densité de probabilité des coefficients d'ondelettes d'un chaos bruyant.

    Matthieu GARCIN, Dominique GUEGAN
    2013
    Pas de résumé disponible.
  • Évaluation des options avec des processus de saut en temps discret.

    Dominique GUEGAN, Florian IELPO, Hanjarivo LALAHARISON
    Journal of Economic Dynamics and Control | 2013
    Dans ce papier, nous proposons de nouveaux modèles d'évaluation d'options basés sur la classe de modèles avec sauts contenus dans les modèles basés sur le type Lévy (NIG-Lévy, Schoutens, 2003, Merton-jump, Merton, 1976 et Duan based model, Duan et al., 2007). En combinant ces différentes classes de modèles avec plusieurs dynamiques de volatilité de type GARCH, nous visons à prendre en compte la dynamique des rendements financiers de manière réaliste. La dynamique risque-neutre associée aux modèles de séries temporelles est obtenue par deux spécifications différentes du noyau d'évaluation : nous fournissons une caractérisation du changement de la mesure de probabilité en utilisant la transformée d'Esscher et la mesure de Martingale à entropie minimale. Enfin, nous évaluons empiriquement la performance de cette approche de modélisation, en utilisant un ensemble de données d'options européennes basées sur les indices S&P 500 et CAC 40. Nos résultats montrent que les modèles impliquant des sauts et une volatilité variable dans le temps fournissent des résultats réalistes en matière de prix et de couverture pour des options avec différents types de temps jusqu'à l'échéance et d'argent. Ces résultats soutiennent l'idée qu'un modèle de série temporelle réaliste peut fournir des prix d'options réalistes, ce qui rend l'approche développée ici intéressante pour évaluer les options lorsque les marchés d'options sont illiquides ou lorsque de tels marchés n'existent tout simplement pas.
  • Chronologie des points de retournement pour la zone euro : une approche par diagramme de distance.

    Peter martey ADDO, Monica BILLIO, Dominique GUEGAN
    2013
    Pas de résumé disponible.
  • Comparaison des techniques de sélection des variables pour la régression linéaire : LASSO et Autometrics.

    Camila EPPRECHT, Dominique GUEGAN, Alvaro VEIGA
    2013
    Pas de résumé disponible.
  • Ajustement de la notation souveraine des pays émergents en utilisant l'information du marché : impact sur les décisions d'investissement des institutions financières.

    Dominique GUEGAN, Bertrand kian HASSANI, Xin ZHAO
    2013
    Pas de résumé disponible.
  • Modélisation alternative pour le risque à long terme.

    Dominique GUEGAN, Xin ZHAO
    Quantitative Finance | 2013
    Dans cet article, nous proposons une approche alternative pour estimer le risque à long terme. Au lieu d'utiliser la méthode statique de la racine carrée du temps, nous utilisons une approche dynamique basée sur la prévision de la volatilité par des modèles non linéaires. Nous explorons la possibilité d'améliorer les estimations en utilisant différents modèles et distributions. En comparant les estimations de deux mesures de risque, la valeur à risque et le manque à gagner attendu, avec différents modèles et innovations à court, moyen et long terme, nous constatons que le meilleur modèle varie avec l'horizon de prévision et que la distribution de Pareto généralisée donne les estimations les plus conservatrices avec tous les modèles à tous les horizons. Les résultats empiriques montrent que la méthode de la racine carrée sous-estime le risque à des horizons longs et que notre approche est plus compétitive pour l'estimation du risque sur un long terme.
  • Comprendre la dynamique des taux de change.

    Peter martey ADDO, Monica BILLIO, Dominique GUEGAN
    2013
    Pas de résumé disponible.
  • Dynamiques non linéaires et graphiques de récurrence pour la détection des crises financières.

    Peter martey ADDO, Monica BILLIO, Dominique GUEGAN
    2013
    L'identification des bulles et des crises financières est un sujet de préoccupation majeur car il est important de prévenir les effondrements qui peuvent avoir un impact sévère sur les nations et les économies. Notre analyse porte sur l'utilisation de la méthode DVV (delay vector variance), récemment proposée, qui examine la prévisibilité locale d'un signal dans l'espace de phase afin de détecter la présence de déterminisme et de non-linéarité dans une série temporelle. Les paramètres d'intégration optimaux utilisés dans l'analyse DVV sont obtenus par une méthode basée sur l'entropie différentielle en utilisant des substituts basés sur les ondelettes. Nous exploitons le concept des graphiques de récurrence pour étudier le marché boursier afin de localiser les modèles cachés, la non-stationnarité, et d'examiner la nature de ces graphiques dans les événements de crise financière. En particulier, les diagrammes de récurrence sont utilisés pour détecter et caractériser les cycles financiers. Une analyse complète de la faisabilité de cette approche est fournie. Nous montrons que notre méthodologie est utile pour le diagnostic et la détection des bulles financières, qui ont eu un impact significatif sur les bouleversements économiques au cours des dernières décennies.
  • Processus de Lévy et leurs applications en finance : analyse, méthodologie et estimation.

    Hanjarivo LALAHARISON, Dominique GUEGAN, Christophe CHORRO, Dominique GUEGAN, Florian IELPO, Juan pablo ORTEGA, Giovanni BARONE ADESI
    2013
    Processus de Lévy et leurs applications en finance.
  • Chronologie des points de retournement pour la zone euro : A Distance Plot Approach.

    Peter martey ADDO, Monica BILLIO, Dominique GUEGAN
    2013
    Nous proposons une manière transparente d'établir une chronologie des points de retournement pour le cycle économique de la zone euro. Notre analyse est réalisée en exploitant le concept de diagramme de récurrence, dans ce cas le diagramme de distance, pour caractériser et détecter les points de retournement du cycle économique pour tout système économique. Tout d'abord, nous exploitons le concept des diagrammes de récurrence sur la série de l'indice de la production industrielle (IPI) des États-Unis pour servir de point de repère à notre analyse puisqu'il existe déjà une chronologie de référence pour le cycle économique des États-Unis, fournie par le comité de datation du National Bureau of Economic Research (NBER). Nous utilisons ensuite ce concept pour construire une chronologie des points de retournement pour le cycle économique de la zone euro. En particulier, nous montrons que cette approche permet de détecter les points de retournement et d'étudier le cycle économique sans hypothèses a priori sur les propriétés statistiques de l'indicateur économique sous-jacent.
  • Utilisation d'une approche de séries chronologiques pour corriger la corrélation sérielle dans le calcul du capital de risque opérationnel.

    Dominique GUEGAN, Bertrand HASSANI
    2013
    L'approche de mesure avancée exige que les institutions financières développent des modèles internes pour évaluer le capital réglementaire. Traditionnellement, on utilise l'approche de la distribution des pertes (LDA), qui mélange les fréquences et les sévérités pour construire une fonction de distribution des pertes (LDF). Cette distribution représente les pertes annuelles. Par conséquent, le 99,9e percentile de la distribution fournissant la charge de capital dénote la pire année sur mille. L'approche traditionnelle approuvée par le régulateur et mise en œuvre par les institutions financières suppose que les pertes sont indépendantes. Cet article propose une solution pour résoudre les problèmes qui surviennent lorsque des autocorrélations sont détectées entre les pertes, en utilisant des séries temporelles. Ainsi, les pertes sont agrégées périodiquement et plusieurs modèles sont ajustés en utilisant des modèles autorégressifs, des processus autorégressifs à intégration fractionnée et des processus de Gegenbauer en considérant diverses distributions ajustées sur les résidus. La simulation de Monte Carlo permet la construction de la LDF, et le calcul des mesures de risque pertinentes. Ces approches dynamiques sont comparées aux méthodologies statiques traditionnelles afin de montrer leur impact sur les charges en capital, en utilisant plusieurs ensembles de données. La construction des LDFs et le calcul des charges de capital permettent de se conformer à la réglementation. En outre, la capture simultanée des phénomènes d'autocorrélation et des pertes importantes par l'ajustement de distributions adéquates sur les résidus, fournit une alternative à la sélection arbitraire du LDA.
  • Ajustement de la notation souveraine des pays émergents à l'aide d'informations de marché : Impact sur les décisions d'investissement des institutions financières.

    Dominique GUEGAN, Bertrand HASSANI, Xin ZHAO
    2013
    Les actifs, les dettes et autres produits financiers émis par les pays émergents sont généralement considérés comme plus spéculatifs que ceux émis par les économies développées. Par conséquent, se fier aux agences de notation traditionnelles pour investir dans ces pays est problématique car les informations utilisées pour évaluer la situation économique et la situation du marché dans ces économies sont rapidement dépassées. Par conséquent, les opportunités d'investissement et la nécessité d'assainir certaines positions peuvent être manquées, entraînant respectivement des coûts d'opportunité ou des pertes potentielles importantes. Par conséquent, une approche prenant en compte les dernières informations affichées par les marchés financiers peut nous permettre de contourner les limites traditionnelles. En conséquence, ce chapitre propose une méthodologie d'évaluation de la solvabilité basée sur l'ajustement des notations obtenues à partir des fondamentaux macroéconomiques (taux de croissance du PIB, inflation, dettes extérieures, etc.) et des mouvements des marchés financiers (obligations, volume des actions, volatilité, etc.). Dans un premier temps, un modèle général de panel est appliqué aux informations spécifiques à chaque pays afin de générer des notations fondamentales. Dans la deuxième étape, en appliquant un modèle multifactoriel aux indicateurs de marché et en décomposant les rendements des obligations souveraines à long terme en différentes primes de risque, on obtient les notations implicites du marché. Enfin, la notation à prendre en compte (dénommée "δ-Rating") à des fins d'investissement est une combinaison des notations fondamentales et des notations implicites du marché selon une méthode adaptée de Bühlmann-Straub (théorie de la crédibilité). Ensuite, les "δ-Rating" des pays émergents seront comparés à ceux obtenus des pays développés et discutés par rapport à l'appétit pour le risque des institutions financières.
  • Processus de copule projetée empirique et indépendance conditionnelle : une version étendue.

    Lorenzo FRATTAROLO, Dominique GUEGAN
    2013
    La dépendance conditionnelle est exprimée comme une carte de projection dans l'espace des copules trivariées. La copule projetée, sa contrepartie d'échantillon et le processus associé sont définis. La faible convergence du processus de la copule projetée vers un processus gaussien centré serré est obtenue sous de faibles hypothèses sur les dérivés de la copule.
  • Utilisation d'une approche de séries chronologiques pour corriger la corrélation sérielle dans le calcul du capital de risque opérationnel.

    Dominique GUEGAN, Bertrand HASSANI
    Journal of Operational Risk | 2013
    Pas de résumé disponible.
  • Évaluation des modèles de changement de régime pour l'analyse du cycle économique en temps réel de la zone euro.

    Laurent FERRARA, Monica BILLIO, Dominique GUEGAN, Gian luigi MAZZI
    Journal of Forecasting | 2013
    Pas de résumé disponible.
  • Quantification des risques opérationnels : méthodes efficientes de calcul de capital basées sur des données internes.

    Bertrand kian HASSANI, Dominique GUEGAN
    2011
    Les risques opérationnels sont les risques de pertes résultant d'une inadéquation ou d'une défaillance des procédures de l'établissement (analyse ou contrôle absent ou incomplet. Procédure non sécurisée), de son personnel (erreur, malveillance et fraude) des systèmes internes (panne informatique,. . . ) ou à des risques externes (inondation, incendie,. . . ). Elles ont attiré l'attention des autorités, suites aux pertes et banqueroutes qu'elles ont engendrées. Pour les modéliser, le régulateur impose aux institutions l'utilisation de données internes, de données externes, de scénarios et certains critères qualitatifs. Utilisant des données internes, dans le cadre de la Loss Distribution Approach, nous proposons plusieurs méthodes innovantes pour estimer les provisions inhérentes à ces risques. La première innovation traitant des méthodes de convolutions suggère de mélanger les simulations de Monte Carlo, l'estimation de la densité par noyaux et l'algorithme de Panjer pour construire la distribution de perte. La seconde solution se concentre sur la modélisation de la queue droite des distributions de sévérité utilisant plusieurs résultats de la théorie des valeurs extrêmes et les méthodes d'estimation de paramètres de distributions tronquées. La troisième méthode que nous présentons s'intéresse aux calculs de VaR multivariés. Mettant en oeuvre des grappes de copules pour capter certains comportements particuliers tels que la dépendance de queue, nous fournissons un nouveau type d'architectures permettant de calculer la VaR globale.
  • Méthodes non paramétriques : estimation, analyse et applications aux cycles économiques.

    Patrick RAKOTOMAROLAHY, Dominique GUEGAN
    2011
    Cette thèse se concentre sur l'étude des propriétés de la fonction régression par des méthodes non paramétriques pour des processus dépendants et l'application de ces méthodes dans l'analyse des cycles économiques. On résume ci-dessous les résultats théoriques et les résultats empiriques obtenus dans ce cadre. Le premier résultat théorique concerne la biais, la variance, l'erreur quatratique et la normalité asymptotique de deux estimateurs non-paramétriques: plus proche voisin et fonction radiale de base. L'autre résultat théorique était l'extension des tests d'enveloppements dans le cas de processus dépendant permettant de comparer différentes méthodes paramétriques et non paramétriques. On a établi la normalité asymptotique des statistiques associées à ces tests. Les travaux empiriques ont été de proposer ces méthodes non paramétriques dans la prévision des activités économiques réelles à partir des indicateurs économiques et des variables financières, pour palier quelques hypothèses jugeant très fortes dans l'approche paramétrique. On a trouvé l'intérêt des méthodes non paramétriques dans la prévision de produit intérieur brut (PIB) de la zone euro. On a revu le rôle ds variables financières dans le choix de modèles et dans la sélection des variables.
  • Valorisation du risque en assurance non-vie.

    Mathieu GATUMEL, Dominique GUEGAN
    2009
    Cette thèse est centrée sur la valorisation du risk en assurance non-vie. Elle est construite à partir de 5 contributions principales. Tout d'abord, nous fournissons un exemple de risque d'assurance non-vie à travers le risque de défaut des réassureurs. Un état du secteur de la réassurance, les façons de mesurer l'exposition des assureurs à ce risque et les enjeux en terme de politique de réassurance sont exposés. Ensuite, trois chapitres sont dévolus aux insurance linked securities. Le chapitre 2 permet de présenter les données que nous avons pu collecter depuis trois ans, relatives à la fois au marché primaire et au marché secondaire. Le chapitre 3 met en avant le prix de marché du risque sur ce marché-là. Le chapitre 4 est relatif à une analyse dynamique de l'indice de spreads des insurance linked securities. Ces trois chapitres permettent d'identifier les facteurs principaux qui régissent les rendements sur le marché : incertitude des investisseurs, effets de diversification et expérience de perte. Ces éléments contribuent enfin à présenter au chapitre 5 notre philosophie sur un coût de capital pertinent pour les compagnies d'assurance. Nous analysons les approches traditionnelles utilisées dans le secteur de l'assurance et proposons une nouvelle façon d'y faire face. Il apparaît que le prix du risque doit dépendre du panier de risque auquel il appartient, du niveau de risque considéré et de la période.
  • Analyse des processus longue mémoire stationnaires et non-stationnaires : estimations, applications et prévisions.

    Zhiping LU, Dominique GUEGAN
    2009
    Dans cette thèse, on considère deux types de processus longues mémoires : les processus stationnaires et non-stationnaires. Nous nous consacrons à l’étude de leurs propriétés statistiques, les méthodes d’estimation, les méthodes de prévision et les tests statistiques. Les processus longue mémoire stationaires ont été largement étudiés au cours des dernières décennies. Il a été démontré que des processus longue mémoire ont des propriétés d’autosimilarité, qui sont importants pour l’estimation des paramètres. Nous passons en revue les propriétés d’auto-similairité des processus longue mémoire en temps continu et en temps discret. Nous proposons deux propositions montrant que les processus longue mémoire sont asymptotiquement auto-similaires du deuxième ordre, alors que processus courte mémoire ne sont pas asymptotiquement auto-similaires du deuxième ordre. Ensuite, nous étudions l’auto-similairité des processus longue mémoire spécifiques tels que les processus GARMA à k facteurs et les processus GIGARCH à k facteurs. Nous avons également étudié les propriétés d’auto-similarités des modèles heteroscedastiques et des processus avec des sauts. Nous faisons une revue des méthodes d’estimation des paramètres des processus longue mémoire, par méthodes paramétriques (par exemple, l’estimation par maximum de vraisemblance et estimation par pseudo-maximum de vraisemblance) et les méthodes semiparamétriques (par exemple, la méthode de GPH, la méthode de Whittle, la méthode de Robinson). Les comportements de consistance et de normalité asymptotique sont également étudiés pour ces estimateurs. Le test sur l’ordre fractionnaire intégré de la racine unité saisonnière et non-saisonnière des processus longue mémoire stationnaires est très important pour la modélisation des series économiques et financières. Le test de Robinson (1994) est largement utilisé et appliqué aux divers modèles longues mémoires bien connus. A partir de méthode de Monte Carlo, nous étudions et comparons les performances de ce test en utilisant plusieurs tailles d’échantillons. Ce travail est important pour les praticiens qui veulent utiliser le test de Robinson. Dans la pratique, lorsqu’on traite des données financières et économiques, la saisonnalité et la dépendance qui évolvent avec le temps peuvent souvent être observées. Ainsi une sorte de non-stationnarité existe dans les données financières. Afin de prendre en compte ce genre de phénomènes, nous passons en revue les processus non-stationnaires et nous proposons une nouvelle classe de processus stochastiques: les processus de Gegenbauer à k facteurs localement stationnaire. Nous proposons une procédure d’estimation de la fonction de paramètres en utilisant la transformation discrète en paquets d’ondelettes (DWPT). La robustesse de l’algorithme est étudiée par simulations. Nous proposons également des méthodes de prévisions pour cette nouvelle classe de processus non-stationnaire à long mémoire. Nous dennons des applications sur le terme de la correction d’erreurs de l’analyse cointégration fractionnaire de l’index Nikkei Stock Average 225 et nous étudions les prix mondiaux du pétrole brut.
  • Les crises financières et les effets de contagion dans les économies émergentes : caractérisation et mesure.

    Octavie MBIAKOUP KONGUEP, Dominique GUEGAN
    2008
    La décennie 90 a été marquée par de nombreuses crises financières et monétaires dans les pays émergents. Ces crises ont eu tendance à être chronologiquement et parfois géographiquement groupées. c'est à dire à s'étendre entre pays et ceci indépendamment des fondamentaux macro économiques des pays concernés. La crise en Asie du Sud Est de 19971998 est l'illustration la plus marquée de ce que l'on appelle dans la littérature économique \textit{la contagion}. Cette notion a suscité beaucoup de discussions et de recherches. Nous nous intéressons par conséquent à la modélisation de la contagion de six marchés financiers des pays d'Asie. Nous souhaitons vérifier si la crise qui a débuté en Thaïlande en juillet 1997 s'est transmise aux autres pays par voie de contagion, à travers les indices composites et les volumes de transaction. Pour cela nous construisons d'abord un indicateur de crise en utilisant les volumes échangés sur le marché et les indices composites. Nos résultats précisent un seuil au delà duquel une crise est imminente dans ces pays. Par la suite, nous utilisons le modèle de fonction de transfert afin de montrer l'existence d'une structure de dépendance entre les marchés avant et pendant la crise. A l'aide d'un test, nous comparons si la structure de dépendance entre deux marchés change pendant la crise, comparativement à la période stable.
  • L'intégration de l'information dans le prix des actifs financiers.

    Florian IELPO, Dominique GUEGAN
    2008
    Le sujet principal de cette thèse est l'intégration de l'infonnation macroéconomique et financière par les marchés financiers. Les contributions presentées ici sont au nombre de cinq. Les trois premières utilisent de récentes avancées de l'économétrie de la valorisation d'actifs. L'objectif est de mesurer les anticipations, l'aversion au risque ou simplement de prévoir le prix des produits dérivés. (1) Tout d'abord, on introduit une nouvelle méthode économétrique pennettant d'estimer l'évolution de la distribution subjective à partir des futures sur taux d'intérêt. (2) Ensuite, à partir des cotations d'options et des futures sur le marché européen du Carbone, on met en évidence l'impact de la publication des quotas d'émission attribués par la Commission Européenne sur l'aversion au risque dans ce nouveau marché. (3) Puis, on présente un nouveau modèle d'évaluation de produits dérivés basé sur des rendements suivant une loi hyperbolique généralisée sous la mesure historique. Le modèle conduit à de faibles erreurs de prix, lorsqu'on compare à la littérature existante. Enfin, deux thèmes liés à l'impact des nouvelles macro-économiques sur la courbe des taux sont présentés ici: (4) on montre tout d'abord que la perception de l'impact d'une surprise sur le marché des taux européens est grandement modifiée lorsque l'on tient compte de l'influence américaine. (5) Ensuite, on quantifie l'intuition largement répandue selon laquelle la fonne de la structure par terme de l'impact des nouvelles sur la courbe des taux dépend des conditions économiques et monétaires, et ceci dans le cas américain.
  • Valorisation et gestion de dérivés de crédit : les CDOs synthétiques ou la croissance exponentielle des produits de corrélation.

    Julien HOUDAIN, Dominique GUEGAN
    2006
    Ce travail de thèse repose sur l'utilisation de méthodes quantitatives pour la valorisation et la gestion de structures de type CDOs synthétiques. Nous illustrons les limites des approches standards et développons une méthode de valorisation novatrice fondée sur l'utilisation de la distribution normale inverse gaussienne (NIG) et de niveaux de corrélation historiques. Nous comparons ces différentes approches et en étudions l'impact sur la gestion des tranches. Nous élargissons ensuite nos recherches aux tranches de CDO^2 et développons deux méthodes originales pour la valorisation de ces produits. Enfin, nous étudions les opportunités offertes par la gestion et la couverture de tranches standardisées d'indices CDS et illustrons plus précisément deux sources de risque venant s'additionner au risque de crédit, le risque de modèle et le risque de corrélation.
  • Modélisation longue mémoire multivariée : applications aux problématiques du producteur d'EDF dans le cadre de la libéralisation du marché européen de l'électricité.

    Abdou ka DIONGUE, Dominique GUEGAN
    2005
    Plusieurs données de marchés financiers, telles que les prix spot de marchés européens de l'électricité interconnectés, présentent de la longue mémoire, au sens de la décroissance hyperbolique des autocorrélations combinée avec un phénomène d'hétéroskédasticité et de cycles périodiques ou non. Pour modéliser de tels comportements, nous introduisons d'une part les processus GIGARCH à k facteurs et nous proposons deux méthodes d'estimation des paramètres. Nous développons les propriétés asymptotiques des estimateurs de chacune des méthodes. De plus, afin de comparer les propriétés asymptotiques des estimateurs, des simulations de Monté Carlo sont effectuées. D'autre part, nous proposons un modèle longue mémoire généralisé multivarié (MVGARMA à k facteurs) pour modéliser conjointement deux marchés européens de l'électricité interconnectés. Nous donnons une procédure pratique d'estimation des paramètres. Pour la prévision, nous fournissons les expressions analytiques des prédicteurs de moindres carrés pour les modèles proposés et les intervalles de confiance des erreurs de prévision. Enfin, nous appliquons ces deux modèles sur les prix spot de l'électricité des marchés français et allemand et nous comparons leurs capacités prédictives.
  • Le risque de marché : mesures et backtesting : approche par les copules dynamiques.

    Cyril r. CAILLAULT, Dominique GUEGAN
    2005
    Cette thèse traite de l'utilisation des fonctions copules pour mesurer le risque du marché. Chapitre 1, nous rappelons les résultats principaux relatifs aux copules: définitions,théorème de Sklar,constructions, mesures de concordance, dépendance de queue, algorithmes de simulations. Chapitre 2, nous proposons une méthode non paramétrique d'estimation fondée sur la notion de dépendance de queue. Nous la comparons à la méthode de l'omnibus". Nous montrons que le choix de la meilleure copule peut être différent selon la méthode. Les résultats nous permettent nous permettent de montrer l'existence de co mouvements entre les Tigres d'Asie. Chapitre 3, nous développons des méthodes dynamiques pour calculer la Valeur à Risque et l'Expected Shortfall. Le choix de la mesure de risque est discuté relativement à l'amendement de l'accord de Bâle. Chapitre 4, nous introduisons la notion de copule dynamique pour le calcul de la Valeur à Risque. Trois tests statistiques sont proposés afin de valider cette méthode de calcul.
  • Modèles à changements de régimes markoviens : détection des régimes, mémoire courte ou mémoire longue et prévision.

    Stephanie RIOUBLANC, Dominique GUEGAN
    2005
    Dans ce travail, nous nous intéressons à l'étude des modèles à changements de régimes markoviens. Nous étudions la possible détection de plusieurs régimes au sein de données simulées à partir de modèles à changements de régimes markoviens au moyen de différents estimateurs empiriques. Nous étudions d'autre part le comportement de mémoire longue ou de mémoire courte de ces modèles et comparons leurs performances de prévision avec celles de modèles à mémoire longue.
  • Indices boursiers internationaux et la crise des nouvelles technologies : approches switching et DCC-MVGARCH.

    Ryan SULEIMANN, Dominique GUEGAN
    2003
    Depuis la crise boursi`ere du secteur des Nouvelles Technologies en 2000 et la croissance très grande de la volatilité des actifs boursiers par rapport à ce qui a précédé cette année, la modélisation de cette volatilité et son effet de contagion à travers les marchés boursiers dans le monde, a suscité beaucoup de discussions et de recherches. Nous nous intéressons par conséquent, à la modélisation de la volatilité de trois indices technologiques : NASDAQ-100, IT. CAC et NEMAX et cinq indices globaux : Dow Jones Industrial Average, Standard & Poor 500, NASDAQ Composite, DAX et CAC40, afin de vérifier si le risque d’investissement, mesuré par la valeur à risque (VaR) a changé suite à la crise technologique et afin de montrer que la crise technologique, parmi toutes les crises boursières vécues, est la crise qui a le plus affecté les marchés boursiers à travers le monde. Notre calcul de la VaR exige une modélisation précise de la volatilité des séries étudiées et l’identification de la présence de corrélations conditionnelles dynamiques ou non. Nous utilisons différents modèles pour modéliser la volatilité des indices étudiés, notamment différents modèles à changements de régimes (SWARCH, SWGARCH et MSVECM) et le modèle GARCH multivari é à corrélations conditionnelles dynamiques (DCC-MVGARCH). Nous utilisons les modèles à changements de régimes et les modèles VAR afin de montrer l’existence d’effets de co-mouvements et de contagion entre les indices étudiés et le modèle DCC-MVGARCH afin de montrer l’effet de la crise technologique sur l’augmentation de la volatilité des marchés boursiers et la présence de corrélations dynamiques qui les lient, ainsi que pour le calcul de la VaR. Nous comparons à la fin les VaR calculées par le modèle DCC-MVGARCH avec des VaR calculée par la méthode non-paramétrique des copules.
  • Les Processus Longue Mémoire : Prévisions, Estimations et Valeurs Extrêmes.

    Jerome COLLET, Dominique GUEGAN
    2003
    Ce travail concerne l'étude de processus Longue mémoire (LM dans la suite). Après avoir rappelé le concept de LM, nous présentons, Chapitre 1, les processus LM du type Gegenbauer. Des propriétés sont rappelées, ainsi que des méthodes d'estimations et de prévisions de séries au moyen de ces processus. Chapitre 2, nous nous intéressons aux processus LM non gaussiens. Une méthode permettant de construire ces processus est développée et utilisée ensuite en vue d'estimations et de prévisions de séries temporelles. Chapitre 3, nous étudions différents problèmes intervenant lors de la modélisation de séries au moyen de processus de Gegenbauer, comme la sous-modélisation. Chapitre 4, nous nous intéressons aux comportements extrêmes de processus en appliquant les résultats du Chapitre 2. Après avoir énoncé quelque propriétés concernant le comportement extrême de quelques processus indépendants et stationnaires, nous donnons des propriétés de l'indice extrême pour ces processus.
  • Comment mesurer le risque d'un portefeuille grâce à l'étude statistique de processus non linéaires.

    Sophie LADOUCETTE, Dominique GUEGAN
    2002
    Pas de résumé disponible.
  • Processus longue mémoire généralisés : estimation, prévision et applications.

    Laurent FERRARA, Dominique GUEGAN
    2000
    On s'intéresse à une certaine classe de modèles paramétriques de série chronologique : les processus longue mémoire généralisés, introduits dans la littérature statistique au début des années 1990. Ces processus longue mémoire généralisés prennent en compte simultanément dans la modélisation de la série, une dépendance de long terme et une composante cyclique périodique persistante. Ce type de phénomène est fréquent dans de nombreux champs d'application des statistiques, tels que l'économie, la finance, l'environnement ou les transports publics. Nous avons proposé une méthode d'estimation simultanée par pseudo-maximum de vraisemblance de l'ensemble des paramètres du modèle, et une méthode semiparamétrique d'estimation des paramètres de longue mémoire. Nous avons montré la consistance de chacun de ces estimateurs et nous avons donné leur distribution limite, les résultats étant validés par des simulations de Monte Carlo. Nous avons également comparé les performances de chacun de ces estimateurs sur des données réelles. En ce qui concerne la prévision, nous avons fourni les expressions analytiques du prédicteur des moindres carrés et de son intervalle de confiance. Nous avons comparé sur des données réelles les performances en prévision des processus longue mémoire généralisés et celles d'autres processus à courte et longue mémoire.
  • Séries temporelles chaotiques appliquées à la finance problèmes statistiques et algorithmiques.

    Ludovic MERCIER, Dominique GUEGAN
    1998
    Notre contribution à l'étude des séries temporelles chaotiques porte sur les points suivants. Nous proposons un cadre d'étude permettant de prendre en compte les apports des différents domaines scientifiques traitant de ce type de données : traitement du signal, systèmes dynamiques, théorie ergodique, finance et statistiques. Nous précisons la notion d'exposant de Lyapunov global à l'aide de plusieurs définitions, de la plus formelle à la plus usitée. Nous montrons pourquoi les exposants de Lyapunov globaux sont utiles pour caractériser un chaos mais pratiquement inutiles lorsqu'il s'agit de faire des prévisions. On s'intéresse alors aux exposants de Lyapunov locaux. On montre comment chaque définition est reliée aux exposants de Lyapunov globaux et on précise dans quel cadre applicatif chaque définition est pertinente. On donne un résultat nouveau concernant la distribution des exposants de Lyapunov locaux. Nous considérons les méthodes de prévisions non-paramétriques utilisables dans ce contexte en en détaillant deux qui semblent particulièrement adaptées aux chaos : les plus proches voisins et les fonctions radiales. Ce dernier estimateur fait l'objet d'une étude plus approfondie. On précise ses propriétés et on donne un algorithme pour le mettre en œuvre. Nous étudions la prédictibilité des séries temporelles chaotiques. On montre comment l'horizon de prédiction est relié aux exposants de Lyapunov locaux du système. On propose une approche théorique nouvelle pour traiter le cas des chaos bruités. On s'intéresse au problème du choix d'un pas d'échantillonnage pour les séries chaotiques issues d'un système en temps continu. On donne un résultat nouveau permettant de choisir un pas d'échantillonnage optimal au sens de l'horizon de prédiction. Nous étayons ces présentations d'un ensemble de simulations à partir de chaos connus en précisant leurs couts algorithmiques. On discute les problèmes posés par la simulation des séries temporelles chaotiques. Enfin, nous donnons deux applications des outils développés dans le cadre des séries financières infra-journalières. La première application est une illustration directe de ces outils dans le cas des taux de change. La seconde application fait préalablement appel aux méthodes de déformation du temps qui sont présentées ici dans un cadre unifié nouveau.
  • Etude de tests paramétriques et non-paramétriques asymptotiquement puissants pour les modèles autorégressifs bilinéaires.

    Joseph NGATCHOU WANDJI, Dominique GUEGAN
    1995
    Le test du multiplicateur de Lagrange apparait comme un bon outil pour tester les modèles bilinéaires diagonaux d'ordre un. Nous l'utilisons pour discriminer entre modèles autorégressifs linéaires d'ordre un, et certains modèles bilinéaires sous-diagonaux d'ordre deux, pour lesquels nous donnons une condition nécessaire et suffisante d'inversibilité. Nous prouvons la contigüité de l'hypothèse nulle et d'une suite d'alternatives locales, ce qui nous permet, grâce au troisième lemme de le Cam, d'obtenir une expression explicite de la puissance théorique locale du test. Des simulations numériques de Monte Carlo montrent que cette puissance est bien estimée par la puissance expérimentale. Nous constatons d'autre part que ce test s'avère bon pour tester les types d'hypothèses considérées. Les tests paramétriques comme celui du multiplicateur de Lagrange, du fait qu'ils sont construits pour des modèles paramétriques spécifiques, peuvent manquer de robustesse . d'ou l'intérêt des tests non-paramétriques. Les tests non-paramétriques pour tester la linéarité des modèles autorégressifs sont peu nombreux. Pour préparer des extensions à des modèles autorégressifs plus généraux, nous construisons sur un compact de l'ensemble des réels, deux tests non-paramétriques pour tester les modèles bilinéaires diagonaux d'ordre un, stationnaires, géométriquement alpha-mélangeant, et ayant des bruits a loi de densité fixée, inconnue et bornée. L'étude de la loi asymptotique des statistiques de test, sous l'hypothèse nulle, se fait au moyen de principes d'invariance faibles. Pour chacun de ces tests, en utilisant des inégalités maximales, nous exhibons un minorant de la puissance qui converge vers 1. Nous montrons que sous des alternatives locales, le risque de l'erreur de deuxième espèce peut être très proche de un. Lorsque le bruit est gaussien, des essais confirment ces résultats, et prouvent en même temps que sur l'exemple du modèle bilinéaire diagonal d'ordre un, le test du multiplicateur de Lagrange est meilleur que les deux tests non-paramétriques.
Les affiliations sont détectées à partir des signatures des publications identifiées dans scanR. Un auteur peut donc apparaître affilié à plusieurs structures ou tutelles en fonction de ces signatures. Les dates affichées correspondent seulement aux dates des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr