MAUME DESCHAMPS Veronique

< Retour à ILB Patrimoine
Thématiques des productions
Affiliations
  • 2013 - 2021
    Institut camille jordan
  • 2012 - 2013
    Université de Lyon - Communauté d'universités et d'établissements
  • 2012 - 2013
    Université Claude Bernard Lyon 1
  • 2012 - 2013
    Laboratoire de sciences actuarielle et financière
  • 1997 - 1998
    Université de Bourgogne
  • 2021
  • 2020
  • 2019
  • 2018
  • 2017
  • 2016
  • 2015
  • 2014
  • 2013
  • 2012
  • 2011
  • 2010
  • 1998
  • Estimation de convolutions gamma généralisées multivariées par des expansions de Laguerre.

    Oskar LAVERNY, Esterina MASIELLO, Veronique MAUME DESCHAMPS, Didier RULLIERE
    2021
    La classe de distribution de convolution gamma généralisée est apparue dans les travaux de Thorin alors qu'il recherchait la divisibilité infinie des distributions log-normales et de Pareto. Bien que ces distributions aient été largement étudiées dans le cas univarié, le cas multivarié et les structures de dépendance qui peuvent en découler ont suscité peu d'intérêt dans la littérature. De plus, une seule procédure de projection pour le cas univarié a été construite récemment, et aucune procédure d'estimation n'est disponible. En expédiant les densités des convolutions gamma généralisées multivariées dans une base de Laguerre tensorisée, nous comblons cette lacune et fournissons des procédures d'estimation performantes pour les cas univariés et multivariés. Nous fournissons quelques indications sur la performance de ces procédures, ainsi qu'une série convergente pour la densité des convolutions gamma multivariées, qui s'avère plus stable que les séries univariées de Moschopoulos et Mathai. Nous discutons en outre de quelques exemples.
  • Reconnaissance d'une structure spatiale de dépendance extrême : Une approche d'apprentissage profond.

    Veronique MAUME DESCHAMPS, Pierre RIBEREAU, Manaf AHMED
    2021
    La compréhension du comportement des événements environnementaux extrêmes est cruciale pour l'évaluation des pertes économiques, des risques, des soins de santé et de nombreux autres aspects. Dans le contexte spatial, pertinent pour les événements environnementaux, la structure de dépendance joue un rôle central, car elle influence les événements extrêmes joints et leur extrapolation. Ainsi, reconnaître ou au moins avoir des informations préliminaires sur les modèles de ces structures de dépendance est une connaissance précieuse pour comprendre les événements extrêmes. Dans cette étude, nous abordons la question de la reconnaissance automatique de la dépendance asymptotique (AD) spatiale par rapport à l'indépendance asymptotique (AI), en utilisant un réseau de neurones convolutifs (CNN). Nous avons conçu une architecture de réseau de neurones convolutifs pour être un classificateur efficace de la structure de dépendance. Les mesures de dépendance de la queue supérieure et inférieure sont utilisées pour former le CNN. Nous avons testé notre méthodologie sur des ensembles de données simulées et réelles : données de température de l'air à deux mètres au-dessus de l'Irak et données de précipitations dans la côte est de l'Australie.
  • Estimation des indices d'analyse de sensibilité orientée par le Qantile basée sur Random Forest.

    Veronique MAUME DESCHAMPS, Kevin ELIE DIT COSAQUE
    2021
    Nous proposons une procédure d'estimation basée sur la forêt aléatoire pour l'analyse de sensibilité orientée par le quantile (Quantile Oriented Sensitivity Analysis-QOSA). Afin d'être efficace, une étape de validation croisée sur la taille des feuilles des arbres est nécessaire. Notre procédure d'estimation complète est testée à la fois sur des données simulées et sur un ensemble de données réelles.
  • Sur l'analyse de sensibilité orientée quantile.

    Kevin ELIE DIT COSAQUE, Veronique MAUME DESCHAMPS
    2021
    Nous proposons d'étudier les indices de sensibilité orientés quantile (indices QOSA) et les effets Shapley orientés quantile (QOSE). Quelques propriétés théoriques des indices QOSA seront données et plusieurs calculs d'indices QOSA et QOSE permettront de mieux comprendre le comportement et l'intérêt de ces indices.
  • Estimation de la structure de dépendance à l'aide d'arbres récursifs de copules.

    Oskar LAVERNY, Veronique MAUME DESCHAMPS, Esterina MASIELLO, Didier RULLIERE
    2020
    Nous construisons l'estimateur CORT (Copula Recursive Tree) : un estimateur linéaire par morceaux, flexible et cohérent d'une copule, qui tire parti de la formalisation de la copule en patchwork et de divers estimateurs de densité constants par morceaux. Alors que la structure en patchwork impose une grille, l'estimateur CORT est piloté par les données et construit la grille (éventuellement irrégulière) de manière récursive à partir des données, en minimisant une distance choisie dans l'espace des copules. L'ajout des contraintes de copules rend inutilisables les estimateurs de dénis habituels, alors que l'estimateur CORT ne s'intéresse qu'à la dépendance et garantit l'uniformité des marges. Des raffinements tels que la réduction de dimension localisée et le bagging sont développés, analysés et testés par des applications sur des données simulées.
  • Tarification des risques prévisibles et imprévisibles dans les portefeuilles d'assurance.

    Veronique MAUME DESCHAMPS, Weihong NI, Corina CONSTANTINESCU, Alfredo EGIDIO DOS REIS
    2020
    Dans ce manuscrit, nous proposons une méthode de tarification des produits d'assurance qui couvrent non seulement les risques traditionnels, mais aussi les risques imprévus. En considérant le paramètre du processus de Poisson comme une variable aléatoire mixte, nous capturons l'hétérogénéité des risques prévisibles et imprévisibles. Pour illustrer, nous estimons les pondérations des deux flux de risques pour un ensemble de données réelles provenant d'un assureur portugais. Pour calculer la prime, nous définissons la fréquence et la gravité comme des distributions appartenant à la famille exponentielle linéaire. Dans une configuration bayésienne, nous montrons que lorsque l'on travaille avec un mélange fini de prieurs conjugués, la prime peut être estimée par un mélange de moyennes postérieures, avec des paramètres actualisés, en fonction de l'historique des sinistres. Nous soulignons le caractère risqué de la tendance imprévisible, en choisissant des distributions à queue lourde. Après avoir estimé les paramètres de distribution concernés à l'aide de l'algorithme Expectation-Maximization, nous avons constaté que les primes bayésiennes dérivées sont plus réactives aux tendances des sinistres que les primes traditionnelles.
  • Estimation par forêt aléatoire des fonctions de distribution conditionnelles et des quantiles conditionnels.

    Kevin ELIE DIT COSAQUE, Veronique MAUME DESCHAMPS
    2020
    Nous proposons une étude théorique de deux estimateurs réalistes de fonctions de distribution conditionnelles et de quantiles conditionnels utilisant des forêts aléatoires. Le processus d'estimation utilise les échantillons bootstrap générés à partir de l'ensemble de données original lors de la construction de la forêt. Les échantillons bootstrap sont réutilisés pour définir le premier estimateur, tandis que le second ne nécessite que l'échantillon original, une fois la forêt construite. Nous prouvons que les deux estimateurs proposés des fonctions de distribution conditionnelles sont cohérents uniformément a.s. À notre connaissance, il s'agit de la première preuve de cohérence incluant la partie bootstrap. Nous illustrons également les procédures d'estimation sur un exemple numérique.
  • Approximations de type copulas checker : application à l'estimation de quantiles de variables agrégées.

    Andres CUBEROS, Esterina MASIELLO, Veronique MAUME DESCHAMPS
    Communications in Statistics - Theory and Methods | 2019
    L'estimation des quantiles de haut niveau de variables agrégées (principalement des sommes ou des sommes pondérées) est cruciale dans la gestion du risque pour de nombreux domaines d'application tels que la finance, l'assurance, l'environnement. Cette question a été largement traitée mais de nouvelles méthodes efficaces sont toujours les bienvenues, surtout si elles s'appliquent à une dimension (relativement) élevée. Nous proposons une procédure d'estimation basée sur la copule en damier. Elle permet d'obtenir de bonnes estimations à partir d'un échantillon (assez) réduit de la loi multivariée et d'une connaissance complète des lois marginales. Cette situation est réaliste pour de nombreuses applications. Les estimations peuvent être améliorées en incluant dans la copule en damier des informations supplémentaires (sur la loi d'un sous-vecteur ou sur les probabilités extrêmes). Notre approche est illustrée par des exemples numériques.
  • On the consistency of Sobol indices with respect to stochastic ordering of model parameters.

    Areski COUSIN, Alexandre JANON, Veronique MAUME DESCHAMPS, Ibrahima NIANG
    ESAIM: Probability and Statistics | 2019
    Au cours de la dernière décennie, la décomposition de la variance de Sobol a été utilisée comme outil - entre autres - dans la gestion des risques. Nous montrons certains liens entre l'analyse de sensibilité globale et les théories d'ordonnancement stochastique. Cela donne un argument en faveur de l'utilisation des indices de Sobol dans la quantification de l'incertitude, comme un indicateur parmi d'autres.
  • Modélisation de la dépendance entre pré-extrêmes.

    Simon CHATELAIN, Anne laure FOUGERES, Johanna g. NESLEHOVA, Veronique MAUME DESCHAMPS, Anne laure FOUGERES, Johanna g. NESLEHOVA, Clement DOMBRY, Sebastian ENGELKE, Russell STEELE, John EINMAHL, Jean david FERMANIAN
    2019
    Le comportement extrême joint entre variables aléatoires revêt un intérêt particulier dans de nombreuses applications des sciences de l’environnement, de la finance, de l’assurance ou encore de la gestion du risque. Par exemple, ce comportement joue un rôle central dans l’évaluation des risques de catastrophes naturelles. Une erreur de spécification de la dépendance entre des variables aléatoires peut engendrer une sous-estimation dangereuse du risque, en particulier au niveau extrême. Le premier objectif de cette thèse est de développer des techniques d’inférence pour les copules Archimax. Ces modèles de dépendance peuvent capturer tout type de dépendance asymptotique entre les extrêmes et, de manière simultanée, modéliser les risques joints au niveau moyen. Une copule Archimax est caractérisée par ses deux paramètres fonctionnels, la fonction de dépendance caudale stable et le générateur Archimédien qui agit comme une distorsion affectant le régime de dépendance extrême. Des conditions sont dérivées afin que le générateur et la fonction caudale soient identifiables, de sorte qu’une approche d’inférence semi-paramétrique puisse être développée. Deux estimateurs non paramétriques de la fonction caudale et un estimateur du générateur basé sur les moments, supposant que ce dernier appartient à une famille paramétrique, sont avancés. Le comportement asymptotique de ces estimateurs est ensuite établi sous des hypothèses de régularité non restrictives et la performance en échantillon fini est évaluée par le biais d’une étude de simulation. Une construction hiérarchique (ou en “clusters”) qui généralise les copules Archimax est proposée afin d’apporter davantage de flexibilité, la rendant plus adaptée aux applications pratiques. Le comportement extrême de ce nouveau modèle de dépendance est ensuite étudié, ce qui engendre un nouvelle manière de construire des fonctions de dépendance caudale stable. La copule Archimax est ensuite utilisée pour analyser les maxima mensuels de précipitations, observées à trois stations météorologiques en Bretagne. Le modèle semble très bien ajusté aux données, aussi bien aux précipitations faibles qu’aux précipitationsfortes. L’estimateur non paramétrique de la fonction caudale révèle une dépendance extrême asymétrique entre les stations, ce qui reflète le déplacement des orages dans la région. Une application du modèle Archimax hiérarchique à un jeu de données de précipitations contenant 155 stations est ensuite présentée, dans laquelle des groupes de stations asymptotiquement dépendantes sont déterminés via un algorithme de “clustering” spécifiquement adapté au modèle. Enfin, de possibles méthodes pour modéliser la dépendance inter-cluster sont évoquées.
  • Ajustement des processus de max-mixture spatiale avec une classe de dépendance extrémale inconnue : un outil d'analyse exploratoire.

    Abdul fattah ABU AWWAD, Veronique MAUME DESCHAMPS, Pierre RIBEREAU
    Test | 2019
    L'une des principales préoccupations de la théorie des valeurs extrêmes est de quantifier la dépendance entre les queues conjointes. L'utilisation de processus stochastiques qui manquent de flexibilité dans la queue conjointe peut conduire à une grave sous-estimation ou surestimation des probabilités associées à des événements extrêmes simultanés. Suite à des avancées récentes dans la littérature, un modèle flexible appelé modèle max-mixte a été introduit pour modéliser des situations où la structure de dépendance extrémale peut varier avec la distance. Dans cet article, nous proposons un critère de sélection non paramétrique sans modèle pour le coefficient de mélange. Notre critère est dérivé d'un madogramme, une notion classiquement utilisée en géostatistique pour capturer les structures spatiales. La procédure est basée sur une méthode des moindres carrés non linéaires entre le madogramme théorique et le madogramme empirique. Nous réalisons une étude de simulation et appliquons notre critère aux précipitations quotidiennes sur l'Est de l'Australie.
  • Sur l’inférence statistique pour des processus spatiaux et spatio-temporels extrêmes.

    Abdul fattah ABU AWWAD, Veronique MAUME DESCHAMPS, Pierre RIBEREAU, Anne laure FOUGERES, Veronique MAUME DESCHAMPS, Pierre RIBEREAU, Stephane GIRARD, Gwladys TOULEMONDE, Armelle GUILLOU, Philippe NAVEAU
    2019
    Les catastrophes naturelles comme les canicules, les tempêtes ou les précipitations extrêmes, proviennent de processus physiques et ont, par nature, une dimension spatiale ou spatiotemporelle. Le développement de modèles et de méthodes d'inférences pour ces processus est un domaine de recherche très actif. Cette thèse traite de l'inférence statistique pour les événements extrêmes dans le cadre spatial et spatio-temporel. En particulier, nous nous intéressons à deux classes de processus stochastique: les processus spatiaux max-mélange et les processus max-stable spatio-temporels. Nous illustrons les résultats obtenus sur des données de précipitations dans l'Est de l'Australie et dans une région de la Floride aux Etats-Unis. Dans la partie spatiale, nous proposons deux tests sur le paramètre de mélange a d'un processus spatial max-mélange: le test statistique Za et le rapport de vraisemblance par paire LRa. Nous comparons les performances de ces tests sur simulations. Nous utilisons la vraisemblance par paire pour l'estimation. Dans l'ensemble, les performances des deux tests sont satisfaisantes. Toutefois, les tests rencontrent des difficultés lorsque le paramètre a se situe à la frontière de l'espace des paramètres, i.e., a ∈ {0,1}, dues à la présence de paramètre de “nuisance” qui ne sont pas identifiés sous l'hypothèse nulle. Nous appliquons ces tests dans le cadre d'une analyse d'excès au delà d'un grand seuil pour des données de précipitations dans l'Est de l'Australie. Nous proposons aussi une nouvelle procédure d'estimation pour ajuster des processus spatiaux max-mélanges lorsqu'on ne connait pas la classe de dépendance extrêmal. La nouveauté de cette procédure est qu'elle permet de faire de l'inférence sans spécifier au préalable la famille de distributions, laissant ainsi parle les données et guider l'estimation. En particulier, la procédure d'estimation utilise un ajustement par la méthode des moindres carrés sur l'expression du Fλ-madogramme d'un modèle max-mélange qui contient les paramètres d'intérêt. Nous montrons la convergence de l'estimateur du paramètre de mélange a. Une indication sur la normalité asymptotique est donnée numériquement. Une étude sur simulation montrent que la méthode proposée améliore les coefficients empiriques pour la classe de modèles max-mélange. Nous implémentons notre procédure d'estimations sur des données de maximas mensuels de précipitations en Australie dans un but exploratoire et confirmatoire. Dans la partie spatio-temporelle, nous proposons une méthode d'estimation semi-paramétrique pour les processus max-stables spatio-temporels en nous basant sur une expression explicite du F-madogramme spatio-temporel. Cette partie permet de faire le pont entre la géostatistique et la théorie des valeurs extrêmes. En particulier, pour des observations sur grille régulière, nous estimons le F-madogramme spatio-temporel par sa version empirique et nous appliquons une procédure basée sur les moments pour obtenir les estimations des paramètres d'intérêt. Nous illustrons les performances de cette procédure par une étude sur simulations. Ensuite, nous appliquons cette méthode pour quantifier le comportement extrêmal de maximum de données radar de précipitations dans l'Etat de Floride. Cette méthode peut être une alternative ou une première étape pour la vraisemblance composite. En effet, les estimations semi-paramétriques pourrait être utilisées comme point de départ pour les algorithmes d'optimisation utilisés dans la méthode de vraisemblance par paire, afin de réduire le temps de calcul mais aussi d'améliorer l'efficacité de la méthode.
  • Estimation des risques prévisibles et imprévisibles en assurance automobile.

    Veronique MAUME DESCHAMPS, Weihong NI, Corina CONSTANTINESCU, Alfredo EGIDIO DOS REIS
    2019
    Ce projet s'appuie sur le modèle de risque développé par Li et al. (2015) et s'intéresse à la modélisation, l'estimation et la tarification de l'assurance pour les risques liés aux technologies innovantes ou à d'autres risques émergents ou latents. Le modèle considère deux flux de risques différents qui apparaissent ensemble, mais qui ne sont pas clairement séparés ou observés. Plus précisément, nous considérons un processus de surplus de risque où les primes sont ajustées en fonction de la fréquence des sinistres passés, comme dans un système de bonus-malus (BM), lorsque nous considérons un flux de risque classique ou historique et un flux de risque imprévisible. Ces derniers sont des risques inconnus qui peuvent présenter une grande incertitude et qui, lors de la tarification de l'assurance (tarification et taux d'expérience), suggèrent une stratégie sensible d'ajustement des primes. Il n'est pas évident pour l'actuaire d'observer quel sinistre provient de l'un ou l'autre flux. Lors de la modélisation de tels risques, il est crucial d'estimer le comportement de ces sinistres, leur occurrence et leur gravité. Le calcul des primes doit refléter équitablement la nature de ces deux types de flux de risques. Nous commençons par proposer un modèle, en séparant le nombre de sinistres et leur gravité, puis nous proposons une méthode de calcul des primes, et enfin une procédure d'estimation des paramètres. Dans la modélisation, nous supposons une approche bayésienne telle qu'utilisée dans la théorie de la crédibilité, une approche de crédibilité pour le calcul de la prime et l'utilisation de l'algorithme Expectation-Maximisation (EM) dans la procédure d'estimation.
  • Estimation semi-paramétrique pour les processus max-stables spatio-temporels : Approche de l'estimation basée sur le F -madogramme.

    Abdul fattah ABU AWWAD, Veronique MAUME DESCHAMPS, Pierre RIBEREAU
    2019
    Les processus maxi-stables ont été étendus pour quantifier la dépendance extrémale dans les données spatio-temporelles. En raison de l'interaction entre l'espace et le temps, les données spatio-temporelles sont souvent complexes à analyser. Ainsi, la caractérisation de ces dépendances est l'un des défis cruciaux de ce domaine de la statistique. Cet article propose une méthodologie d'inférence semiparamétrique basée sur le madogramme F spatio-temporel pour estimer les paramètres d'un processus spatio-temporel max-stable à l'aide de données maillées. La performance de la méthode est étudiée à travers diverses études de simulation. Enfin, nous appliquons notre procédure d'inférence pour quantifier le comportement extrémal des données de précipitations radar dans une région de l'État de Floride.
  • Tests de vraisemblance par paire censurée pour le coefficient de mélange des modèles de mélange maximal spatial.

    Abdul fattah ABU AWWAD, Veronique MAUME DESCHAMPS, Ribereau PIERRE
    Revista de Investigacion Operacional | 2019
    Les processus de max-mélange sont définis comme Z = max(aX, (1 - a)Y) avec X un processus dépendant asymptotique (AD), Y un processus indépendant asymptotique (AI) et a ∈ [0, 1]. Ainsi, le coefficient de mélange a peut révéler la force de la partie AD présente dans le processus de mélange maximal. Dans cet article, nous nous concentrons sur deux tests basés sur des estimations de vraisemblance par paire censurées. Nous comparons leurs performances par le biais d'une étude de simulation approfondie. La simulation de Monte Carlo est un outil fondamental pour les calculs de variance asymptotique. Nous appliquons nos tests aux précipitations quotidiennes de l'Est de l'Australie. Les inconvénients et les développements possibles sont discutés.
  • Expectiles asymptotiques multivariés.

    Veronique MAUME DESCHAMPS, Didier RULLIERE, Khalil SAID
    2018
    Dans [16], une nouvelle famille de mesures de risque à valeurs vectorielles appelée expectiles multivariés est introduite. Dans cet article, nous nous concentrons sur le comportement asymptotique de ces mesures dans un contexte de variations régulières multivariées. Pour les modèles à queues équivalentes, nous proposons un estimateur de ces expectiles asymptotiques multivariés, dans le cas du domaine d'attraction de Fréchet, avec indépendance asymptotique, ou dans le cas comonotonique.
  • Évaluation du risque à l'aide de données supraliminaires.

    Christophette BLANCHET SCALLIET, Diana DOROBANTU, Laura GAY, Veronique MAUME DESCHAMPS, Pierre RIBEREAU
    Stochastic Environmental Research and Risk Assessment | 2018
    Cet article propose une approche stochastique pour modéliser la dynamique des températures et étudier les mesures de risque associées. La dynamique des températures peut être modélisée par un processus de retour à la moyenne tel qu'un processus d'Ornstein-Uhlenbeck. Dans cette étude, nous estimons les paramètres de ce processus grâce aux suprêmes de températures observés quotidiennement, qui sont les seules données recueillies par certaines stations météorologiques. L'expression de la fonction de distribution cumulative du suprématisme est obtenue grâce à la loi du temps de frappe. Les paramètres sont estimés par une méthode des moindres carrés quantiles basée sur cette fonction. Les résultats théoriques, notamment la propriété de mélange et la cohérence de l'estimation des paramètres du modèle, sont fournis. L'estimation des paramètres est évaluée sur des données simulées et réalisée sur des données réelles. Des illustrations numériques sont données pour les deux types de données. Cette estimation nous permettra d'estimer des mesures de risque, telles que la probabilité d'une vague de chaleur et la durée moyenne d'une vague de chaleur.
  • Extrêmes pour les expectiles multivariés.

    Veronique MAUME DESCHAMPS, Didier RULLIERE, Khalil SAID
    Statistics & Risk Modeling | 2018
    Pas de résumé disponible.
  • Estimation des indices de sensibilité orientés quantile.

    Veronique MAUME DESCHAMPS, Ibrahima NIANG
    Statistics & Probability Letters | 2018
    L'article concerne l'analyse de sensibilité orientée quantile. Nous réécrivons les indices correspondants en utilisant la mesure de risque de l'espérance de queue conditionnelle. Ensuite, nous utilisons cette nouvelle expression pour construire des estimateurs.
  • Estimation de la variance limite pour les sommes sous une nouvelle condition de dépendance faible.

    Veronique MAUME DESCHAMPS, Manel KACEM
    Statistics A Journal of Theoretical and Applied Statistics | 2018
    Pas de résumé disponible.
  • Prédiction des espérances par krigeage asymétrique.

    Veronique MAUME DESCHAMPS, Didier RULLIERE, Antoine USSEGLIO CARLEVE
    MASCOT NUM 2017 meeting | 2017
    Le krigeage vise à prédire la moyenne conditionnelle d'un champ aléatoire étant donné les valeurs du champ en certains points. Il semble naturel de prédire, dans le même esprit que le krigeage, d'autres fonctionnelles. Dans notre étude, nous nous concentrons sur les expectiles pour les champs aléatoires elliptiques.
  • Prédictions d'expectiles spatiaux pour les champs aléatoires elliptiques.

    V. MAUME DESCHAMPS, D. RULLIERE, A. USSEGLIO CARLEVE
    Methodology and Computing in Applied Probability | 2017
    Dans ce travail, nous considérons un champ aléatoire elliptique. Nous proposons des prédictions d'expectiles spatiaux à un endroit donné, compte tenu des observations du champ à d'autres endroits. Dans ce but, nous donnons d'abord des expressions exactes pour les expectiles conditionnels, et nous discutons des problèmes qui se posent pour calculer ces valeurs. Un premier prédicteur affine de régression expectile est détaillé, un algorithme itératif explicite est obtenu, et sa distribution est donnée. Des expressions simples directes sont dérivées pour certains champs aléatoires elliptiques particuliers. On montre que la performance de cette régression expectile est très faible pour les niveaux expectiles extrêmes, de sorte qu'un deuxième prédicteur est proposé. Nous prouvons que cette nouvelle prédiction extrémale est asymptotiquement équivalente à l'espérance conditionnelle réelle. Nous fournissons également quelques illustrations numériques et concluons que la régression expectile peut être peu performante lorsqu'on quitte le cadre du champ aléatoire gaussien.
  • Extensions multivariées des mesures de risque des expectiles.

    Veronique MAUME DESCHAMPS, Didier RULLIERE, Khalil SAID
    Dependence Modeling | 2017
    Cet article est consacré à l'introduction et à l'étude d'une nouvelle famille de mesures de risque élicitables multivariées. Nous appelons les mesures vectorielles obtenues des expectiles multivariés. Nous présentons les différentes approches utilisées pour construire nos mesures. Nous discutons des propriétés de cohérence de ces expectiles multivariés. De plus, nous proposons un outil d'approximation stochastique de ces mesures de risque.
  • Sur l'estimation de probabilités de queues multivariées.

    Mohamed nejib DALHOUMI, Jean noel BACRO, Ali GANNOUN, Jean noel BACRO, Ali GANNOUN, Armelle GUILLOU, Veronique MAUME DESCHAMPS, Stephane GIRARD, Jonathan el METHNI, Gwladys TOULEMONDE, Armelle GUILLOU, Veronique MAUME DESCHAMPS
    2017
    Cette thèse présente des contributions à la modélisation multivariée des queues de distribution. Nous introduisons une nouvelle modélisation des probabilités de queue jointes d'une distribution multivariée avec des marges Pareto. Ce modèle est inspiré de celui de Wadsworth et Tawn (2013). Une nouvelle variation régulière multivariée non-standard de coefficient une fonction à deux variables est introduite, permettant de généraliser deux approches de modélisation respectivement proposées par Ramos et Ledford (2009)et Wadsworth et Tawn (2013). En nous appuyant sur cette modélisation nous proposons une nouvelle classe de modèles semi-paramétriques pour l'extrapolation multivariée selon des trajectoires couvrant tout le premier quadrant positif. Nous considérons aussi des modèles paramétriques construits grâce à une mesure non-négative satisfaisant une contrainte qui généralise celle de Ramos et Ledford (2009). Ces nouveaux modèles sont flexibles et conviennent tant pour les situations de dépendance que d'indépendance asymptotique.
  • Sur l’évaluation statistique des risques pour les processus spatiaux.

    Manaf AHMED, Celine ROGET VIAL, Veronique MAUME DESCHAMPS, Pierre RIBEREAU, Liliane BEL, Gwladys TOULEMONDE, Jean noel BACRO, Alexandre BROUSTE
    2017
    La modélisation probabiliste des événements climatiques et environnementaux doit prendre en compte leur nature spatiale. Cette thèse porte sur l’étude de mesures de risque pour des processus spatiaux. Dans une première partie, nous introduisons des mesures de risque à même de prendre en compte la structure de dépendance des processus spatiaux sous-jacents pour traiter de données environnementales. Une deuxième partie est consacrée à l’estimation des paramètres de processus de type max-mélange. La première partie de la thèse est dédiée aux mesures de risque. Nous étendons les travaux réalisés dans [44] d’une part à des processus gaussiens, d’autre part à d’autres processus max-stables et à des processus max-mélange, d’autres structures de dépendance sont ainsi considérées. Les mesures de risque considérées sont basées sur la moyenne L(A,D) de pertes ou de dommages D sur une région d’intérêt A. Nous considérons alors l’espérance et la variance de ces dommages normalisés. Dans un premier temps, nous nous intéressons aux propriétés axiomatiques des mesures de risque, à leur calcul et à leur comportement asymptotique (lorsque la taille de la région A tend vers l’infini). Nous calculons les mesures de risque dans différents cas. Pour un processus gaussien, X, on considère la fonction d’excès : D+ X,u = (X−u)+ où u est un seuil fixé. Pour des processus max-stables et max-mélange X, on considère la fonction puissance : DνX = Xν. Dans certains cas, des formules semi-explicites pour les mesures de risque correspondantes sont données. Une étude sur simulations permet de tester le comportement des mesures de risque par rapport aux nombreux paramètres en jeu et aux différentes formes de noyau de corrélation. Nous évaluons aussi la performance calculatoire des différentes méthodes proposées. Celle-ci est satisfaisante. Enfin, nous avons utilisé une étude précédente sur des données de pollution dans le Piémont italien, celle-ci peuvent être considérées comme gaussiennes. Nous étudions la mesure de risque associée au seuil légal de pollution donnée par la directive européenne 2008/50/EC. Dans une deuxième partie, nous proposons une procédure d’estimation des paramètres d’un processus max-mélange, alternative à la méthode d’estimation par maximum de vraisemblance composite. Cette méthode plus classique d’estimation par maximum de vraisemblance composite est surtout performante pour estimer les paramètres de la partie max-stable du mélange (et moins performante pour estimer les paramètres de la partie asymptotiquement indépendante). Nous proposons une méthode de moindres carrés basée sur le F-madogramme : minimisation de l’écart quadratique entre le F-madogramme théorique et le F-madogramme empirique. Cette méthode est évaluée par simulation et comparée à la méthode par maximum de vraisemblance composite. Les simulations indiquent que la méthode par moindres carrés du F-madogramme est plus performante pour estimer les paramètres de la partie asymptotiquement indépendante.
  • Processus et indicateurs de risque en assurance non-vie et sécurité alimentaire.

    Charles TILLIER, Patrice BERTAIL, Paul DOUKHAN, Patrice BERTAIL, Paul DOUKHAN, Veronique MAUME DESCHAMPS, Olivier WINTENBERGER, Cecile DUROT, Florent MALRIEU, Thomas MIKOSCH, Veronique MAUME DESCHAMPS
    2017
    L'analyse des risques est devenu un enjeu majeur dans notre société. Quels que soient les champs d'application dans lesquels une situation à risque peut survenir, les mathématiques et plus particulièrement les statistiques et les probabilités se révèlent être des outils essentiels. L'objet principal de cette thèse est de développer des indicateurs de risque pertinents et d'étudier les propriétés extrémales de processus intervenant dans deux domaines d'applications : en risque alimentaire et en assurance. La théorie du risque se situe entre l'analyse des valeurs extrêmes et la théorie des variables aléatoires à variations régulières ou à queues lourdes. Dans le premier chapitre, on définit les éléments clefs de la théorie du risque ainsi que la notion de variation régulière et on introduit différents modèles liés au risque alimentaire qui seront étudiés dans les chapitres 2 et 3. Le chapitre 2 présente les travaux effectués avec Olivier Wintenberger. Pour des classes de processus stochastiques, sous des hypothèses de variations régulières, on développe une méthode qui permet d'obtenir des équivalents asymptotiques en horizon fini d'indicateurs de risque en assurance et en risque alimentaire tels que la probabilité de ruine, le "temps passé au dessus d'un seuil" ou encore la "sévérité de la ruine". Le chapitre 3 se concentre sur des modèles en risque alimentaire. Précisément, on étudie les propriétés extrémales de différentes généralisations d'un processus d'exposition à un contaminant nommé KDEM pour Kinetic Dietary Exposure Model proposé par Patrice Bertail et ses co-auteurs en 2008. Sous des hypothèses de variations régulières, on propose des équivalents asymptotiques du comportement de queue et de l'indice extrémal du processus d'exposition. Enfin, le chapitre 4 passe en revue différentes techniques statistiques particulièrement adaptées à l'étude du comportement extrémal de certains processus de Markov. Grâce à des propriétés de régénérations, il est possible de découper le chemin des observations en blocs indépendants et identiquement distribués et de n'étudier ainsi que le processus sur un bloc. Ces techniques s'appliquent même si la chaîne de Markov n'est pas atomique. On se concentre ici sur l'estimation de l'indice de queue et de l'indice extrémal. On illustre la performance de ces techniques en les appliquant sur deux modèles - en assurance et en finance - dont on connaît les résultats théoriques.
  • Une estimation semi-paramétrique pour les processus spatiaux à mélange maximal.

    Manaf AHMED, Veronique MAUME DESCHAMPS, Pierre RIBEREAU, Celine VIAL
    2017
    Nous avons proposé une procédure d'estimation semi-paramétrique afin d'estimer les paramètres d'un modèle à mélange maximal et également d'un modèle max-stable (modèle inverse max-stable) comme alternative à la vraisemblance composite. Une bonne estimation par l'estimateur proposé exigeait que la mesure de dépendance détecte toutes les structures de dépendance dans le modèle, en particulier lorsqu'il s'agit du modèle à mélange maximal. Nous avons surmonté ce défi en utilisant le F-madogramme. L'estimation semi-paramétrique a ensuite été basée sur une méthode de quasi moindres carrés, en minimisant la différence au carré entre le F-madogramme théorique et un F-madogramme empirique. Nous avons évalué la performance de cet estimateur à travers une étude de simulation. Il a été montré qu'en moyenne, l'estimation est bien réalisée, bien que dans certains cas, elle ait rencontré quelques difficultés. Nous appliquons notre procédure d'estimation pour modéliser les précipitations quotidiennes sur l'Est de l'Australie.
  • Mesure du risque spatial pour les processus Max-Stable et Max-Mixture.

    Manaf AHMED, Veronique MAUME DESCHAMPS, Pierre RIBEREAU, Celine VIAL
    2017
    Dans cet article, nous considérons des processus isotropes et stationnaires max-stables, max-stables inverses et max-mixtes $X=(X(s))_{s\in\bR^2}$ et la fonction de dommage $\cD_X^{\nu}= |X|^\nu$ avec $0<\nu<1/2$. Nous étudions le comportement quantitatif d'une mesure de risque qui est la variance de la moyenne de $\cD_X^{\nu}$ sur une région $\mathcal{A}\sous-ensemble \bR^2$.} Ce type de mesure de risque a déjà été introduit et étudié pour \vero{quelques} processus max-stables dans \cite{koch2015spatial}. Dans cette étude, nous avons généralisé cette mesure de risque pour qu'elle soit applicable à plusieurs modèles : dépendance asymptotique représentée par max-stable, indépendance asymptotique représentée par max-stable inverse et mélange des deux. Nous avons évalué la mesure de risque proposée par une étude de simulation.
  • Prédictions de quantiles spatiaux pour les champs aléatoires elliptiques.

    Veronique MAUME DESCHAMPS, Didier RULLIERE, Antoine USSEGLIO CARLEVE
    Journal of Multivariate Analysis | 2017
    Dans ce travail, nous considérons des champs aléatoires elliptiques. Nous proposons des prédictions de quantiles spatiaux à un endroit donné à partir d'observations à d'autres endroits. Dans ce but, nous donnons d'abord des expressions exactes pour les quantiles conditionnels, et nous discutons des problèmes qui se posent pour le calcul de ces valeurs. Un premier prédicteur quantile de régression affine est détaillé, une formule explicite est obtenue, et sa distribution est donnée. Des expressions simples directes sont dérivées pour certains champs aléatoires elliptiques particuliers. On montre que les performances de ce quantile de régression sont très médiocres pour les quantiles extrêmes, de sorte qu'un deuxième prédicteur est proposé. Nous prouvons que cette nouvelle prédiction extrémale est asymptotiquement équivalente au vrai quantile conditionnel. Par le biais d'illustrations numériques, l'étude montre que la régression quantile peut être peu performante lorsqu'on quitte le cadre habituel du champ aléatoire gaussien, ce qui justifie l'utilisation des prédictions quantiles extrémales proposées.
  • Développements en statistiques appliquées à l'hydrométéorologie : imputation des données de débit et modélisation semiparamétrique des précipitations.

    Patricia TENCALIEC, Clementine PRIEUR, Anne catherine FAVRE, Stephane GIRARD, Anne catherine FAVRE PUGIN, Philippe NAVEAU, Benjamin RENARD, Veronique MAUME DESCHAMPS, Valerie MONBET
    2017
    Les précipitations et les débits des cours d'eau constituent les deux variables hydrométéorologiques les plus importantes pour l'analyse des bassins versants. Ils fournissent des informations fondamentales pour la gestion intégrée des ressources en eau, telles que l’approvisionnement en eau potable, l'hydroélectricité, les prévisions d'inondations ou de sécheresses ou les systèmes d'irrigation.Dans cette thèse de doctorat sont abordés deux problèmes distincts. Le premier prend sa source dans l’étude des débits des cours d’eau. Dans le but de bien caractériser le comportement global d'un bassin versant, de longues séries temporelles de débit couvrant plusieurs dizaines d'années sont nécessaires. Cependant les données manquantes constatées dans les séries représentent une perte d'information et de fiabilité, et peuvent entraîner une interprétation erronée des caractéristiques statistiques des données. La méthode que nous proposons pour aborder le problème de l'imputation des débits se base sur des modèles de régression dynamique (DRM), plus spécifiquement, une régression linéaire multiple couplée à une modélisation des résidus de type ARIMA. Contrairement aux études antérieures portant sur l'inclusion de variables explicatives multiples ou la modélisation des résidus à partir d'une régression linéaire simple, l'utilisation des DRMs permet de prendre en compte les deux aspects. Nous appliquons cette méthode pour reconstruire les données journalières de débit à huit stations situées dans le bassin versant de la Durance (France), sur une période de 107 ans. En appliquant la méthode proposée, nous parvenons à reconstituer les débits sans utiliser d'autres variables explicatives. Nous comparons les résultats de notre modèle avec ceux obtenus à partir d'un modèle complexe basé sur les analogues et la modélisation hydrologique et d'une approche basée sur le plus proche voisin. Dans la majorité des cas, les DRMs montrent une meilleure performance lors de la reconstitution de périodes de données manquantes de tailles différentes, dans certains cas pouvant allant jusqu'à 20 ans.Le deuxième problème que nous considérons dans cette thèse concerne la modélisation statistique des quantités de précipitations. La recherche dans ce domaine est actuellement très active car la distribution des précipitations exhibe une queue supérieure lourde et, au début de cette thèse, il n'existait aucune méthode satisfaisante permettant de modéliser toute la gamme des précipitations. Récemment, une nouvelle classe de distribution paramétrique, appelée distribution généralisée de Pareto étendue (EGPD), a été développée dans ce but. Cette distribution exhibe une meilleure performance, mais elle manque de flexibilité pour modéliser la partie centrale de la distribution. Dans le but d’améliorer la flexibilité, nous développons, deux nouveaux modèles reposant sur des méthodes semiparamétriques.Le premier estimateur développé transforme d'abord les données avec la distribution cumulative EGPD puis estime la densité des données transformées en appliquant un estimateur nonparamétrique par noyau. Nous comparons les résultats de la méthode proposée avec ceux obtenus en appliquant la distribution EGPD paramétrique sur plusieurs simulations, ainsi que sur deux séries de précipitations au sud-est de la France. Les résultats montrent que la méthode proposée se comporte mieux que l'EGPD, l’erreur absolue moyenne intégrée (MIAE) de la densité étant dans tous les cas presque deux fois inférieure.Le deuxième modèle considère une distribution EGPD semiparamétrique basée sur les polynômes de Bernstein. Plus précisément, nous utilisons un mélange creuse de densités béta. De même, nous comparons nos résultats avec ceux obtenus par la distribution EGPD paramétrique sur des jeux de données simulés et réels. Comme précédemment, le MIAE de la densité est considérablement réduit, cet effet étant encore plus évident à mesure que la taille de l'échantillon augmente.
  • Extensions multivariées des mesures de risque des expectiles.

    Veronique MAUME DESCHAMPS, Didier RULLIERE, Khalil SAID
    Dependence Modeling | 2017
    Cet article est consacré à l'introduction et à l'étude d'une nouvelle famille de mesures de risque élicitables multivariées. Nous appelons les mesures vectorielles obtenues des expectiles multivariés. Nous présentons les différentes approches utilisées pour construire nos mesures. Nous discutons des propriétés de cohérence de ces expectiles multivariés. De plus, nous proposons un outil d'approximation stochastique de ces mesures de risque.
  • Quantification et méthodes statistiques pour le risque de modèle.

    Ibrahima NIANG, Veronique MAUME DESCHAMPS, Areski COUSIN, Clementine PRIEUR, Jiao YING, Idriss TCHAPDA DJAMEN, Stephane CREPEY, Olivier ROUSTANT
    2016
    En finance, le risque de modèle est le risque de pertes financières résultant de l'utilisation de modèles. Il s'agit d'un risque complexe à appréhender qui recouvre plusieurs situations très différentes, et tout particulièrement le risque d'estimation (on utilise en général dans un modèle un paramètre estimé) et le risque d'erreur de spécification de modèle (qui consiste à utiliser un modèle inadéquat). Cette thèse s'intéresse d'une part à la quantification du risque de modèle dans la construction de courbes de taux ou de crédit et d'autre part à l'étude de la compatibilité des indices de Sobol avec la théorie des ordres stochastiques. Elle est divisée en trois chapitres. Le Chapitre 1 s'intéresse à l'étude du risque de modèle dans la construction de courbes de taux ou de crédit. Nous analysons en particulier l'incertitude associée à la construction de courbes de taux ou de crédit. Dans ce contexte, nous avons obtenus des bornes de non-arbitrage associées à des courbes de taux ou de défaut implicite parfaitement compatibles avec les cotations des produits de référence associés. Dans le Chapitre 2 de la thèse, nous faisons le lien entre l'analyse de sensibilité globale et la théorie des ordres stochastiques. Nous analysons en particulier comment les indices de Sobol se transforment suite à une augmentation de l'incertitude d'un paramètre au sens de l'ordre stochastique dispersif ou excess wealth. Le Chapitre 3 de la thèse s'intéresse à l'indice de contraste quantile. Nous faisons d'une part le lien entre cet indice et la mesure de risque CTE puis nous analysons, d'autre part, dans quelles mesures une augmentation de l'incertitude d'un paramètre au sens de l'ordre stochastique dispersif ou excess wealth entraine une augmentation de l'indice de contraste quantile. Nous proposons enfin une méthode d'estimation de cet indice. Nous montrons, sous des hypothèses adéquates, que l'estimateur que nous proposons est consistant et asymptotiquement normal.
  • Prédictions de quantiles spatiaux pour les champs aléatoires elliptiques.

    Veronique MAUME DESCHAMPS, Didier RULLIERE, Antoine USSEGLIO CARLEVE
    Journées MAS 2016 | 2016
    Dans ce travail, nous considérons des champs aléatoires elliptiques. Nous proposons des prédictions de quantiles spatiaux à un endroit donné à partir d'observations à d'autres endroits. Dans ce but, nous donnons d'abord des expressions exactes pour les quantiles conditionnels, et nous discutons des problèmes qui se posent pour le calcul de ces valeurs. Un premier prédicteur quantile de régression affine est détaillé, une formule explicite est obtenue, et sa distribution est donnée. Des expressions simples directes sont dérivées pour certains champs aléatoires elliptiques particuliers. On montre que les performances de ce quantile de régression sont très médiocres pour les quantiles extrêmes, de sorte qu'un deuxième prédicteur est proposé. Nous prouvons que cette nouvelle prédiction extrémale est asymptotiquement équivalente au vrai quantile conditionnel. Par le biais d'illustrations numériques, l'étude montre que la régression quantile peut être peu performante lorsqu'on quitte le cadre habituel du champ aléatoire gaussien, ce qui justifie l'utilisation des prédictions quantiles extrémales proposées.
  • Sur une allocation de capital en minimisant les indicateurs de risque multivariés.

    Veronique MAUME DESCHAMPS, Didier RULLIERE, Khalil SAID
    European Actuarial Journal | 2016
    La question de l'allocation du capital dans un contexte multivarié découle de la présence d'une dépendance entre les différentes activités risquées qui peut générer un effet de diversification. Plusieurs méthodes d'allocation dans la littérature sont basées sur le choix d'une mesure de risque univariée et d'un principe d'allocation, d'autres sur l'optimisation d'une probabilité de ruine multivariée ou de certains indicateurs de risque multivariés. Dans cet article, nous nous concentrons sur cette dernière technique. En utilisant une approche axiomatique, nous étudions ses propriétés de cohérence. Nous donnons quelques résultats explicites dans les cas mono-périodiques. Enfin, nous analysons l'impact de la structure de dépendance sur l'allocation optimale.
  • Sur une allocation de capital par la minimisation de certains indicateurs de risque.

    V. MAUME DESCHAMPS, D. RULLIERE, K. SAID
    European Actuarial Journal | 2016
    Le secteur européen de l'assurance sera bientôt confronté à l'application des normes de la réglementation Solvabilité 2. Cela va créer un véritable changement dans la gestion des risques des pratiques d'assurance. L'approche ORSA (Own Risk and Solvency Assessment) du deuxième pilier fait de l'allocation du capital un exercice important pour tous les assureurs, surtout lorsqu'il s'agit de groupes. Dans le cas d'entreprises multi-branches, l'allocation du capital doit être basée sur une modélisation multivariée du risque. Plusieurs méthodes d'allocation sont présentes dans la littérature actuarielle et les pratiques d'assurance. Dans cet article, nous nous concentrons sur une méthode d'allocation du risque. En minimisant certains des indicateurs de risque multivariés, nous étudions la cohérence de l'allocation des risques en utilisant une approche axiomatique. De plus, nous discutons de ce qui peut être le meilleur choix d'allocation pour un groupe d'assurance.
  • Quelques propriétés de mélange de processus conditionnellement indépendants.

    Manel KACEM, Stephane LOISEL, Veronique MAUME DESCHAMPS
    Communications in Statistics - Theory and Methods | 2016
    Dans cet article, nous considérons des processus conditionnellement indépendants par rapport à un certain facteur dynamique. Nous dérivons certaines propriétés de mélange pour les processus aléatoires lorsque le conditionnement est donné par rapport à une mémoire non limitée du facteur. Notre travail est motivé par certains exemples réels liés à la théorie du risque.
  • Impact de la dépendance sur certains indicateurs de risque multivariés.

    Veronique MAUME DESCHAMPS, Didier RULLIERE, Khalil SAID
    Methodology and Computing in Applied Probability | 2016
    La minimisation de certains indicateurs de risque multivariés peut être utilisée comme une méthode d'allocation, comme le proposent Cénac et al [6]. L'objectif de l'allocation du capital est de choisir un point dans un simplex, selon un critère donné. Dans un article précédent [17], nous avons prouvé que la technique d'allocation proposée satisfait un ensemble d'axiomes de cohérence. Dans le présent article, nous étudions les propriétés et le comportement asymptotique de l'allocation pour certains modèles de distribution. Nous analysons également l'impact de la structure de dépendance sur l'allocation en utilisant certaines copules.
  • Mesures de risque multivariées et applications en science actuarielle.

    Khalil SAID, Veronique MAUME DESCHAMPS, Didier RULLIERE, Stephane GIRARD, Fabio BELLINI, Steven VANDUFFEL, Helene COSSETTE, Armelle GUILLOU
    2016
    L'entrée en application depuis le 1er Janvier 2016 de la réforme réglementaire européenne du secteur des assurances Solvabilité 2 est un événement historique qui va changer radicalement les pratiques en matière de gestion des risques. Elle repose sur une prise en compte importante du profil et de la vision du risque, via la possibilité d'utiliser des modèles internes pour calculer les capitaux de solvabilité et l'approche ORSA (Own Risk and Solvency Assessment) pour la gestion interne du risque. La modélisation mathématique est ainsi un outil indispensable pour réussir un exercice réglementaire. La théorie du risque doit être en mesure d'accompagner ce développement en proposant des réponses à des problématiques pratiques, liées notamment à la modélisation des dépendances et aux choix des mesures de risques. Dans ce contexte, cette thèse présente une contribution à l'amélioration de la gestion des risques actuariels. En quatre chapitres nous présentons des mesures multivariées de risque et leurs applications à l'allocation du capital de solvabilité. La première partie de cette thèse est consacrée à l'introduction et l'étude d'une nouvelle famille de mesures multivariées élicitables de risque qu'on appellera des expectiles multivariés. Son premier chapitre présente ces mesures et explique les différentes approches utilisées pour les construire. Les expectiles multivariés vérifient un ensemble de propriétés de cohérence que nous abordons aussi dans ce chapitre avant de proposer un outil d'approximation stochastique de ces mesures de risque. Les performances de cette méthode étant insuffisantes au voisinage des niveaux asymptotiques des seuils des expectiles, l'analyse théorique du comportement asymptotique est nécessaire, et fera le sujet du deuxième chapitre de cette partie. L'analyse asymptotique est effectuée dans un environnement à variations régulières multivariées, elle permet d'obtenir des résultats dans le cas des queues marginales équivalentes. Nous présentons aussi dans le deuxième chapitre le comportement asymptotique des expectiles multivariés sous les hypothèses précédentes en présence d'une dépendance parfaite, ou d'une indépendance asymptotique, et nous proposons à l'aide des statistiques des valeurs extrêmes des estimateurs de l'expectile asymptotique dans ces cas. La deuxième partie de la thèse est focalisée sur la problématique de l'allocation du capital de solvabilité en assurance. Elle est composée de deux chapitres sous forme d'articles publiés. Le premier présente une axiomatisation de la cohérence d'une méthode d'allocation du capital dans le cadre le plus général possible, puis étudie les propriétés de cohérence d'une approche d'allocation basée sur la minimisation d'indicateurs multivariés de risque. Le deuxième article est une analyse probabiliste du comportement de cette dernière approche d'allocation en fonction de la nature des distributions marginales des risques et de la structure de la dépendance. Le comportement asymptotique de l'allocation est aussi étudié et l'impact de la dépendance est illustré par différents modèles marginaux et différentes copules. La présence de la dépendance entre les différents risques supportés par les compagnies d'assurance fait de l'approche multivariée une réponse plus appropriée aux différentes problématiques de la gestion des risques. Cette thèse est fondée sur une vision multidimensionnelle du risque et propose des mesures de nature multivariée qui peuvent être appliquées pour différentes problématiques actuarielles de cette nature.
  • Mesure du risque spatial pour les processus gaussiens.

    Manaf AHMED, Veronique MAUME DESCHAMPS, Pierre RIBEREAU, Celine VIAL
    2016
    Dans cet article, nous étudions le comportement quantitatif d'une mesure de risque spatiale correspondant à une fonction de dommage et à une région, en tenant compte de la dépendance spatiale du processus sous-jacent. Ce type de mesure de risque a déjà été introduit et étudié pour certains processus max-stables dans [Koch2015]. Dans cet article, nous considérons des processus gaussiens isotropes et la fonction de dommage excédentaire au-dessus d'un seuil. Nous avons réalisé une étude de simulation et une étude de données réelles.
  • Quelques propriétés de mélange de processus conditionnellement indépendants.

    Manel KACEM, Stephane LOISEL, Veronique MAUME DESCHAMPS
    Communications in Statistics - Theory and Methods | 2016
    Dans cet article, nous considérons des processus conditionnellement indépendants par rapport à un certain facteur dynamique. Nous dérivons certaines propriétés de mélange pour les processus aléatoires lorsque le conditionnement est donné par rapport à une mémoire non limitée du facteur. Notre travail est motivé par certains exemples réels liés à la théorie du risque.
  • Estimation de la Value at Risk des risques agrégés en utilisant les lois marginales et quelques informations sur la dépendance.

    Andres CUBEROS, Esterina MASIELLO, Veronique MAUME DESCHAMPS
    Actuarial and Financial Mathematics Conference Interplay between Finance and Insurance | 2015
    L'estimation des quantiles de haut niveau de variables agrégées (principalement des sommes ou des sommes pondérées) est cruciale dans la gestion du risque pour de nombreux domaines d'application tels que la finance, l'assurance, l'environnement. . . . Cette question a été largement traitée mais de nouvelles méthodes efficaces sont toujours les bienvenues, surtout si elles s'appliquent à une dimension relativement élevée. Nous proposons une procédure d'estimation basée sur la copule en damier. Elle permet d'obtenir de bonnes estimations à partir d'un échantillon assez) réduit de la loi multivariée et d'une connaissance complète des lois marginales. Cette situation est réaliste pour de nombreuses applications, principalement dans le domaine des assurances. De plus, nous pouvons également améliorer les estimations en incluant dans la copule en damier des informations supplémentaires (sur le lawo d'un sous-vecteur ou sur les probabilités extrêmes).
  • Approximations quantiles de haut niveau des sommes de risques.

    A. CUBEROS, E. MASIELLO, V. MAUME DESCHAMPS
    Dependence Modeling | 2015
    L'approximation d'un quantile élevé ou de l'espérance sur un quantile élevé (Value at Risk (VaR) ou Tail Value at Risk (TVaR) dans la gestion des risques) est cruciale pour le secteur des assurances. Nous proposons une nouvelle méthode pour estimer les quantiles élevés des sommes de risques. Elle est basée sur l'estimation du rapport entre la VaR (ou TVaR) de la somme et la VaR (ou TVaR) du maximum des risques. Nous utilisons des résultats sur des fonctions à variation constante. Nous comparons l'efficacité de notre méthode avec les méthodes classiques, sur plusieurs modèles. Notre méthode donne de bons résultats lors de l'approximation de la VaR ou TVaR à des niveaux élevés sur des risques fortement dépendants où au moins un des risques est à queue lourde.
  • Une approche de la gestion du risque pour l'allocation du capital.

    Veronique MAUME DESCHAMPS, Didier RULLIERE, Khalil SAID
    2015
    Le secteur européen de l'assurance sera bientôt confronté à l'application des normes de la réglementation Solvabilité 2. Cela va créer un réel changement dans les pratiques de gestion des risques. L'approche ORSA du deuxième pilier fait de l'allocation du capital un exercice important pour tous les assureurs et particulièrement pour les groupes. Dans le cas d'entreprises multi-branches, l'allocation du capital doit être basée sur une modélisation multivariée du risque. Plusieurs méthodes d'allocation sont présentes dans la littérature et les pratiques des assureurs. Dans cet article, nous présentons une nouvelle méthode d'allocation des risques, nous étudions sa cohérence en utilisant une approche axiomatique, et nous essayons de définir quel est le meilleur choix d'allocation pour un groupe d'assurance.
  • Théorème limite central auto-normalisé pour certains processus de mélange.

    Manel KACEM, Veronique MAUME DESCHAMPS
    2014
    Nous prouvons un théorème central limite auto-normalisé pour une nouvelle classe de processus de mélange introduite dans Kacem et al. (2013). Cette classe est plus grande que les processus classiques fortement mixtes et donc notre résultat est plus général que ceux de Peligrad et Shao (1995) et de Shi (2000). Le fait que certains processus conditionnellement indépendants satisfont ce type de propriétés de mélange a motivé notre étude. Nous étudions la cohérence faible ainsi que la normalité asymptotique de l'estimateur de la variance que nous proposons.
  • Indicateurs de risque à plusieurs branches d'activité : comparaison, comportement asymptotique et applications à l'allocation optimale des réserves.

    Peggy CENAC, Stephane LOISEL, Veronique MAUME DESCHAMPS, Clementine PRIEUR
    Annales de l'ISUP | 2014
    Dans un modèle de risque multidimensionnel avec des branches d'activité dépendantes, nous proposons d'allouer le capital en fonction de la minimisation de certains indicateurs de risque. Ces indicateurs sont des sommes de pénalités attendues dues à l'insolvabilité d'une branche alors que la réserve globale est soit positive soit négative. Des formules explicites dans le cas de deux branches sont obtenues pour plusieurs modèles indépendants exponentiels, Pareto corrélés). Le comportement asymptotique (lorsque le capital initial va à l'infini) est étudié. Pour une dimension plus élevée et plusieurs périodes, aucune expression explicite n'est disponible. En utilisant un algorithme stochastique, on obtient des estimations de l'allocation, on compare les différentes allocations et on étudie l'impact de la dépendance.
  • Probabilités de ruine dans les modèles avec une structure de dépendance en chaîne de Markov.

    Corina CONSTANTINESCU, Dominik KORTSCHAK, Veronique MAUME DESCHAMPS
    Scandinavian Actuarial Journal | 2013
    Dans cet article, nous dérivons des expressions explicites pour la probabilité de ruine dans un modèle de risque de renouvellement avec une dépendance décrite par/incorporée dans la variable aléatoire à valeur réelle Zk = -cτk + Xk , à savoir la perte entre le (k - 1)-ième et le k-ième sinistre. Ici, c représente le taux de prime constant, τk le temps d'inter-arrivée entre le (k - 1)-ième et le k-ième sinistre et Xk est la taille du k-ième sinistre. La structure de dépendance entre (Zk )k>0 est donnée/conduite par une chaîne de Markov avec un noyau de transition satisfaisant une équation différentielle ordinaire à coefficients constants.
  • Estimation d'une queue bivariée : Une approche basée sur les copules.

    Elena DI BERNARDINO, Veronique MAUME DESCHAMPS, Clementine PRIEUR
    Journal of Multivariate Analysis | 2013
    Cet article traite du problème de l'estimation de la queue d'une fonction de distribution bivariée. À cette fin, nous développons une extension générale de la méthode POT (Peaks-Over-Threshold), principalement basée sur une version bidimensionnelle du théorème de Pickands-Balkema-de Haan. Nous introduisons un nouveau paramètre qui décrit la nature de la dépendance de la queue et nous fournissons un moyen de l'estimer. Nous construisons un estimateur de queue bidimensionnel et étudions ses propriétés asymptotiques. Nous présentons également des exemples de données réelles qui illustrent nos résultats théoriques.
  • Processus de risque : modélisation de la dépendance et évaluation du risque sous des contraintes de convexité.

    Manel KACEM, Stephane LOISEL, Veronique MAUME DESCHAMPS, Christian yann ROBERT, Claude LEFEVRE, Helene COSSETTE, Sana LOUHICHI
    2013
    Ce travail de thèse porte principalement sur deux problématiques différentes mais qui ont pour point commun, la contribution à la modélisation et à la gestion du risque en actuariat. Dans le premier thème de recherche abordé dans cette thèse, on s'intéresse à la modélisation de la dépendance en assurance et en particulier, on propose une extension des modèles à facteurs communs qui sont utilisés en assurance. Dans le deuxième thème de recherche, on considère les distributions discrètes décroissantes et on s'intéresse à l'étude de l'effet de l'ajout de la contrainte de convexité sur les extrema convexes. Des applications en liaison avec la théorie de la ruine motivent notre intérêt pour ce sujet. Dans la première partie de la thèse, on considère un modèle de risque en temps discret dans lequel les variables aléatoires sont dépendantes mais conditionnellement indépendantes par rapport à un facteur commun. Dans ce cadre de dépendance on introduit un nouveau concept pour la modélisation de la dépendance temporelle entre les risques d'un portefeuille d'assurance. En effet, notre modélisation inclut des processus de mémoire non bornée. Plus précisément, le conditionnement se fait par rapport à un vecteur aléatoire de longueur variable au cours du temps. Sous des conditions de mélange du facteur et d'une structure de mélange conditionnel, nous avons obtenu des propriétés de mélanges pour les processus non conditionnels. Avec ces résultats on peut obtenir des propriétés asymptotiques intéressantes. On note que dans notre étude asymptotique c'est plutôt le temps qui tend vers l'infini que le nombre de risques. On donne des résultats asymptotiques pour le processus agrégé, ce qui permet de donner une approximation du risque d'une compagnie d'assurance lorsque le temps tend vers l'infini. La deuxième partie de la thèse porte sur l'effet de la contrainte de convexité sur les extrema convexes dans la classe des distributions discrètes dont les fonctions de masse de probabilité (f.m.p.) sont décroissantes sur un support fini. Les extrema convexes dans cette classe de distributions sont bien connus. Notre but est de souligner comment les contraintes de forme supplémentaires de type convexité modifient ces extrema. Deux cas sont considérés : la f.m.p. est globalement convexe sur N et la f.m.p. est convexe seulement à partir d'un point positif donné. Les extrema convexes correspondants sont calculés en utilisant de simples propriétés de croisement entre deux distributions. Plusieurs illustrations en théorie de la ruine sont présentées.
  • Plug-in estimation of level sets in a non-compact setting with applications in multivariate risk theory.

    Elena DI BERNARDINO, Thomas LALOE, Veronique MAUME DESCHAMPS, Clementine PRIEUR
    ESAIM: Probability and Statistics | 2013
    Cet article traite du problème de l'estimation des ensembles de niveaux d'une fonction de distribution inconnue $F$. Une approche de type plug-in est suivie. C'est-à-dire que, étant donné un estimateur cohérent $F_n$ de $F$, nous estimons les ensembles de niveaux de $F$ par les ensembles de niveaux de $F_n$. Dans notre cadre, aucune propriété de compacité n'est a priori requise pour les ensembles de niveaux à estimer. Nous énonçons des résultats de cohérence en ce qui concerne la distance de Hausdorff et le volume de la différence symétrique. Nos résultats sont motivés par des applications de la théorie du risque multivarié. Dans ce sens, nous présentons également des exemples simulés et réels qui illustrent nos résultats théoriques.
  • Etude des marchés d'assurance non-vie à l'aide d'équilibre de Nash et de modèle de risques avec dépendance.

    Christophe DUTANG, Veronique MAUME DESCHAMPS, Stephane LOISEL, Jean noel BACRO, Christian yann ROBERT, Etienne MARCEAU
    2012
    L’actuariat non-vie étudie les différents aspects quantitatifs de l’activité d’assurance. Cette thèse vise à expliquer sous différentes perspectives les interactions entre les différents agents économiques, l’assuré, l’assureur et le marché, sur un marché d’assurance. Le chapitre 1 souligne à quel point la prise en compte de la prime marché est importante dans la décision de l’assuré de renouveler ou non son contrat d’assurance avec son assureur actuel. La nécessitéd’un modèle de marché est établie. Le chapitre 2 répond à cette problématique en utilisant la théorie des jeux non-coopératifs pour modéliser la compétition. Dans la littérature actuelle, les modèles de compétition seréduisent toujours à une optimisation simpliste du volume de prime basée sur une vision d’un assureur contre le marché. Partant d’un modèle de marché à une période, un jeu d’assureurs est formulé, où l’existence et l’unicité de l’équilibre de Nash sont vérifiées. Les propriétés des primes d’équilibre sont étudiées pour mieux comprendre les facteurs clés d’une position dominante d’un assureur par rapport aux autres. Ensuite, l’intégration du jeu sur une période dans un cadre dynamique se fait par la répétition du jeu sur plusieurs périodes. Une approche par Monte-Carlo est utilisée pour évaluer la probabilité pour un assureur d’être ruiné, de rester leader, de disparaître du jeu par manque d’assurés en portefeuille. Ce chapitre vise à mieux comprendre la présence de cycles en assurance non-vie. Le chapitre 3 présente en profondeur le calcul effectif d’équilibre de Nash pour n joueurs sous contraintes, appelé équilibre de Nash généralisé. Il propose un panorama des méthodes d’optimisation pour la résolution des n sous-problèmes d’optimisation. Cette résolution sefait à l’aide d’une équation semi-lisse basée sur la reformulation de Karush-Kuhn-Tucker duproblème d’équilibre de Nash généralisé. Ces équations nécessitent l’utilisation du Jacobiengénéralisé pour les fonctions localement lipschitziennes intervenant dans le problème d’optimisation.Une étude de convergence et une comparaison des méthodes d’optimisation sont réalisées.Enfin, le chapitre 4 aborde le calcul de la probabilité de ruine, un autre thème fondamentalde l’assurance non-vie. Dans ce chapitre, un modèle de risque avec dépendance entre lesmontants ou les temps d’attente de sinistre est étudié. De nouvelles formules asymptotiquesde la probabilité de ruine en temps infini sont obtenues dans un cadre large de modèle de risquesavec dépendance entre sinistres. De plus, on obtient des formules explicites de la probabilité deruine en temps discret. Dans ce modèle discret, l’analyse structure de dépendance permet dequantifier l’écart maximal sur les fonctions de répartition jointe des montants entre la versioncontinue et la version discrète.
  • Mélanges de GLMs et nombre de composantes : application au risque de rachat en Assurance Vie.

    Xavier MILHAUD, Stephane LOISEL, Veronique MAUME DESCHAMPS, Hansjoerg ALBRECHER, Stephane LOISEL, Veronique MAUME DESCHAMPS, Vincent LEPEZ, Denys POMMERET, Bernard GAREL
    2012
    La question du rachat préoccupe les assureurs depuis longtemps notamment dans le contexte des contrats d'épargne en Assurance-Vie, pour lesquels des sommes colossales sont en jeu. L'émergence de la directive européenne Solvabilité II, qui préconise le développement de modèles internes (dont un module entier est dédié à la gestion des risques de comportement de rachat), vient renforcer la nécessité d'approfondir la connaissance et la compréhension de ce risque. C'est à ce titre que nous abordons dans cette thèse les problématiques de segmentation et de modélisation des rachats, avec pour objectif de mieux connaître et prendre en compte l'ensemble des facteurs-clefs qui jouent sur les décisions des assurés. L'hétérogénéité des comportements et leur corrélation ainsi que l'environnement auquel sont soumis les assurés sont autant de difficultés à traiter de manière spécifique afin d'effectuer des prévisions. Nous développons ainsi une méthodologie qui aboutit à des résultats très encourageants . et qui a l'avantage d'être réplicable en l'adaptant aux spécificités de différentes lignes de produits. A travers cette modélisation, la sélection de modèle apparaît comme un point central. Nous le traitons en établissant les propriétés de convergence forte d'un nouvel estimateur, ainsi que la consistance d'un nouveau critère de sélection dans le cadre de mélanges de modèles linéaires généralisés.
  • Outils théoriques et opérationnels adaptés au contexte de l'assurance vie en Afrique subsaharienne francophone : analyse et mesure des risques liés à la mortalité.

    Aymric KAMEGA, Frederic PLANCHET, Marc QUINCAMPOIX, Frederic PLANCHET, Veronique MAUME DESCHAMPS, Olivier LOPEZ, Abderrahim OULIDI, Michel BERA, Arthur CHARPENTIER
    2011
    Dans un marché de l'assurance vie en Afrique subsaharienne francophone à la traîne, mais promis à un bel avenir en cas d'émergence de solutions techniques et commerciales endogènes, la thèse propose des outils théoriques et opérationnels adaptés à son développement. Cette démarche s'inscrit en parallèle des actions entreprises par l'autorité de contrôle régionale (la CIMA) pour fournir aux assureurs de la région des outils adaptés. En effet, la CIMA a initié des travaux pour la construction de nouvelles tables réglementaires d'expérience, ce qui a permis de fournir des références fiables et pertinentes pour la mortalité de la population assurée dans la région. Toutefois, certaines problématiques techniques utiles n'ont pas été développées dans ces travaux de construction. La thèse leur accorde alors une attention particulière. Ainsi, d'une part, la thèse permet de fournir des outils pour tenir compte des différences de mortalité entre pays de la région, tout en limitant les risques systématiques liés aux fluctuations d'échantillonnage (dues à la petite taille des échantillons de données par pays). Il apparaît notamment que si la modélisation indépendante de chaque pays n'est pas appropriée, les modèles d'hétérogénéité à facteurs observables, tels que le modèle de Cox ou de Lin et Ying, permettent d'atteindre cet objectif. On précise toutefois ici que ces modèles d'hétérogénéité ne permettent pas de supprimer le risque systématique lié aux fluctuations d'échantillonnage lors de l'estimation du modèle, ils engendrent seulement une réduction de ce risque en contrepartie d'une augmentation du risque systématique lié au choix du modèle. D'autre part, la thèse permet également de fournir des outils pour modéliser la mortalité d'expérience future dans la région. En absence de données sur les tendances passées de la mortalité d'expérience, ni le modèle classique de Lee-Carter ni ses extensions ne sont applicables. Une solution basée sur un ajustement paramétrique, une hypothèse sur la forme de l'évolution du niveau de mortalité (évolution linaire ou exponentielle) et un avis d'expert sur l'espérance de vie générationnelle à un âge donné est alors proposée (ces travaux s'appuient sur le modèle de Bongaarts). Ensuite, dans un second temps, en supposant disposer de données sur les tendances passées (ce qui pour mémoire n'est pas le cas à ce stade dans la région, mais devrait l'être dans les prochaines années), la thèse propose une modélisation de la mortalité future à partir d'une référence de mortalité externe et une analyse des risques systématiques associés (risques liés aux fluctuations d'échantillonnage et au choix de la référence de mortalité).
  • Modélisation de la dépendance et mesures de risque multidimensionnelles.

    Elena DI BERNARDINO, Veronique MAUME DESCHAMPS, Clementine PRIEUR, Anne laure FOUGERES, Gerard BIAU, Claude LEFEVRE, Wenceslao GONZALEZ MANTEIGA, Joahn SEGERS
    2011
    Cette thèse a pour but le développement de certains aspects de la modélisation de la dépendance dans la gestion des risques en dimension plus grande que un. Le premier chapitre est constitué d'une introduction générale. Le deuxième chapitre est constitué d'un article s'intitulant « Estimating Bivariate Tail : a copula based approach », soumis pour publication. Il concerne la construction d'un estimateur de la queue d'une distribution bivariée. La construction de cet estimateur se fonde sur une méthode de dépassement de seuil (Peaks Over Threshold method) et donc sur une version bivariée du Théorème de Pickands-Balkema-de Haan. La modélisation de la dépendance est obtenue via la Upper Tail Dependence Copula. Nous démontrons des propriétés de convergence pour l'estimateur ainsi construit. Le troisième chapitre repose sur un article: « A multivariate extension of Value-at-Risk and Conditional-Tail-Expectation», soumis pour publication. Nous abordons le problème de l'extension de mesures de risque classiques, comme la Value-at-Risk et la Conditional-Tail-Expectation, dans un cadre multidimensionnel en utilisant la fonction de Kendall multivariée. Enfin, dans le quatrième chapitre de la thèse, nous proposons un estimateur des courbes de niveau d'une fonction de répartition bivariée avec une méthode plug-in. Nous démontrons des propriétés de convergence pour les estimateurs ainsi construits. Ce chapitre de la thèse est lui aussi constitué d'un article, s'intitulant « Plug-in estimation of level sets in a non-compact setting with applications in multivariate risk theory», accepté pour publication dans la revue ESAIM:Probability and Statistics.
  • Modèles de dépendance dans la théorie du risque.

    Mathieu BARGES, Jean claude AUGROS, Etienne MARCEAU, Veronique MAUME DESCHAMPS, Helene COSSETTE, Christian GENEST, Stephane LOISEL, Francois DUFRESNE, Claude LEFEVRE
    2010
    Initialement, la théorie du risque supposait l’indépendance entre les différentes variables aléatoires et autres paramètres intervenant dans la modélisation actuarielle. De nos jours, cette hypothèse d’indépendance est souvent relâchée afin de tenir compte de possibles interactions entre les différents éléments des modèles. Dans cette thèse, nous proposons d’introduire des modèles de dépendance pour différents aspects de la théorie du risque. Dans un premier temps, nous suggérons l’emploi des copules comme structure de dépendance. Nous abordons tout d’abord un problème d’allocation de capital basée sur la Tail-Value-at-Risk pour lequel nous supposons un lien introduit par une copule entre les différents risques. Nous obtenons des formules explicites pour le capital à allouer à l’ensemble du portefeuille ainsi que la contribution de chacun des risques lorsque nous utilisons la copule Farlie-Gumbel-Morgenstern. Pour les autres copules, nous fournissons une méthode d’approximation. Au deuxième chapitre, nous considérons le processus aléatoire de la somme des valeurs présentes des sinistres pour lequel les variables aléatoires du montant d’un sinistre et de temps écoulé depuis le sinistre précédent sont liées par une copule Farlie-Gumbel-Morgenstern. Nous montrons comment obtenir des formes explicites pour les deux premiers moments puis le moment d’ordre m de ce processus. Le troisième chapitre suppose un autre type de dépendance causée par un environnement extérieur. Dans le contexte de l’étude de la probabilité de ruine d’une compagnie de réassurance, nous utilisons un environnement markovien pour modéliser les cycles de souscription. Nous supposons en premier lieu des temps de changement de phases de cycle déterministes puis nous les considérons ensuite influencés en retour par les montants des sinistres. Nous obtenons, à l’aide de la méthode d’erlangisation, une approximation de la probabilité de ruine en temps fini.
  • Propriétés de mélange pour des systèmes dynamiques markoviens.

    Veronique MAUME DESCHAMPS, Bernard SCHMITT
    1998
    Cette thèse traite des propriétés de mélange de systèmes dynamiques markoviens. L'étude de l'opérateur de transfert associe conduit à des estimations de la décroissance des corrélations ou vitesse de mélange. Ces estimées permettent d'établir des théorèmes probabilistes, par exemple le théorème de la limite centrale, pour des systèmes qui ne possèdent pas, en général, la propriété du trou spectral. La première partie porte sur les dynamiques markoviennes sur un espace d'états fini, associé à un potentiel non holderien. La décroissance des corrélations dépend du module de continuité de ce potentiel. De plus, ces systèmes sont stochastiquement stables. Dans une deuxième partie, on s'intéresse à des systèmes markoviens sur un espace d'états infini dénombrable. La décroissance des corrélations dépend de la contribution à l'opérateur de transfert du complémentaire d'un nombre fini de cylindres. Des estimations effectives sont données pour des applications non uniformément dilatantes et pour des processus de naissance et de mort.
Les affiliations sont détectées à partir des signatures des publications identifiées dans scanR. Un auteur peut donc apparaître affilié à plusieurs structures ou tutelles en fonction de ces signatures. Les dates affichées correspondent seulement aux dates des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr