MILHAUD Xavier

< Retour à ILB Patrimoine
Affiliations
  • 2020 - 2021
    Hospices Civils de Lyon
  • 2020 - 2021
    Centre européen de résonance magnétique nucléaire à très hauts champs de lyon
  • 2011 - 2021
    Laboratoire de sciences actuarielle et financière
  • 2015 - 2016
    Centre de recherche en économie et statistique
  • 2013 - 2016
    Centre de recherche en économie et statistique de l'Ensae et l'Ensai
  • 2011 - 2012
    Université Claude Bernard Lyon 1
  • 2013 - 2014
    Ecole nationale de statistique et d'administration économique ParisTech
  • 2011 - 2012
    Sciences economiques et de gestion
  • 2021
  • 2020
  • 2019
  • 2018
  • 2017
  • 2016
  • 2015
  • 2014
  • 2013
  • 2012
  • Test de modèle de contamination à deux échantillons sans contrainte de forme.

    Xavier MILHAUD, Denys POMMERET, Yahia SALHI, Pierre VANDEKERKHOVE
    2021
    Dans cet article, nous considérons des distributions de mélange à deux composantes ayant une composante connue. Ce type de modèle présente un intérêt particulier lorsqu'un phénomène aléatoire connu est contaminé par un effet aléatoire inconnu. Nous proposons dans cette configuration de comparer les sources aléatoires inconnues impliquées dans deux échantillons distincts. À cette fin, nous introduisons l'approche dite IBM (Inversion-Best Matching) qui donne lieu à un test semi-paramétrique à deux échantillons de type Cramér-von Mises relaxé nécessitant des hypothèses très minimales (sans contrainte de forme) sur les distributions inconnues. L'accomplissement de notre travail réside dans le fait que nous établissons un théorème central limite fonctionnel sur les paramètres de proportion ainsi que sur les fonctions de distribution cumulatives inconnues du modèle, alors que Patra et Sen [22] prouvent que le taux √ n ne peut être atteint sur ces quantités dans le cas de base à un échantillon. Une étude numérique intensive est réalisée à partir d'un large éventail de configurations de simulation pour illustrer les propriétés asymptotiques de notre test. Enfin, notre procédure de test est appliquée à une application réelle par le biais d'un test de l'effet de mortalité post-covide par paire dans un panel de pays européens.
  • Test semi-paramétrique de comparaison des composantes d'un mélange à deux échantillons.

    Xavier MILHAUD, Denys POMMERET, Yahia SALHI, Pierre VANDEKERKHOVE
    2020
    Nous considérons dans cet article les distributions de mélange à deux composantes ayant une composante connue. C'est le cas lorsqu'une composante de référence de type gold standard est bien connue, et lorsqu'une population contient une telle composante plus une autre ayant des caractéristiques différentes. Lorsque deux populations sont tirées de tels modèles, nous proposons une procédure de test de type Khi-deux pénalisé capable de comparer deux à deux les composantes inconnues, c'est-à-dire de tester l'égalité de leurs densités de caractéristiques résiduelles. Une étude numérique intensive est réalisée à partir d'une large gamme de configurations de simulation pour illustrer les propriétés asymptotiques de notre test. De plus, la procédure de test est appliquée sur deux cas réels : i) des ensembles de données sur la mortalité, où les résultats montrent que le test reste robuste même dans des situations difficiles où la composante inconnue ne représente qu'un petit pourcentage de la population globale, ii) des ensembles de données sur la vitesse des galaxies, où la luminosité des étoiles mélangées à la Voie lactée est comparée.
  • Le provisionnement individuel et l'estimation non paramétrique des montants de sinistres soumis à d'importants délais de déclaration.

    Olivier LOPEZ, Xavier MILHAUD
    2020
    Grâce aux estimateurs non paramétriques issus de l'apprentissage automatique, le provisionnement au niveau micro est devenu de plus en plus populaire auprès des actuaires. Des recherches récentes se sont concentrées sur la manière d'intégrer l'ensemble des informations que l'on peut avoir sur les sinistres pour prédire les réserves individuelles, avec un succès variable dû à des observations incomplètes. En utilisant l'algorithme CART, nous développons de nouveaux résultats qui nous permettent de faire face à d'importants délais de déclaration et à des variables explicatives partiellement observées. Sur le plan statistique, nous étendons CART pour prendre en compte la troncature des données, et nous introduisons des estimateurs plug-in. Nos applications sont basées sur des portefeuilles d'assurance réels intégrant des garanties de protection des revenus et de responsabilité civile. Nous montrons que la connaissance complète de la durée de vie du sinistre est cruciale pour prédire efficacement les réserves individuelles.
  • Apprentissage automatique, correction des biais et estimateurs plug-in pour un provisionnement précis au niveau micro.

    Olivier LOPEZ, Xavier MILHAUD
    2019
    Grâce aux estimateurs non paramétriques issus de l'apprentissage automatique, le provisionnement des sinistres au niveau micro est devenu de plus en plus populaire dans les sciences actuarielles. Des recherches récentes se sont concentrées sur la manière d'intégrer l'ensemble des informations que l'on peut avoir sur les sinistres pour prédire les réserves individuelles, avec un succès variable dû à des observations incomplètes. Dans cet article, nous introduisons trois extensions aux travaux existants comparables : comment traiter la censure et la troncature présentes dans ce type de données, comment faire face à l'inflation lorsque le facteur d'inflation est inconnu, et comment mettre en œuvre une stratégie adéquate menant à des estimations de réserves personnalisées robustes. En utilisant des ensembles de tests indépendants, nos résultats - sur des garanties dont les temps de développement sont typiquement longs - montrent l'importance d'utiliser le temps de développement total du sinistre pour prédire les réserves avec une précision acceptable. Pour rester proche de la réalité, nos applications sont basées sur deux portefeuilles ouverts basés sur des ensembles de données réels.
  • Un algorithme à base d'arbres adapté au provisionnement à micro-niveau et aux sinistres à long développement.

    Olivier LOPEZ, Xavier MILHAUD, Pierre emmanuel THEROND, Pierre e. THEROND
    ASTIN Bulletin | 2019
    Dans le domaine de l'assurance non-vie, la pérennité de l'activité exige des prévisions précises et robustes des réserves liées aux sinistres non payés. À cette fin, deux approches différentes ont été développées historiquement : les triangles de pertes agrégés et le provisionnement des sinistres individuels. La première a connu un grand succès opérationnel au cours des dernières décennies, tandis que l'utilisation de la seconde reste encore limitée. A travers deux exemples illustratifs et en introduisant un algorithme approprié basé sur des arbres, nous montrons que le provisionnement individuel des sinistres peut être vraiment prometteur, en particulier dans le contexte des risques à long terme.
  • Choix opérationnels pour l'agrégation des risques dans l'assurance : PSDisation et sensibilité au SCR.

    Xavier MILHAUD, Victorien PONCELET, Clement SAILLARD
    Risks | 2018
    Cet article répond à des questions cruciales sur la robustesse du processus de PSDisation pour des applications dans le domaine des assurances. La PSDisation fait référence au processus qui force une matrice à devenir semi-définie positive. Pour les compagnies qui utilisent des copules pour agréger les risques dans leur modèle interne, la PSDisation se produit lorsqu'elles travaillent avec des matrices de corrélation pour calculer le Capital de Solvabilité Requis (SCR). Nous étudions comment les choix opérationnels classiques concernant la modélisation de la dépendance des risques ont un impact sur le SCR pendant la PSDisation. Ces opérations font référence aux permutations des risques (ou des lignes d'affaires) dans la matrice de corrélation, à l'ajout d'un nouveau risque, et à l'introduction de poids de confiance donnés aux coefficients de corrélation. En utilisant des algorithmes génétiques, il est démontré que des transformations théoriquement neutres de la matrice de corrélation peuvent étonnamment conduire à des sensibilités significatives du SCR (jusqu'à 6%). Ceci souligne la nécessité d'un contrôle interne très fort autour de l'étape de PSDisation.
  • Lapse risk management in insurance.

    Xavier MILHAUD
    ANR LoLitA Conference | 2018
    Pas de résumé disponible.
  • Choix opérationnels pour l'agrégation des risques dans l'assurance : La PSDisation et la sensibilité au SCR.

    Xavier MILHAUD
    IME Conference | 2018
    Pas de résumé disponible.
  • Tables de rachat pour la GAP dans l'assurance, avec des risques concurrents.

    Xavier MILHAUD
    EAJ Conference | 2018
    Pas de résumé disponible.
  • Agrégation des risques et PSDisation de la matrice de corrélation.

    Xavier MILHAUD
    10th Conference in Actuarial Science and Finance | 2018
    Pas de résumé disponible.
  • Tables de déchéance pour la gestion du risque de déchéance dans l'assurance : une approche du risque concurrentiel.

    Xavier MILHAUD, Christophe DUTANG
    European Actuarial Journal | 2018
    eCet article traite du problème crucial de la modélisation des comportements des assurés en assurance vie. Nous nous concentrons ici sur les comportements de rachat et modélisons la durée de vie du contrat à l'aide de modèles de régression de survie. Les modèles standard ne parviennent pas à fournir des prévisions acceptables pour le moment des rachats en raison d'une trop grande hétérogénéité, alors que le cadre du risque concurrent fournit des informations intéressantes et des prédictions plus précises. Les résultats numériques découlent de l'utilisation du modèle de Fine & Gray ([13]) sur un portefeuille d'assurance comprenant des contrats d'assurance vie entière. Grâce à des backtests, ce cadre s'avère assez efficace et récupère la trajectoire du taux de déchéance empirique en agrégeant les durées de vie prédites individuelles. Ces résultats pourraient être particulièrement utiles pour concevoir de futurs produits d'assurance. De plus, ce cadre permet de calibrer les tables de déchéance expérimentales, simplifiant ainsi la gestion du risque de déchéance pour les équipes opérationnelles.
  • Comparaison entre la préservation des micro-niveaux et l'apprentissage automatique.

    Xavier MILHAUD
    Colloquium AAI | 2017
    Pas de résumé disponible.
  • Arbres de décision pondérés appliqués au provisionnement dans l'assurance.

    Xavier MILHAUD
    EAJ Conference | 2016
    Pas de résumé disponible.
  • Estimateurs basés sur les arbres pour les observations censurées avec des applications actuarielles.

    Xavier MILHAUD
    12th ICOR | 2016
    Pas de résumé disponible.
  • Stress tests pour le risque de déchéance : corrélation et contagion entre les comportements des assurés.

    Xavier MILHAUD
    Colloque CIRM Copules - Extremes - Actuariat | 2016
    Pas de résumé disponible.
  • Régression censurée à base d'arbres avec applications dans le domaine des assurances.

    Olivier LOPEZ, Xavier MILHAUD, Pierre emmanuel THEROND, Pierre e. THEROND
    Electronic Journal of Statistics | 2016
    Nous proposons une procédure d'arbre de régression pour estimer la distribution conditionnelle d'une variable qui n'est pas directement observée en raison de la censure. Le modèle que nous considérons est motivé par des applications dans le domaine de l'assurance, notamment l'analyse des garanties qui impliquent des durées, et le provisionnement des sinistres. Nous dérivons des résultats de cohérence pour notre procédure, et pour la sélection d'un sous-arbre optimal en utilisant une stratégie d'élagage. Ces résultats théoriques sont soutenus par une étude de simulation et deux applications impliquant des ensembles de données d'assurance. La première concerne l'assurance de protection du revenu, tandis que la seconde traite du provisionnement dans l'assurance de responsabilité civile.
  • Algorithme CART pondéré pour les données censurées.

    Xavier MILHAUD, Pierre emmanuel THEROND, Olivier LOPEZ
    100 % Data Science | 2016
    Mise en oeuvre, dans le cadre du provisionnement du risque de maintien en arrêt de travail par un assureur, de méthodes d'arbres de régression et de classification en présence de données censurées à droite.
  • Le risque de déchéance dans l'assurance vie : Effets de corrélation et de contagion entre les comportements des assurés.

    Flavia BARSOTTI, Xavier MILHAUD, Yahia SALHI
    Insurance: Mathematics and Economics | 2016
    Le présent article propose une nouvelle méthodologie pour modéliser le risque de déchéance dans l'assurance-vie en intégrant les aspects dynamiques des comportements des assurés et la dépendance de l'intensité de déchéance aux conditions macroéconomiques. Notre approche, adaptée aux régimes économiques stables ainsi qu'aux scénarios de stress, introduit un cadre mathématique dans lequel l'intensité des déchéances suit un processus de contagion dynamique, voir [Dassios A. et Zhao H. (2011) : A dynamic contagion process, Advances in Applied Probability, Vol. 43:3, p. 814-846]. Cela permet de capturer à la fois la contagion et la corrélation pouvant survenir entre les comportements des assurés. Dans ce cadre, une composante de saut externe, déterminée par le marché, entraîne le processus d'intensité des rachats en fonction de la trajectoire des taux d'intérêt : lorsque l'écart entre les taux d'intérêt du marché et le taux de crédit contractuel franchit un seuil donné, l'assureur est susceptible de connaître davantage de rachats. Une dynamique log-normale pour les taux à terme est introduite pour construire les trajectoires d'une variable de marché observable et imiter l'effet d'un événement déclencheur macroéconomique basé sur les taux d'intérêt sur l'intensité des déchéances. Contrairement aux travaux précédents, notre intensité de bruit de fond n'est pas constante et le processus d'intensité résultant n'est pas markovien. Des expressions à forme fermée et des sensibilités analytiques pour les moments de l'intensité du laps sont fournies, montrant comment les laps peuvent être affectés par des comportements massifs d'imitation. D'autres analyses sont ensuite menées pour illustrer comment le risque moyen varie en fonction des paramètres du modèle, tandis qu'une étude de simulation compare nos résultats à ceux obtenus en utilisant des pratiques standard. Les résultats numériques mettent en évidence une mauvaise estimation potentielle du nombre attendu de déchéances dans des scénarios extrêmes lors de l'utilisation des méthodologies classiques de test de stress.
  • Scénario de déchéance massive dans l'assurance, utilisation d'un processus de contagion dynamique.

    Xavier MILHAUD
    Séminaire L2 | 2015
    Pas de résumé disponible.
  • Rachats de contrats d’assurance et Solvency 2.

    Xavier MILHAUD
    Conférence/débat par l'AFGAP | 2015
    Pas de résumé disponible.
  • Prédiction des durées de vie par des estimateurs basés sur les arbres.

    Xavier MILHAUD
    Longevity 11 Conference | 2015
    Pas de résumé disponible.
  • Arbres de régression et de classification (CART).

    Olivier LOPEZ, Xavier MILHAUD, Pierre emmanuel THEROND
    l'actuariel | 2015
    Ces outils fournissent de nouvelles méthodes pour répondre aux problématiques des assureurs, notamment pour l'analyse des comportements des assurés et des prospects. Ils permettent de construire des classes de risques.
  • Risque de rachat en assurance, quelques approches.

    Xavier MILHAUD
    Chaire risques systémiques (ACPR) | 2015
    Pas de résumé disponible.
  • Estimateurs arborescents dans la régression censurée : application à la réservation.

    Xavier MILHAUD
    EAJ Conference | 2014
    Pas de résumé disponible.
  • Sélection de mélanges GLM avec une approche de regroupement.

    Xavier MILHAUD
    MBC2 Workshop | 2014
    Pas de résumé disponible.
  • Arbres de régression et modèles de durée.

    Xavier MILHAUD
    Ecole d'été de l'Institut des Actuaires | 2014
    Pas de résumé disponible.
  • Les abandons : facteurs de risque et modélisation.

    Xavier MILHAUD
    Conférence de l'ACPR | 2014
    Pas de résumé disponible.
  • Sélection de mélanges GLM : un nouveau critère pour le regroupement.

    Olivier LOPEZ, Milhaud XAVIER
    2014
    Le clustering basé sur des modèles à partir de mélanges finis de modèles linéaires généralisés est une question difficile qui a fait l'objet de nombreux développements récents. En pratique, l'étape de sélection du modèle est généralement effectuée en utilisant les critères pénalisés AIC ou BIC. Cependant, les simulations montrent qu'ils ont tendance à surestimer la dimension réelle du modèle. Ces éléments nous ont conduit à considérer un nouveau critère proche de l'ICL, introduit pour la première fois dans Baudry (2009). Sa définition nécessite d'introduire un contraste incorporant un terme entropique : en utilisant des inégalités de concentration, nous dérivons des propriétés clés sur la convergence du M-estimateur associé. La cohérence du critère de classification correspondant suit ensuite en fonction de certaines exigences classiques sur le terme de pénalité. Enfin, une étude de simulation permet de corroborer nos résultats théoriques, et montre l'efficacité de la méthode dans une perspective de clustering.
  • Regroupement avec des mélanges de GLM.

    Xavier MILHAUD
    46eme Journées de Statistique | 2014
    Pas de résumé disponible.
  • Gestion des facteurs de risque exogènes et endogènes pour prédire les comportements d'abandon.

    Xavier MILHAUD
    ASTIN Bulletin | 2013
    Les assureurs se préoccupent depuis longtemps des rachats, en particulier dans le domaine de l'épargne, où des sommes considérables sont en jeu. L'émergence de la directive européenne Solvabilité II, qui encourage le développement de modèles de risques internes (parmi lesquels une unité complète est dédiée à la gestion du risque de rachat), renforce la nécessité d'étudier en profondeur et de comprendre ce risque. Dans cet article, nous étudions les thèmes de la segmentation et de la modélisation des rachats afin de mieux prendre en compte les principaux facteurs de risque impactant les décisions des assurés. Nous constatons que plusieurs aspects complexes doivent être traités spécifiquement pour prédire les rachats, en particulier l'hétérogénéité des comportements ainsi que le contexte auquel est confronté l'assuré. En les combinant, nous développons une nouvelle méthodologie qui semble fournir de bons résultats sur des lignes d'affaires données, et qui de plus peut être adaptée à d'autres produits avec peu d'effort.
  • Mélanges de GLMs et nombre de composantes : application au risque de rachat en Assurance Vie.

    Xavier MILHAUD
    2012
    La question du rachat préoccupe les assureurs depuis longtemps notamment dans le contexte des contrats d'épargne en Assurance-Vie, pour lesquels des sommes colossales sont en jeu. L'émergence de la directive européenne Solvabilité II, qui préconise le développement de modèles internes (dont un module entier est dédié à la gestion des risques de comportement de rachat), vient renforcer la nécessité d'approfondir la connaissance et la compréhension de ce risque. C'est à ce titre que nous abordons dans cette thèse les problématiques de segmentation et de modélisation des rachats, avec pour objectif de mieux connaître et prendre en compte l'ensemble des facteurs-clefs qui jouent sur les décisions des assurés. L'hétérogénéité des comportements et leur corrélation ainsi que l'environnement auquel sont soumis les assurés sont autant de difficultés à traiter de manière spécifique afin d'effectuer des prévisions. Nous développons ainsi une méthodologie qui aboutit à des résultats très encourageants . et qui a l'avantage d'être réplicable en l'adaptant aux spécificités de différentes lignes de produits. A travers cette modélisation, la sélection de modèle apparaît comme un point central. Nous le traitons en établissant les propriétés de convergence forte d'un nouvel estimateur, ainsi que la consistance d'un nouveau critère de sélection dans le cadre de mélanges de modèles linéaires généralisés Insurers have been concerned about surrenders for a long time especially in Saving business, where huge sums are at stake.
  • Mélanges de GLMs et nombre de composantes : application au risque de rachat en Assurance Vie.

    Xavier MILHAUD, Stephane LOISEL, Veronique MAUME DESCHAMPS, Hansjoerg ALBRECHER, Stephane LOISEL, Veronique MAUME DESCHAMPS, Vincent LEPEZ, Denys POMMERET, Bernard GAREL
    2012
    La question du rachat préoccupe les assureurs depuis longtemps notamment dans le contexte des contrats d'épargne en Assurance-Vie, pour lesquels des sommes colossales sont en jeu. L'émergence de la directive européenne Solvabilité II, qui préconise le développement de modèles internes (dont un module entier est dédié à la gestion des risques de comportement de rachat), vient renforcer la nécessité d'approfondir la connaissance et la compréhension de ce risque. C'est à ce titre que nous abordons dans cette thèse les problématiques de segmentation et de modélisation des rachats, avec pour objectif de mieux connaître et prendre en compte l'ensemble des facteurs-clefs qui jouent sur les décisions des assurés. L'hétérogénéité des comportements et leur corrélation ainsi que l'environnement auquel sont soumis les assurés sont autant de difficultés à traiter de manière spécifique afin d'effectuer des prévisions. Nous développons ainsi une méthodologie qui aboutit à des résultats très encourageants . et qui a l'avantage d'être réplicable en l'adaptant aux spécificités de différentes lignes de produits. A travers cette modélisation, la sélection de modèle apparaît comme un point central. Nous le traitons en établissant les propriétés de convergence forte d'un nouvel estimateur, ainsi que la consistance d'un nouveau critère de sélection dans le cadre de mélanges de modèles linéaires généralisés.
Les affiliations sont détectées à partir des signatures des publications identifiées dans scanR. Un auteur peut donc apparaître affilié à plusieurs structures ou tutelles en fonction de ces signatures. Les dates affichées correspondent seulement aux dates des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr