MILHAUD Xavier
Thématiques des productions
Affiliations
-
2020 - 2021Hospices Civils de Lyon
-
2020 - 2021Centre européen de résonance magnétique nucléaire à très hauts champs de lyon
-
2011 - 2021Laboratoire de sciences actuarielle et financière
-
2015 - 2016Centre de recherche en économie et statistique
-
2013 - 2016Centre de recherche en économie et statistique de l'Ensae et l'Ensai
-
2011 - 2012Université Claude Bernard Lyon 1
-
2013 - 2014Ecole nationale de statistique et d'administration économique ParisTech
-
2011 - 2012Sciences economiques et de gestion
- 2021Test de modèle de contamination à deux échantillons sans contrainte de forme.
- 2020Test semi-paramétrique de comparaison des composantes d'un mélange à deux échantillons.Le provisionnement individuel et l'estimation non paramétrique des montants de sinistres soumis à d'importants délais de déclaration.
- 2019Apprentissage automatique, correction des biais et estimateurs plug-in pour un provisionnement précis au niveau micro.Un algorithme à base d'arbres adapté au provisionnement à micro-niveau et aux sinistres à long développement.
- 2018Choix opérationnels pour l'agrégation des risques dans l'assurance : PSDisation et sensibilité au SCR.Lapse risk management in insurance.Choix opérationnels pour l'agrégation des risques dans l'assurance : La PSDisation et la sensibilité au SCR.Tables de rachat pour la GAP dans l'assurance, avec des risques concurrents.Agrégation des risques et PSDisation de la matrice de corrélation.Tables de déchéance pour la gestion du risque de déchéance dans l'assurance : une approche du risque concurrentiel.
- 2017Comparaison entre la préservation des micro-niveaux et l'apprentissage automatique.
- 2016Arbres de décision pondérés appliqués au provisionnement dans l'assurance.Estimateurs basés sur les arbres pour les observations censurées avec des applications actuarielles.Stress tests pour le risque de déchéance : corrélation et contagion entre les comportements des assurés.Régression censurée à base d'arbres avec applications dans le domaine des assurances.Algorithme CART pondéré pour les données censurées.Le risque de déchéance dans l'assurance vie : Effets de corrélation et de contagion entre les comportements des assurés.
- 2015Scénario de déchéance massive dans l'assurance, utilisation d'un processus de contagion dynamique.Rachats de contrats d’assurance et Solvency 2.Prédiction des durées de vie par des estimateurs basés sur les arbres.Arbres de régression et de classification (CART).Risque de rachat en assurance, quelques approches.
- 2014Estimateurs arborescents dans la régression censurée : application à la réservation.Sélection de mélanges GLM avec une approche de regroupement.Arbres de régression et modèles de durée.Les abandons : facteurs de risque et modélisation.Sélection de mélanges GLM : un nouveau critère pour le regroupement.Regroupement avec des mélanges de GLM.
- 2013Gestion des facteurs de risque exogènes et endogènes pour prédire les comportements d'abandon.
- 2012Mélanges de GLMs et nombre de composantes : application au risque de rachat en Assurance Vie.Mélanges de GLMs et nombre de composantes : application au risque de rachat en Assurance Vie.
Test de modèle de contamination à deux échantillons sans contrainte de forme.
Xavier MILHAUD, Denys POMMERET, Yahia SALHI, Pierre VANDEKERKHOVE2021Dans cet article, nous considérons des distributions de mélange à deux composantes ayant une composante connue. Ce type de modèle présente un intérêt particulier lorsqu'un phénomène aléatoire connu est contaminé par un effet aléatoire inconnu. Nous proposons dans cette configuration de comparer les sources aléatoires inconnues impliquées dans deux échantillons distincts. À cette fin, nous introduisons l'approche dite IBM (Inversion-Best Matching) qui donne lieu à un test semi-paramétrique à deux échantillons de type Cramér-von Mises relaxé nécessitant des hypothèses très minimales (sans contrainte de forme) sur les distributions inconnues. L'accomplissement de notre travail réside dans le fait que nous établissons un théorème central limite fonctionnel sur les paramètres de proportion ainsi que sur les fonctions de distribution cumulatives inconnues du modèle, alors que Patra et Sen [22] prouvent que le taux √ n ne peut être atteint sur ces quantités dans le cas de base à un échantillon. Une étude numérique intensive est réalisée à partir d'un large éventail de configurations de simulation pour illustrer les propriétés asymptotiques de notre test. Enfin, notre procédure de test est appliquée à une application réelle par le biais d'un test de l'effet de mortalité post-covide par paire dans un panel de pays européens.Test semi-paramétrique de comparaison des composantes d'un mélange à deux échantillons.
Xavier MILHAUD, Denys POMMERET, Yahia SALHI, Pierre VANDEKERKHOVE2020Nous considérons dans cet article les distributions de mélange à deux composantes ayant une composante connue. C'est le cas lorsqu'une composante de référence de type gold standard est bien connue, et lorsqu'une population contient une telle composante plus une autre ayant des caractéristiques différentes. Lorsque deux populations sont tirées de tels modèles, nous proposons une procédure de test de type Khi-deux pénalisé capable de comparer deux à deux les composantes inconnues, c'est-à-dire de tester l'égalité de leurs densités de caractéristiques résiduelles. Une étude numérique intensive est réalisée à partir d'une large gamme de configurations de simulation pour illustrer les propriétés asymptotiques de notre test. De plus, la procédure de test est appliquée sur deux cas réels : i) des ensembles de données sur la mortalité, où les résultats montrent que le test reste robuste même dans des situations difficiles où la composante inconnue ne représente qu'un petit pourcentage de la population globale, ii) des ensembles de données sur la vitesse des galaxies, où la luminosité des étoiles mélangées à la Voie lactée est comparée.Le provisionnement individuel et l'estimation non paramétrique des montants de sinistres soumis à d'importants délais de déclaration.
Olivier LOPEZ, Xavier MILHAUD2020Grâce aux estimateurs non paramétriques issus de l'apprentissage automatique, le provisionnement au niveau micro est devenu de plus en plus populaire auprès des actuaires. Des recherches récentes se sont concentrées sur la manière d'intégrer l'ensemble des informations que l'on peut avoir sur les sinistres pour prédire les réserves individuelles, avec un succès variable dû à des observations incomplètes. En utilisant l'algorithme CART, nous développons de nouveaux résultats qui nous permettent de faire face à d'importants délais de déclaration et à des variables explicatives partiellement observées. Sur le plan statistique, nous étendons CART pour prendre en compte la troncature des données, et nous introduisons des estimateurs plug-in. Nos applications sont basées sur des portefeuilles d'assurance réels intégrant des garanties de protection des revenus et de responsabilité civile. Nous montrons que la connaissance complète de la durée de vie du sinistre est cruciale pour prédire efficacement les réserves individuelles.Apprentissage automatique, correction des biais et estimateurs plug-in pour un provisionnement précis au niveau micro.
Olivier LOPEZ, Xavier MILHAUD2019Grâce aux estimateurs non paramétriques issus de l'apprentissage automatique, le provisionnement des sinistres au niveau micro est devenu de plus en plus populaire dans les sciences actuarielles. Des recherches récentes se sont concentrées sur la manière d'intégrer l'ensemble des informations que l'on peut avoir sur les sinistres pour prédire les réserves individuelles, avec un succès variable dû à des observations incomplètes. Dans cet article, nous introduisons trois extensions aux travaux existants comparables : comment traiter la censure et la troncature présentes dans ce type de données, comment faire face à l'inflation lorsque le facteur d'inflation est inconnu, et comment mettre en œuvre une stratégie adéquate menant à des estimations de réserves personnalisées robustes. En utilisant des ensembles de tests indépendants, nos résultats - sur des garanties dont les temps de développement sont typiquement longs - montrent l'importance d'utiliser le temps de développement total du sinistre pour prédire les réserves avec une précision acceptable. Pour rester proche de la réalité, nos applications sont basées sur deux portefeuilles ouverts basés sur des ensembles de données réels.Un algorithme à base d'arbres adapté au provisionnement à micro-niveau et aux sinistres à long développement.
Olivier LOPEZ, Xavier MILHAUD, Pierre emmanuel THEROND, Pierre e. THERONDASTIN Bulletin | 2019Dans le domaine de l'assurance non-vie, la pérennité de l'activité exige des prévisions précises et robustes des réserves liées aux sinistres non payés. À cette fin, deux approches différentes ont été développées historiquement : les triangles de pertes agrégés et le provisionnement des sinistres individuels. La première a connu un grand succès opérationnel au cours des dernières décennies, tandis que l'utilisation de la seconde reste encore limitée. A travers deux exemples illustratifs et en introduisant un algorithme approprié basé sur des arbres, nous montrons que le provisionnement individuel des sinistres peut être vraiment prometteur, en particulier dans le contexte des risques à long terme.Choix opérationnels pour l'agrégation des risques dans l'assurance : PSDisation et sensibilité au SCR.
Xavier MILHAUD, Victorien PONCELET, Clement SAILLARDRisks | 2018Cet article répond à des questions cruciales sur la robustesse du processus de PSDisation pour des applications dans le domaine des assurances. La PSDisation fait référence au processus qui force une matrice à devenir semi-définie positive. Pour les compagnies qui utilisent des copules pour agréger les risques dans leur modèle interne, la PSDisation se produit lorsqu'elles travaillent avec des matrices de corrélation pour calculer le Capital de Solvabilité Requis (SCR). Nous étudions comment les choix opérationnels classiques concernant la modélisation de la dépendance des risques ont un impact sur le SCR pendant la PSDisation. Ces opérations font référence aux permutations des risques (ou des lignes d'affaires) dans la matrice de corrélation, à l'ajout d'un nouveau risque, et à l'introduction de poids de confiance donnés aux coefficients de corrélation. En utilisant des algorithmes génétiques, il est démontré que des transformations théoriquement neutres de la matrice de corrélation peuvent étonnamment conduire à des sensibilités significatives du SCR (jusqu'à 6%). Ceci souligne la nécessité d'un contrôle interne très fort autour de l'étape de PSDisation.Lapse risk management in insurance.
Xavier MILHAUDANR LoLitA Conference | 2018Pas de résumé disponible.Choix opérationnels pour l'agrégation des risques dans l'assurance : La PSDisation et la sensibilité au SCR.
Xavier MILHAUDIME Conference | 2018Pas de résumé disponible.Tables de rachat pour la GAP dans l'assurance, avec des risques concurrents.
Xavier MILHAUDEAJ Conference | 2018Pas de résumé disponible.Agrégation des risques et PSDisation de la matrice de corrélation.
Xavier MILHAUD10th Conference in Actuarial Science and Finance | 2018Pas de résumé disponible.Tables de déchéance pour la gestion du risque de déchéance dans l'assurance : une approche du risque concurrentiel.
Xavier MILHAUD, Christophe DUTANGEuropean Actuarial Journal | 2018eCet article traite du problème crucial de la modélisation des comportements des assurés en assurance vie. Nous nous concentrons ici sur les comportements de rachat et modélisons la durée de vie du contrat à l'aide de modèles de régression de survie. Les modèles standard ne parviennent pas à fournir des prévisions acceptables pour le moment des rachats en raison d'une trop grande hétérogénéité, alors que le cadre du risque concurrent fournit des informations intéressantes et des prédictions plus précises. Les résultats numériques découlent de l'utilisation du modèle de Fine & Gray ([13]) sur un portefeuille d'assurance comprenant des contrats d'assurance vie entière. Grâce à des backtests, ce cadre s'avère assez efficace et récupère la trajectoire du taux de déchéance empirique en agrégeant les durées de vie prédites individuelles. Ces résultats pourraient être particulièrement utiles pour concevoir de futurs produits d'assurance. De plus, ce cadre permet de calibrer les tables de déchéance expérimentales, simplifiant ainsi la gestion du risque de déchéance pour les équipes opérationnelles.Comparaison entre la préservation des micro-niveaux et l'apprentissage automatique.
Xavier MILHAUDColloquium AAI | 2017Pas de résumé disponible.Arbres de décision pondérés appliqués au provisionnement dans l'assurance.
Xavier MILHAUDEAJ Conference | 2016Pas de résumé disponible.Estimateurs basés sur les arbres pour les observations censurées avec des applications actuarielles.
Xavier MILHAUD12th ICOR | 2016Pas de résumé disponible.Stress tests pour le risque de déchéance : corrélation et contagion entre les comportements des assurés.
Xavier MILHAUDColloque CIRM Copules - Extremes - Actuariat | 2016Pas de résumé disponible.Régression censurée à base d'arbres avec applications dans le domaine des assurances.
Olivier LOPEZ, Xavier MILHAUD, Pierre emmanuel THEROND, Pierre e. THERONDElectronic Journal of Statistics | 2016Nous proposons une procédure d'arbre de régression pour estimer la distribution conditionnelle d'une variable qui n'est pas directement observée en raison de la censure. Le modèle que nous considérons est motivé par des applications dans le domaine de l'assurance, notamment l'analyse des garanties qui impliquent des durées, et le provisionnement des sinistres. Nous dérivons des résultats de cohérence pour notre procédure, et pour la sélection d'un sous-arbre optimal en utilisant une stratégie d'élagage. Ces résultats théoriques sont soutenus par une étude de simulation et deux applications impliquant des ensembles de données d'assurance. La première concerne l'assurance de protection du revenu, tandis que la seconde traite du provisionnement dans l'assurance de responsabilité civile.Algorithme CART pondéré pour les données censurées.
Xavier MILHAUD, Pierre emmanuel THEROND, Olivier LOPEZ100 % Data Science | 2016Mise en oeuvre, dans le cadre du provisionnement du risque de maintien en arrêt de travail par un assureur, de méthodes d'arbres de régression et de classification en présence de données censurées à droite.Le risque de déchéance dans l'assurance vie : Effets de corrélation et de contagion entre les comportements des assurés.
Flavia BARSOTTI, Xavier MILHAUD, Yahia SALHIInsurance: Mathematics and Economics | 2016Le présent article propose une nouvelle méthodologie pour modéliser le risque de déchéance dans l'assurance-vie en intégrant les aspects dynamiques des comportements des assurés et la dépendance de l'intensité de déchéance aux conditions macroéconomiques. Notre approche, adaptée aux régimes économiques stables ainsi qu'aux scénarios de stress, introduit un cadre mathématique dans lequel l'intensité des déchéances suit un processus de contagion dynamique, voir [Dassios A. et Zhao H. (2011) : A dynamic contagion process, Advances in Applied Probability, Vol. 43:3, p. 814-846]. Cela permet de capturer à la fois la contagion et la corrélation pouvant survenir entre les comportements des assurés. Dans ce cadre, une composante de saut externe, déterminée par le marché, entraîne le processus d'intensité des rachats en fonction de la trajectoire des taux d'intérêt : lorsque l'écart entre les taux d'intérêt du marché et le taux de crédit contractuel franchit un seuil donné, l'assureur est susceptible de connaître davantage de rachats. Une dynamique log-normale pour les taux à terme est introduite pour construire les trajectoires d'une variable de marché observable et imiter l'effet d'un événement déclencheur macroéconomique basé sur les taux d'intérêt sur l'intensité des déchéances. Contrairement aux travaux précédents, notre intensité de bruit de fond n'est pas constante et le processus d'intensité résultant n'est pas markovien. Des expressions à forme fermée et des sensibilités analytiques pour les moments de l'intensité du laps sont fournies, montrant comment les laps peuvent être affectés par des comportements massifs d'imitation. D'autres analyses sont ensuite menées pour illustrer comment le risque moyen varie en fonction des paramètres du modèle, tandis qu'une étude de simulation compare nos résultats à ceux obtenus en utilisant des pratiques standard. Les résultats numériques mettent en évidence une mauvaise estimation potentielle du nombre attendu de déchéances dans des scénarios extrêmes lors de l'utilisation des méthodologies classiques de test de stress.Scénario de déchéance massive dans l'assurance, utilisation d'un processus de contagion dynamique.
Xavier MILHAUDSéminaire L2 | 2015Pas de résumé disponible.Rachats de contrats d’assurance et Solvency 2.
Xavier MILHAUDConférence/débat par l'AFGAP | 2015Pas de résumé disponible.Prédiction des durées de vie par des estimateurs basés sur les arbres.
Xavier MILHAUDLongevity 11 Conference | 2015Pas de résumé disponible.Arbres de régression et de classification (CART).
Olivier LOPEZ, Xavier MILHAUD, Pierre emmanuel THERONDl'actuariel | 2015Ces outils fournissent de nouvelles méthodes pour répondre aux problématiques des assureurs, notamment pour l'analyse des comportements des assurés et des prospects. Ils permettent de construire des classes de risques.Risque de rachat en assurance, quelques approches.
Xavier MILHAUDChaire risques systémiques (ACPR) | 2015Pas de résumé disponible.Estimateurs arborescents dans la régression censurée : application à la réservation.
Xavier MILHAUDEAJ Conference | 2014Pas de résumé disponible.Sélection de mélanges GLM avec une approche de regroupement.
Xavier MILHAUDMBC2 Workshop | 2014Pas de résumé disponible.Arbres de régression et modèles de durée.
Xavier MILHAUDEcole d'été de l'Institut des Actuaires | 2014Pas de résumé disponible.Les abandons : facteurs de risque et modélisation.
Xavier MILHAUDConférence de l'ACPR | 2014Pas de résumé disponible.Sélection de mélanges GLM : un nouveau critère pour le regroupement.
Olivier LOPEZ, Milhaud XAVIER2014Le clustering basé sur des modèles à partir de mélanges finis de modèles linéaires généralisés est une question difficile qui a fait l'objet de nombreux développements récents. En pratique, l'étape de sélection du modèle est généralement effectuée en utilisant les critères pénalisés AIC ou BIC. Cependant, les simulations montrent qu'ils ont tendance à surestimer la dimension réelle du modèle. Ces éléments nous ont conduit à considérer un nouveau critère proche de l'ICL, introduit pour la première fois dans Baudry (2009). Sa définition nécessite d'introduire un contraste incorporant un terme entropique : en utilisant des inégalités de concentration, nous dérivons des propriétés clés sur la convergence du M-estimateur associé. La cohérence du critère de classification correspondant suit ensuite en fonction de certaines exigences classiques sur le terme de pénalité. Enfin, une étude de simulation permet de corroborer nos résultats théoriques, et montre l'efficacité de la méthode dans une perspective de clustering.Regroupement avec des mélanges de GLM.
Xavier MILHAUD46eme Journées de Statistique | 2014Pas de résumé disponible.Gestion des facteurs de risque exogènes et endogènes pour prédire les comportements d'abandon.
Xavier MILHAUDASTIN Bulletin | 2013Les assureurs se préoccupent depuis longtemps des rachats, en particulier dans le domaine de l'épargne, où des sommes considérables sont en jeu. L'émergence de la directive européenne Solvabilité II, qui encourage le développement de modèles de risques internes (parmi lesquels une unité complète est dédiée à la gestion du risque de rachat), renforce la nécessité d'étudier en profondeur et de comprendre ce risque. Dans cet article, nous étudions les thèmes de la segmentation et de la modélisation des rachats afin de mieux prendre en compte les principaux facteurs de risque impactant les décisions des assurés. Nous constatons que plusieurs aspects complexes doivent être traités spécifiquement pour prédire les rachats, en particulier l'hétérogénéité des comportements ainsi que le contexte auquel est confronté l'assuré. En les combinant, nous développons une nouvelle méthodologie qui semble fournir de bons résultats sur des lignes d'affaires données, et qui de plus peut être adaptée à d'autres produits avec peu d'effort.Mélanges de GLMs et nombre de composantes : application au risque de rachat en Assurance Vie.
Xavier MILHAUD2012La question du rachat préoccupe les assureurs depuis longtemps notamment dans le contexte des contrats d'épargne en Assurance-Vie, pour lesquels des sommes colossales sont en jeu. L'émergence de la directive européenne Solvabilité II, qui préconise le développement de modèles internes (dont un module entier est dédié à la gestion des risques de comportement de rachat), vient renforcer la nécessité d'approfondir la connaissance et la compréhension de ce risque. C'est à ce titre que nous abordons dans cette thèse les problématiques de segmentation et de modélisation des rachats, avec pour objectif de mieux connaître et prendre en compte l'ensemble des facteurs-clefs qui jouent sur les décisions des assurés. L'hétérogénéité des comportements et leur corrélation ainsi que l'environnement auquel sont soumis les assurés sont autant de difficultés à traiter de manière spécifique afin d'effectuer des prévisions. Nous développons ainsi une méthodologie qui aboutit à des résultats très encourageants . et qui a l'avantage d'être réplicable en l'adaptant aux spécificités de différentes lignes de produits. A travers cette modélisation, la sélection de modèle apparaît comme un point central. Nous le traitons en établissant les propriétés de convergence forte d'un nouvel estimateur, ainsi que la consistance d'un nouveau critère de sélection dans le cadre de mélanges de modèles linéaires généralisés Insurers have been concerned about surrenders for a long time especially in Saving business, where huge sums are at stake.Mélanges de GLMs et nombre de composantes : application au risque de rachat en Assurance Vie.
Xavier MILHAUD, Stephane LOISEL, Veronique MAUME DESCHAMPS, Hansjoerg ALBRECHER, Stephane LOISEL, Veronique MAUME DESCHAMPS, Vincent LEPEZ, Denys POMMERET, Bernard GAREL2012La question du rachat préoccupe les assureurs depuis longtemps notamment dans le contexte des contrats d'épargne en Assurance-Vie, pour lesquels des sommes colossales sont en jeu. L'émergence de la directive européenne Solvabilité II, qui préconise le développement de modèles internes (dont un module entier est dédié à la gestion des risques de comportement de rachat), vient renforcer la nécessité d'approfondir la connaissance et la compréhension de ce risque. C'est à ce titre que nous abordons dans cette thèse les problématiques de segmentation et de modélisation des rachats, avec pour objectif de mieux connaître et prendre en compte l'ensemble des facteurs-clefs qui jouent sur les décisions des assurés. L'hétérogénéité des comportements et leur corrélation ainsi que l'environnement auquel sont soumis les assurés sont autant de difficultés à traiter de manière spécifique afin d'effectuer des prévisions. Nous développons ainsi une méthodologie qui aboutit à des résultats très encourageants . et qui a l'avantage d'être réplicable en l'adaptant aux spécificités de différentes lignes de produits. A travers cette modélisation, la sélection de modèle apparaît comme un point central. Nous le traitons en établissant les propriétés de convergence forte d'un nouvel estimateur, ainsi que la consistance d'un nouveau critère de sélection dans le cadre de mélanges de modèles linéaires généralisés.
Les affiliations sont détectées à partir des signatures des publications identifiées dans scanR. Un auteur peut donc apparaître affilié à plusieurs structures ou tutelles en fonction de ces signatures. Les dates affichées correspondent seulement aux dates des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr