PLANCHET Frederic

< Retour à ILB Patrimoine
Thématiques des productions
Affiliations
  • 2005 - 2019
    Laboratoire de sciences actuarielle et financière
  • 2013 - 2016
    Pôle de recherches interdisciplinaires en sciences du management
  • 2012 - 2013
    Université Claude Bernard Lyon 1
  • 2020
  • 2019
  • 2018
  • 2017
  • 2016
  • 2015
  • 2014
  • 2013
  • 2011
  • 2009
  • 2006
  • Chapitre 1 : Modeling and Forcasting Mortality with Machine Learning Approaches (avec Q. Guibert et P. Piette) et Chapitre 7 : Measuring the Impact of a Binary Variable on a Quantitative Response in a Non Parametric Framework (avec A. Wabo et M.

    Frederic PLANCHET, Christian y. ROBERT
    Insurance data analytics : some case studies of advanced algorithms and applications | 2020
    L'utilisation d'algorithmes exploitant des données hétérogènes et souvent volumineuses s'est développée très rapidement ces dernières années, profitant de l'augmentation des capacités de calcul et des données collectées par les GAFA. Ces techniques sont d'abord apparues dans le monde de l'assurance pour répondre à des besoins de gestion ou de marketing : dimensionnement des centres d'appels, sélection des clients, analyse automatisée des clauses contractuelles, automatisation des processus de souscription, etc. Même si quelques tentatives anciennes peuvent être repérées, ce n'est que récemment que les actuaires ont commencé à intégrer plus systématiquement les techniques de data science dans leur " boîte à outils " et à identifier les problématiques pour lesquelles ces approches pourraient s'avérer plus efficaces que les approches habituelles. Dans cet ouvrage, à la croisée de l'actuariat et de la science des données, vous trouverez un état de l'art de l'utilisation de ces techniques pour l'analyse et la quantification des risques. Destiné aux étudiants, universitaires et praticiens, il vise à fournir une base de travail et des pistes de réflexion pour une utilisation éclairée de la science des données en actuariat.
  • Chapitre 13 - Viabilité financière du système de retraite algérien : Une analyse prospective des 50 prochaines années.

    Frederic PLANCHET, Farid FLICI
    Economic Challenges of Pension Systems | 2020
    Maintenir la stabilité des systèmes de retraite est aujourd'hui un défi majeur pour tous les pays. Cette durabilité est largement liée à un ensemble d'éléments variables dans le temps qui incluent la structure de la population, la longévité, l'emploi et l'affiliation à la sécurité sociale. Dans le cas de l'Algérie, la retraite publique fonctionne selon le principe de la répartition et l'équilibre est maintenu par la subvention publique. Mais, la population est aujourd'hui vieillissante et la longévité s'améliore. La population retraitée est censée augmenter plus rapidement que la population en âge de travailler. Par conséquent, il sera plus difficile de maintenir l'égalité entre les revenus et les résultats de la retraite, surtout si l'on considère la faiblesse de la demande de sécurité sociale chez les travailleurs. Ces derniers restent largement dépendants de l'emploi public. Les salariés du secteur privé sont moins couverts. Dans le présent article, nous visons à simuler l'évolution future des facteurs démographiques et économiques affectant la stabilité du système de retraite algérien afin de montrer leur effet à long terme. Nous avons constaté qu'il sera impossible de maintenir la viabilité du système de retraite dans sa conception actuelle. L'accélération du processus de vieillissement impose d'entreprendre de lourdes réformes dans un avenir proche.
  • Viabilité financière du système de retraite algérien : Une analyse prospective des 50 prochaines années.

    Farid FLICI, Frederic PLANCHET
    Economic Challenges of Pension Systems | 2020
    Pas de résumé disponible.
  • L’évaluation économique des engagements en assurance vie : écueils, bonnes pratiques et préconisations pour une mise en œuvre pertinente.

    Kamal ARMEL, Frederic PLANCHET
    Opinions & Débats | 2020
    Pas de résumé disponible.
  • Mesure d’impact d’une variable binaire sur une réponse quantitative dans un cadre non paramétrique.

    Frederic PLANCHET, Auriol WABO
    Assurances et gestion des risques | 2020
    On propose dans cet article une méthode de quantification de l’effet d’une variable explicative qualitative sur une réponse quantitative plus souple à utiliser que le simple coefficient d’un modèle GLM multiplicatif . l’objectif est de disposer d’une mesure ne nécessitant pas l’hypothèse de proportionnalité du GLM et complètement décorrélée de l’effet des autres variables explicatives incluses dans le modèle. L’approche est illustrée à l’aide de données de coûts de sinistres matériels automobiles, pour lesquelles on cherche à quantifier l’impact de l’expert qui a évalué le sinistre sur le montant de l’évaluation.
  • Contributions au provisionnement en assurance de personnes et à la gestion des risques.

    Anani ayodele OLYMPIO, Stephane LOISEL, Frederic PLANCHET, Stephane LOISEL, Annamaria OLIVIERI, Michel BERA, Merce CLARAMUNT BIELSA
    2019
    Dans le secteur de l’assurance, les dernières évolutions règlementaires et des normes comptables vont dans le sens de la standardisation de la gestion des risques au sein des organismes. Dans ce contexte, l’objectif principal de ma thèse est de proposer différentes méthodologies d’évaluation et d’analyse des risques dans ce secteur. La première partie de ce manuscrit traite de la problématique de provisionnement individuel en non-vie. Je propose des adaptions d’algorithmes d’apprentissage automatique ensemblistes et de certaines métriques de performance pour l’estimation des durées des sinistres ainsi que des charges sinistres ultimes en présence de don-nées censurées à droite. L’application de ces méthodes à des données réelles de contrats de prêts ou de contrats de prévoyance collective conduit à des estimations plus performantes et plus robustes des paramètres considérés. La deuxième partie présente une approche d’estimation de choc à un an sur des paramètres spécifiques à l’entité (Undertaking Specific Parameters) du module santé assimilable la vie du pilier 1 de la formule standard de la norme Solvabilité II. L’utilisation de la crédibilité américaine (ou crédibilité à variation limitée) permet la prise en compte partielle des contraintes de disponibilité des données d’expérience (volumétrie et profondeur d’historique) lors du calibrage des chocs. A titre d’illustration, j’ai appliqué cette approche aux risques d’incidence et de maintien (ou de rétablissement) des garanties d’incapacité et d’invalidité en arrêt de travail d’un portefeuille de contrats de prêts. Les résultats obtenus montrent des baisses significatives des be-soins de capitaux de solvabilité requis (SCR) du risque de souscription par rapport à la formule standard. La troisième partie est une étude descriptive des calculs de la formule standard pour l’évaluation du besoin de fonds propres économiques du risque de dépendance. Elle permet de mettre en évidence les insuffisances de la norme et de proposer des pistes d’améliorations en vue d’une meilleure prise en compte des spécificités de ce risque. Enfin, dans la dernière partie du manuscrit, je propose une étude comparative des préférences d’attitudes face au risque dans le secteur financier, notamment la banque et l’assurance. Il s’agit d’une analyse empirique menée dans trois zones géographiques (Amérique, Europe et Afrique) afin de mesurer les liens et les différences entre les profils d’attitude face au risque et certaines variables sociodémographiques.
  • Les tableaux d'expérience de vie prospective des retraités algériens.

    Farid FLICI, Frederic PLANCHET
    Risks | 2019
    Pas de résumé disponible.
  • Mesure des risques biométriques des contrats d'assurance à long terme.

    Quentin GUIBERT, Frederic PLANCHET
    Actuarial Aspects of Long Term Care | 2019
    Pas de résumé disponible.
  • Déflateur stochastique pour un générateur de scénarios économiques à cinq facteurs.

    Po keng CHENG, Frederic PLANCHET
    2019
    Dans cet article, nous mettons en œuvre un déflateur stochastique avec cinq facteurs de risque économique et financier : les taux d'intérêt, le prix du risque sur le marché, les cours des actions, les intensités de défaut et les rendements de commodité. Nous examinons le déflateur avec différents actifs financiers, tels que les actions, les obligations à coupon zéro, les options vanille et les obligations à coupon d'entreprise. Nous trouvons les conditions de régularité requises pour mettre en œuvre notre déflateur stochastique. Nos résultats numériques montrent la fiabilité de l'approche du déflateur dans l'évaluation des produits financiers dérivés.
  • Mesure des risques biométriques des contrats d'assurance à long terme.

    Quentin GUIBERT, Frederic PLANCHET
    Actuarial Aspects of Long Term Care | 2019
    Les contrats d'assurance dépendance sont des produits d'assurance complexes couvrant un individu pour lesquels les questions de tarification et de provisionnement sont traditionnellement traitées par l'introduction de modèles multi-états. Ce type de modèle permet de décrire les transitions de chaque assuré à travers différents états qui correspondent à des événements déterminant, selon les termes du contrat, les engagements respectifs des parties. La description des contrats d'assurance par des modèles multi-états fait l'objet de plusieurs études dans la littérature actuarielle (cf. [21, 31] ou [14]). Pour mettre en œuvre cette approche de tarification ou de provisionnement, les actuaires doivent établir des bases statistiques adaptées.
  • Impact de la réassurance : Aspects quantitatifs.

    Frederic PLANCHET
    Actuarial Aspects of Long Term Care | 2019
    Pas de résumé disponible.
  • Analyses prospectives de mortalité : approches actuarielle et biomédicale.

    Edouard DEBONNEUIL, Frederic PLANCHET, Stephane LOISEL, Catherine VIOT, Frederic PLANCHET, Stephane LOISEL, Caroline HILLAIRET, Emmanuel MOYSE, Patrizia D ALESSIO, Arthur CHARPENTIER, Joel WAGNER
    2018
    La durée de vie humaine augmente dans le monde depuis quelques siècles. Cette augmentation a été plus importante que ne le prédisaient les spécialistes qui ont énoncé des limites. Malgré les incertitudes importantes sur l'avenir de la longévité, la biologie du vieillissement et ses applications semblent en passe de faire chuter les taux de mortalité aux grands âges, similairement à la chute des taux de mortalité infantile il y a 150 ans.L’industrie pharmaceutique prend conscience du potentiel des innovations biomédicales issues de la biologie du vieillissement, rachète des biotechs et développe des équipes en interne. Cela pourrait accélérer l'allongement de la vie.Cependant les tables des actuaires, à l'instar du modèle de type Lee Carter, tendent à prédire une décélération artificielle de la longévité et les risques calculés sont loin de représenter des avancées majeures issues de la biologie du vieillissement.Des modèles de mortalité future sont ici développés sans produire cette décélération. Il apparait qu'une augmentation voisine d'un trimestre par an était jusqu'à présent un meilleur prédicteur que les tendances de chaque pays. D'autres modèles prédisent des accélérations. Nous estimons les impacts sur les retraites.Les efforts pharmaceutiques en cours pour appliquer les résultats de la recherche biomédicale peuvent être craints du fait de leurs impacts sur les retraites. Nous étudions dans quelle mesure un méga fonds de longévité peut à la fois aider à financer les retraites par capitalisation et un grand nombre de développements pharmaceutiques: la mutualisation des risques cliniques permet de capter financièrement des succès biomédicaux liés à la longévité.
  • Les fonds de pension peuvent-ils gérer partiellement le risque de longévité en investissant dans un Megafund de longévité ?

    Edouard DEBONNEUIL, Anne EYRAUD LOISEL, Frederic PLANCHET
    Risks | 2018
    Les fonds de pension qui gèrent le risque de retraite doivent investir leurs actifs de manière diversifiée, sur de longues durées et si possible en faisant face au risque de taux d'intérêt et de longévité. Ces dernières années, une nouvelle classe d'investissement appelée mégafonds de longévité a été décrite, qui investit dans des essais cliniques pour des solutions contre les maladies liées à l'âge. En utilisant des modèles simples, nous étudions ici l'intérêt financier pour les fonds de pension d'investir dans un mégafonds de longévité.
  • Les fonds de pension peuvent-ils gérer partiellement le risque de longévité en investissant dans un Megafund de longévité ?

    Edouard DEBONNEUIL, Anne EYRAUD LOISEL, Frederic PLANCHET
    Risks | 2018
    Les fonds de pension qui gèrent le risque de retraite doivent investir leurs actifs de manière diversifiée, sur de longues durées et si possible en faisant face au risque de taux d'intérêt et de longévité. Ces dernières années, une nouvelle classe d'investissement appelée mégafonds de longévité a été décrite, qui investit dans des essais cliniques pour des solutions contre les maladies liées à l'âge. En utilisant des modèles simples, nous étudions ici l'intérêt financier pour les fonds de pension d'investir dans un mégafonds de longévité.
  • Vers un marché de l'assurance récolte qui fonctionne : une stratégie intégrée de gestion du risque systémique.

    Constance COLLIN, Didier FOLUS, Constantin MELLIOS, Didier FOLUS, Constantin MELLIOS, Jean CORDIER, Frederic PLANCHET, Yannick APPERT RAULLIN, Jean CORDIER, Frederic PLANCHET
    2018
    Les pertes de rendement dues au climat sont positivement corrélées. Cela va à l’encontre des principes d’assurance et expose l’assureur à des risques financiers qu’il ne peut supporter seul. Les réassureurs eux-mêmes peuvent être dépassés par les sommes en jeu. Les marchés financiers en revanche possèdent la capacité financière requise et l’effet diversifiant des risques climatiques pourraient intéresser les investisseurs. Une stratégie de gestion du risque systémique consistant pour l’assureur à isoler la partie corrélée du risque rendement et à la transférer aux marchés financiers via des obligations catastrophe est analysée en trois points. Tout d’abord, des modèles de tarification isolant la part systémique du risque sont présentés. Ensuite, la démonstration de la faible corrélation d’une obligation agricole est faite, ainsi que de ses rendements élevés, confirmant son potentiel pour les investisseurs. Enfin, l’évolution de la valeur de marché des compagnies émettrices d’obligations catastrophe est étudiée. Au global, aucun impact n’est détecté. En détail, des émissions répétées favorisent la hausse de la valeur de l’émetteur, et de grosses émissions en favorisent la baisse. Les assurances indicielles sont utilisées comme support de l’étude. Basées sur des proxys de rendement plutôt que sur des rendements réels, elles donnent accès à des bases de données complètes et fiables. Ces travaux contribuent à la littérature restreinte concernant les risques agricoles et leur transfert vers les marchés financiers. Ils fournissent aux assureurs une stratégie alternative de transfert de risque et ouvrent la voie vers des outils innovants d’investissement.
  • Prévision de séries temporelles multiples à l'aide de réseaux neuronaux à liens fonctionnels quasi-randomisés.

    Thierry MOUDIKI, Frederic PLANCHET, Areski COUSIN
    Risks | 2018
    Pas de résumé disponible.
  • Les actuaires croient-ils à la décélération de la longévité ?

    Edouard DEBONNEUIL, Stephane LOISEL, Frederic PLANCHET
    Insurance: Mathematics and Economics | 2018
    Alors que de plus en plus de personnes pensent qu'un allongement significatif de la durée de vie pourrait survenir prochainement, les hypothèses de mortalité future couramment utilisées doivent-elles être considérées comme prudentes ? Nous constatons ici que les tables actuarielles couramment utilisées pour les rentiers - ainsi que le modèle Lee-Carter - n'extrapolent pas l'espérance de vie au même rythme pour les années futures que pour les années passées. au contraire, elles produisent un certain ralentissement de la longévité. Cela s'explique généralement par le fait que leurs améliorations de la mortalité diminuent après un certain âge, et que ces améliorations spécifiques à l'âge sont constantes dans le temps. Comme alternatives potentielles i) nous étudions le modèle de Bongaarts qui produit des augmentations directes de l'espérance de vie. ii) nous l'adaptons pour produire des tendances de longévité conformes aux meilleures pratiques iii) nous comparons avec divers scénarios de longévité, y compris un modèle de "vitesse d'extension de la vie". iv) après avoir rassemblé les avancées en biogérontologie, nous discutons des éléments permettant aux systèmes de retraite de résister à une forte augmentation potentielle de l'espérance de vie.
  • Modélisation des taux d'intérêt pour l'assurance : interpolation, extrapolation et prévision.

    Thierry MOUDIKI, Frederic PLANCHET, Areski COUSIN, Stephane LOISEL, Frederic PLANCHET, Areski COUSIN, Diana DOROBANTU, Armelle GUILLOU, Florence PICARD, Franck MORAUX, Donatien HAINAUT
    2018
    L'ORSA Own Risk Solvency and Assessment est un ensemble de règles définies par la directive européenne Solvabilité II. Il est destiné à servir d'outil d'aide à la décision et d'analyse stratégique des risques. Dans le contexte de l'ORSA, les compagnies d'assurance doivent évaluer leur solvabilité future, de façon continue et prospective. Pour ce faire, ces dernières doivent notamment obtenir des projections de leur bilan (actif et passif) sur un certain horizon temporel. Dans ce travail de thèse, nous nous focalisons essentiellement sur l'aspect de prédiction des valeurs futures des actifs. Plus précisément, nous traitons de la courbe de taux, de sa construction et de son extrapolation à une date donnée, et de ses prédictions envisagées dans le futur. Nous parlons dans le texte de "courbe de taux", mais il s'agit en fait de construction de courbes de facteurs d'actualisation. Le risque de défaut de contrepartie n'est pas explicitement traité, mais des techniques similaires à celles développées peuvent être adaptées à la construction de courbe de taux incorporant le risque de défaut de contrepartie.
  • Prévision de séries temporelles multiples à l'aide de réseaux neuronaux à liens fonctionnels quasi-randomisés.

    Thierry MOUDIKI, Frederic PLANCHET, Areski COUSIN
    Risks | 2018
    Pas de résumé disponible.
  • Mesure du risque de perte d’autonomie totale en France métropolitaine.

    Quentin GUIBERT, Frederic PLANCHET, Michael SCHWARZINGER
    Bulletin Français d'Actuariat | 2018
    Ce papier s’intéresse à la construction de loi d’incidence pour la perte d’autonomie totale sur la période 2010-2012 à partir des données des bases nationales d’hospitalisation (PMSI 2008-2013). Nos résultats sont décomposés selon deux types de dépendance : dépendance cognitive (ou démence) et dépendance physique. Les femmes présentent un risque légèrement plus important d’entrée en démence, alors que le risque lié à la dépendance physique est plus marqué chez les hommes. L’incidence en dépendance « toutes causes » est comparable entre hommes et femmes. Les résultats suggèrent un ralentissement de l’incidence aux delà de 90 ans et une convergence des hommes et des femmes aux grands âges. Les implications de ces résultats pour l’extrapolation aux grands âges sont discutées.
  • Inférence non paramétrique des probabilités de transition basée sur les estimateurs intégraux d'Aalen-Johansen pour les modèles multi-états acycliques : application à l'assurance dépendance.

    Quentin GUIBERT, Frederic PLANCHET
    Insurance: Mathematics and Economics | 2018
    Pas de résumé disponible.
  • Inférence non paramétrique des probabilités de transition basée sur les estimateurs intégraux d'Aalen-Johansen pour les modèles multi-états acycliques : Application à l'assurance dépendance.

    Quentin GUIBERT, Frederic PLANCHET
    2018
    L'étude de l'assurance dépendance nécessite la modélisation de la durée de vie des individus en présence d'événements à la fois terminaux et non terminaux qui sont concomitants. Bien qu'un modèle multi-états semi-Markov non homogène soit probablement le meilleur candidat pour cet objectif, la plupart des recherches actuelles supposent, peut-être abusivement, que l'hypothèse de Markov est satisfaite lors de l'ajustement du modèle. Dans ce contexte, l'utilisation des estimateurs d'Aalen-Johansen pour les probabilités de transition peut induire un biais, qui peut être important lorsque l'hypothèse de Markov n'est pas formulée. Sur la base de certaines études récentes développant des estimateurs non markoviens dans le modèle maladie-décès, que nous pouvons facilement étendre à un modèle acyclique multi-états plus général, nous présentons trois estimateurs non paramétriques des probabilités de transition des flux monétaires payants, qui présentent un intérêt pour la tarification ou la réservation de garanties de dépendance en temps discret. Comme notre méthode estime directement ces quantités au lieu des intensités de transition, il est possible de dériver des résultats asymptotiques pour ces probabilités sous une censure droite aléatoire non dépendante, obtenue en remettant le système en place avec deux blocs de risque concurrents. L'inclusion de la troncature à gauche est également considérée. Nous effectuons des simulations pour comparer la performance de nos estimateurs de probabilités de transition sans l'hypothèse de Markov. Enfin, nous proposons une application numérique avec des données d'assurance dépendance, qui sont traditionnellement analysées avec un modèle semi-Markov.
  • Mesure du risque de perte d'autonomie totale en france métropolitaine.

    Quentin GUIBERT, Frederic PLANCHET, Michael SCHWARZINGER
    Bulletin Français d'Actuariat | 2018
    Ce papier s'intéresse à la construction de loi d'incidence pour la perte d'autonomie totale sur la période 2010-2012 à partir des données des bases nationales d'hospitalisation (PMSI 2008-2013). Nos résultats sont décomposés selon deux types de dépendance : dépendance cognitive (ou démence) et dépendance physique. Les femmes présentent un risque légèrement plus important d'entrée en démence, alors que le risque lié à la dépendance physique est plus marqué chez les hommes. L'incidence en dépendance « toutes causes » est comparable entre hommes et femmes. Les résultats suggèrent un ralentissement de l'incidence aux delà de 90 ans et une convergence des hommes et des femmes aux grands âges. Les implications de ces résultats pour l'extrapolation aux grands âges sont discutées.
  • Inférence non paramétrique des probabilités de transition basée sur les estimateurs intégraux d'Aalen-Johansen pour les modèles multi-états acycliques : application à l'assurance dépendance.

    Quentin GUIBERT, Frederic PLANCHET
    Insurance: Mathematics and Economics | 2018
    L'étude de l'assurance dépendance nécessite la modélisation de la durée de vie des individus en présence d'événements à la fois terminaux et non terminaux qui sont concomitants. Bien qu'un modèle multi-états semi-Markov non homogène soit probablement le meilleur candidat pour cet objectif, la plupart des recherches actuelles supposent, peut-être abusivement, que l'hypothèse de Markov est satisfaite lors de l'ajustement du modèle. Dans ce contexte, l'utilisation des estimateurs d'Aalen-Johansen pour les probabilités de transition peut induire un biais, qui peut être important lorsque l'hypothèse de Markov n'est pas formulée. Sur la base de certaines études récentes développant des estimateurs non markoviens dans le modèle maladie-décès, que nous pouvons facilement étendre à un modèle acyclique multi-états plus général, nous présentons trois estimateurs non paramétriques des probabilités de transition des flux monétaires payants, qui présentent un intérêt pour la tarification ou la réservation de garanties de dépendance en temps discret. Comme notre méthode estime directement ces quantités au lieu des intensités de transition, il est possible de dériver des résultats asymptotiques pour ces probabilités sous une censure droite aléatoire non dépendante, obtenue en remettant le système en place avec deux blocs de risque concurrents. L'inclusion de la troncature à gauche est également considérée. Nous effectuons des simulations pour comparer la performance de nos estimateurs de probabilités de transition sans l'hypothèse de Markov. Enfin, nous proposons une application numérique avec des données d'assurance dépendance, qui sont traditionnellement analysées avec un modèle semi-Markov.
  • Comment construire un générateur de scénarios économiques risque neutre destiné à l’évaluation économique des contrats d’épargne ?

    Kamal ARMEL, Frederic PLANCHET
    Assurances et gestion des risques | 2018
    Pas de résumé disponible.
  • Construire un générateur de scénarios économiques risque neutre.

    Kamal ARMEL, Frederic PLANCHET
    Assurances et gestion des risques | 2018
    Pas de résumé disponible.
  • Comment construire un générateur de scénarios économiques risque neutre destiné à l'évaluation du best-estimate des contrats d'épargne en € ?

    Kamal ARMEL, Frederic PLANCHET
    2018
    Pas de résumé disponible.
  • Outils actuariels adaptés au pilotage technique des risques en Afrique subsaharienne francophone : application aux régimes de retraite.

    Kanga florent GBONGUE, Frederic PLANCHET, Stephane LOISEL, Marine CORLOSQUET HABART, Aymric KAMEGA, Didier FOLUS, Severine ARNOLD
    2017
    Le pilotage technique des risques en Afrique subsaharienne francophone est une notion souvent absente dans la pratique. En effet, dans cette zone, il est très facile de rencontrer des banques, compagnies d'assurance et institutions de retraite, menées leurs activités sans intégrer le risque1 au coeur de leur gestion. Cette situation explique, a priori, l'absence des bases de données fiables pour des études quantitatives. La présente thèse, qui se veut complémentaire aux travaux de KAMEGA A2., s'intéresse à la conception des outils actuariels pertinents adaptés au pilotage technique des risques en Afrique subsaharienne francophone, qui peuvent être utilisés aussi bien par les gouvernements de cette zone que dans l'industrie des assurances et des banques. Au regard du développement progressif des pays de la zone CIPRES, nous estimons que le générateur de scénarios économiques (GSE) est l'outil commun au pilotage technique des risques liés aux activités des États et de l'industrie des banques et des assurances. Notons que le GSE est un outil capable de projeter les variables économiques et financières dans un système cohérent. Cette information riche permettra, par exemple, aux gouvernements de ces pays, d'élaborer leurs budgets, de mobiliser des ressources sur le marché financier local et de piloter techniquement la dette publique. Dans le contexte de la conception du GSE, l'apport de cette thèse consiste à spécifier dans un premier temps des modèles mathématiques, adaptés au contexte de la zone CIPRES, couvrant un nombre important de variables économiques et financières. Dans un second temps, des méthodes de calibrage sont présentées dans le contexte d'absence de données (avis des experts) ou de présence des données (approches statistiques). Une attention particulière est accordée à l'extension du GSE dans l'optique de prendre en compte les besoins futurs des professionnels de la zone CIPRES. Cette thèse accorde également une importance aux application du GSE dans le développement des pays de la zone CIPRES à travers l'apport de la courbe des taux dans l'analyse et la conduite de la politique monétaire, la prévision des grandeurs économiques et financières, l'estimation des probabilités de défaut implicites et des taux de recouvrement des États et des entreprises dans un contexte de notation en monnaie locale et d'application du dispositif Bâle II/III dans le courant de 2018. Dans le cadre des régimes de retraite, ces outils actuariels sont utiles pour déterminer les paramètres de pilotage du régime, notamment l'évaluation « best estimate » des engagements du régime, le financement et la stratégie d'allocation des actifs.
  • Utilisation des estimateurs de kaplan-meier par génération et de hoem pour la construction de tables de mortalité prospectives.

    Quentin GUIBERT, Frederic PLANCHET
    2017
    La qualité des données est une préoccupation majeure lorsqu'il s'agit de construire un modèle de mortalité ou des tables de mortalité prospectives. Ceci est encore plus significatif lorsque ces procédures sont basées sur une petite population, car les données peuvent montrer des fluctuations aléatoires importantes en raison d'un manque d'informations pour des âges particuliers. De telles situations se présentent fréquemment avec l'entrée en vigueur de Solvabilité II, car les assureurs doivent considérer leurs propres ensembles de données, limités en taille, pour construire des tables de meilleure estimation. Comme les méthodes paramétriques sont trop grossières pour rendre compte d'un profil de mortalité réaliste en deux dimensions, le profil de mortalité est assez souvent ajusté à l'aide d'informations exogènes, comme une table basée sur une population nationale. Dans cette optique, l'objectif de cet article est de discuter du problème du choix d'estimateurs appropriés pour les taux de mortalité bidimensionnels ou les taux de décès en présence de censure indépendante. En effet, les praticiens utilisent actuellement l'estimateur de Hoem ou l'estimateur de Kaplan-Meier fractionné par génération sans s'interroger sur leur pertinence et leur fiabilité. Nous proposons dans cet article une analyse comparative de ces estimateurs et essayons de donner quelques critères pour choisir une approche plutôt qu'une autre, et donnons quelques chiffres basés sur un portefeuille d'assurance réel et des données simulées. Enfin, nous avons fourni quelques estimateurs non-paramétriques pour une estimation directe des taux de décès à la fois avec l'approche par cohorte et l'approche par période.
  • Fixation du prix et analyse du risque d'un contrat d'assurance de soins de longue durée dans un modèle multi-états non-Markov.

    Quentin GUIBERT, Frederic PLANCHET
    2017 PARTY Winter School | 2017
    Pas de résumé disponible.
  • Des modèles internes aux modèles ORSA.

    Frederic PLANCHET, Christian yann ROBERT
    Modelling in Life Insurance – A Management Perspective | 2016
    Pas de résumé disponible.
  • Générateurs de scénarios économiques.

    Thierry MOUDIKI, Frederic PLANCHET
    Modelling in Life Insurance – A Management Perspective | 2016
    Pas de résumé disponible.
  • Modélisation semi-markovienne de la perte d'autonomie des personnes âgées : application à l'assurance dépendance.

    Guillaume BIESSY, Catherine MATIAS, Vincent LEPEZ, Olivier LOPEZ, Catherine MATIAS, Frederic PLANCHET, Agathe GUILLOUX, Christian yann ROBERT, Michel DENUIT
    2016
    Défi majeur aux sociétés modernes, la perte d’autonomie chez les personnes âgées, connue également sous le nom de dépendance se définit comme un état d’incapacité à effectuer seul tout ou partie des Actes de la Vie Quotidienne (AVQ). Elle apparaît dans la grande majorité des cas sous l’effet des pathologies chroniques liées au vieillissement. Devant les coûts importants liés à cet état, les assureurs privés ont développé une offre destinée à compléter l’aide publique. Pour quantifier le risque, un modèle multi-états est utilisé et se pose alors la question de l’estimation des probabilités de transition entre les états (l’autonomie, le décès ainsi qu’un ou plusieurs niveaux de dépendance). Sous l’hypothèse de Markov, ces dernières dépendent uniquement de l’état actuel, une hypothèse trop restrictive pour rendre compte de la complexité du processus de dépendance. Dans le cadre semi-markovien plus général, ces probabilités dépendent également du temps passé dans l’état actuel. Au cours de cette thèse, nous étudions la nécessité d’une modélisation semi-markovienne du processus. Nous mettons en évidence l’impact du temps passé en dépendance sur les probabilités de décès. Nous montrons par ailleurs que la prise en compte de la diversité induite par les pathologies permet d’améliorer sensiblement l’adéquation du modèle proposé aux données étudiées. Plus encore, nous établissons que la forme particulière de la probabilité de décès en fonction du temps passé en dépendance peut être expliquée par le mélange des groupes de pathologies qui constituent la population des individus dépendants.
  • Les actuaires croient-ils à la décélération de la longévité ?

    Edouard DEBONNEUIL, Stephane LOISEL, Frederic PLANCHET
    2015
    Alors que de plus en plus de personnes pensent qu'un allongement significatif de la durée de vie pourrait survenir prochainement, les hypothèses de mortalité future couramment utilisées doivent-elles être considérées comme prudentes ? Nous constatons ici que les tables actuarielles couramment utilisées pour les rentiers - ainsi que le modèle Lee-Carter - n'extrapolent pas l'espérance de vie au même rythme pour les années futures que pour les années passées. au contraire, elles produisent un certain ralentissement de la longévité. Cela s'explique généralement par le fait que leurs améliorations de la mortalité diminuent après un certain âge, et que ces améliorations spécifiques à l'âge sont constantes dans le temps. Comme alternatives potentielles, i) nous étudions le modèle de Bongaarts qui produit des augmentations directes de l'espérance de vie. ii) nous l'adaptons pour produire des tendances de longévité conformes aux meilleures pratiques. iii) nous comparons avec divers scénarios de longévité, y compris un modèle de "vitesse d'extension de la vie". iv) après avoir rassemblé les progrès de la biogérontologie, nous discutons des éléments permettant aux systèmes de retraite de résister à une forte augmentation potentielle de l'espérance de vie.
  • Tables de mortalité prospectives : Prise en compte de l'hétérogénéité.

    Julien TOMAS, Frederic PLANCHET
    Insurance: Mathematics and Economics | 2015
    Le présent article illustre une approche permettant de construire des tables de mortalité prospectives pour lesquelles les données disponibles sont composées de groupes hétérogènes observés durant des périodes différentes. Sans considération explicite de l'hétérogénéité, il est nécessaire de réduire la période d'observation à l'intersection des périodes d'observation des différentes populations. Cette réduction de l'historique disponible peut armer la détermination de la tendance de la mortalité et son extrapolation. Nous proposons un modèle prenant explicitement en compte l'hétérogénéité, de manière à préserver l'intégralité de l'historique disponible pour toutes les populations. Nous utilisons des techniques de log-vraisemblance locale pondérée par le noyau pour graduer la mortalité observée. L'extrapolation de la surface lissée est réalisée en identifiant les composantes de la mortalité et leur importance dans le temps en utilisant la décomposition en valeurs singulières. Ensuite, des méthodes de séries temporelles sont utilisées pour extrapoler les coefficients variant dans le temps. Nous étudions les divergences dans les surfaces de mortalité générées par un certain nombre de modèles proposés précédemment à trois niveaux. Ceux-ci concernent la proximité entre les observations et le modèle, la régularité de l'ajustement ainsi que la plausibilité et la cohérence des tendances de mortalité.
  • Mortalité : une approche statistique pour détecter la mauvaise spécification du modèle.

    Jean charles CROIX, Frederic PLANCHET, Pierre emmanuel THEROND
    Bulletin Français d'Actuariat | 2015
    L'avènement de Solvabilité 2 et la méthodologie de la meilleure estimation dans l'évaluation des flux de trésorerie futurs conduisent les assureurs à se concentrer particulièrement sur leurs hypothèses. En matière de mortalité, les hypothèses sont critiques car les assureurs utilisent des lois de best-estimate au lieu des tables de mortalité standard. Les méthodes de backtesting, c'est-à-dire les processus de validation ex post des modèles, sont encouragées par les régulateurs et suscitent un intérêt croissant parmi les praticiens et les universitaires. Dans cet article, nous proposons une approche statistique (compatible avec les modèles paramétriques et non-paramétriques) pour le backtesting des lois de mortalité sous risque de modèle. Ensuite, nous introduisons un risque de spécification en supposant que la loi de mortalité est soumise à des variations aléatoires. Enfin, la pertinence de la méthode proposée sera évaluée dans ce cadre.
  • État des lieux des systèmes de retraite en Afrique subsaharienne francophone.

    Florent GBONGUE, Frederic PLANCHET, Oulidi ABDERRAHIM
    Revue subsaharienne d’économie et de finance | 2015
    Ce travail dresse un état des lieux des systèmes de retraite que l’on peut rencontrer dans les pays d’Afrique subsaharienne francophone. Généralement, les systèmes de retraite sont conçus pour le secteur formel (les agents de l’état, les employés du secteur privé et certains corps de métier particuliers). Cependant de nombreuses réformes ont été mené dont l’objectif principal est d’une part de réduire le déficit financier de ces régimes de retraite, et d’autre part d’étendre la protection sociale aux travailleurs indépendants (secteur informel). Dans cet article, nous nous intéresserons en premier lieu au contexte de la retraite en zone CIPRES. Dans cette partie, nous parlerons surtout des défis auxquels sont soumis les régimes de retraite, du contexte économique et social et de l’organisation du système de retraite. En second lieu, nous analyserons les régimes de retraite existants, de quelques pays de la zone CIPRES. En pratique, nous parlerons de la population assurée, du pilotage technique (charge financière, financement et allocation des actifs), ainsi que des réformes (s’il y’a lieu) apportées aux régimes pour assurer leur pérennité sur le long terme. Enfin, nous formulerons dans la conclusion, des recommandations qui pourront contribuer à assurer le pilotage technique des régimes de retraite sur le long terme. Ces trois parties nous permettront d’inscrire le sujet dans son contexte afin de comprendre la problématique de la retraite en zone CIPRES. .
  • Combiner les données internes avec l'analyse de scénarios.

    Elias KARAM, Frederic PLANCHET
    Modern Economy | 2015
    Pas de résumé disponible.
  • Influence des facteurs économiques sur les changements de notation et les défaillances des entreprises d'assurance-crédit.

    Anisa CAJA, Quentin GUIBERT, Frederic PLANCHET
    2015
    Cet article présente un modèle pour la détermination et la prévision du nombre de défauts et de changements de crédit en estimant un modèle de régression ordonnée de forme réduite avec un grand ensemble de données provenant d'un portefeuille d'assurance-crédit. Comme les banques avec leurs techniques classiques de gestion du risque de crédit, les assureurs-crédit mesurent la qualité de crédit des acheteurs avec des matrices de transition de notation dépendant de l'environnement économique. Notre approche consiste à modéliser des matrices de transition stochastiques pour des groupes homogènes d'entreprises en fonction de facteurs de risque macroéconomiques. L'une des principales caractéristiques de cette activité est la surveillance étroite des entreprises couvertes et la capacité de l'assureur à annuler ou réduire les garanties lorsque le risque change. Comme notre objectif principal est une analyse de la gestion du risque, nous essayons de tenir compte de cette marge de manœuvre et d'étudier comment cela permet d'atténuer les risques en cas de chocs. Cette spécification est particulièrement utile en tant qu'entrée pour l'évaluation de la solvabilité du risque propre (ORSA) puisqu'elle illustre le type d'actions de gestion qui peuvent être mises en œuvre par un assureur lorsque l'environnement de crédit est stressé.
  • Sur l’utilisation des modèles multi-états pour la mesure et la gestion des risques d’un contrat d’assurance.

    Quentin GUIBERT, Frederic PLANCHET, Jean paul LAURENT, Ermanno PITACCO, Christian yann ROBERT, Michel DENUIT, Olivier LOPEZ
    2015
    La mise en place de Solvabilité II conduit les actuaires à s'interroger sur la bonne adéquation entre modèles et données. Aussi, cette thèse a pour objectif d'étudier plusieurs approches statistiques, souvent méconnues des praticiens, permettant l'utilisation de méthodes multi états pour modéliser et gérer les risques individuels en assurance. Le Chapitre 1 présente le contexte général de cette thèse et permet de faire positionner ses principales contributions. Nous abordons les concepts de base liés à l'utilisation de modèles multi-états en assurance et décrivons les techniques d'inférence classiques adaptées aux données rencontrées, qu'ils soient markoviens ou non-markoviens. Pour finir, nous présentons comment il est possible d'utiliser ces modèles pour la gestion des risques de crédit. Le Chapitre 2 se concentre sur l'utilisation de méthodes d'inférence non-paramétriques pour la construction de lois d'incidence en assurance dépendance. Puisque plusieurs causes d'entrée sont susceptibles d'intervenir et d'intéresser les actuaires, nous nous concentrons sur une méthode utilisée pour l'estimation de modèles multi-états markoviens en temps continu. Nous comparons, dans un second temps, ces estimateurs à ceux utilisés classiquement par les praticiens tires de l'analyse de survie. Cette seconde approche peut comporter des biais non négligeables car ne permettant pas d'appréhender correctement l'interaction possible entre les causes. En particulier, elle comprend une hypothèse d'indépendance ne pouvant être testée dans le cadre de modèles à risques concurrents. Notre approche consiste alors à mesurer l'erreur commise par les praticiens lors de la construction de lois d'incidence. Une application numérique est alors considérée sur la base des données d'un assureur dépendance.
  • Construction d'une table de mortalité projetée spécifique à une entité : ajustement d'une référence.

    Julien TOMAS, Frederic PLANCHET
    European Actuarial Journal | 2014
    Cet article présente un cadre opérationnel pour la construction et la validation d'une table de mortalité projetée spécifique à un assureur. Nous décrivons plusieurs méthodes de complexité croissante et le processus de validation permettant à un assureur d'ajuster une mortalité de base pour se rapprocher d'une évaluation de la meilleure estimation de son risque de mortalité et de longévité. Elles offrent à l'assureur une certaine latitude de choix tout en préservant la simplicité de mise en œuvre de la méthodologie de base. Les méthodologies s'articulent autour d'une procédure itérative permettant de choisir parcimonieusement la plus satisfaisante. Le processus de validation est évalué sur trois niveaux. Cela concerne la proximité entre les observations et le modèle, la régularité de l'ajustement ainsi que la plausibilité et la cohérence des tendances de mortalité. Enfin, la procédure est illustrée à partir de données d'expérience provenant d'un portefeuille d'assurance français.
  • Incertitude sur les probabilités de survie et capital de solvabilité requis : application à l'assurance dépendance.

    Frederic PLANCHET, Julien TOMAS
    Scandinavian Actuarial Journal | 2014
    Dans cet article, nous nous concentrons sur les questions d'incertitude concernant les probabilités de survie des assurés de l'assurance dépendance en cas d'invalidité et ses conséquences sur le capital de solvabilité requis. Parmi les risques affectant les portefeuilles de soins de longue durée, une attention particulière est accordée au risque de table, c'est-à-dire le risque de mortalité globale non anticipée, découlant de l'incertitude de la modélisation de la loi de survie des demandeurs de soins de longue durée. Le risque de table peut être considéré comme le risque de déviations systématiques se rapportant non seulement à un risque de paramètre mais aussi à toute autre source conduisant à une mauvaise interprétation de la table de mortalité résultant par exemple d'une évolution des techniques médicales ou d'un changement des règles d'acceptation. In fine, l'idée est d'introduire directement le risque de déviations systématiques provenant de l'incertitude sur les probabilités de décès des personnes handicapées. Nous analysons les conséquences d'une erreur d'appréciation sur les probabilités de survie en cas d'invalidité en termes de niveau de réserves et décrivons un cadre dans un Ass. de risque propre et de solvabilité.
  • Solvabilité prospective en assurance: Méthodes quantitatives pour l'ORSA.

    Quentin GUIBERT, Marc JUILLARD, Frederic PLANCHET, Oberlain NTEUKAM TEUGUIA
    2014
    Le dispositif prudentiel Solvabilité 2, qui entrera en vigueur début 2016, impose une vision instantanée très analytique des risques portés pour la détermination de l’exigence de capital minimal (« pilier 1 ») que doit détenir un assureur. Si ce parti-pris présente l'avantage de fournir un cadre normatif ainsi qu’une certaine exhaustivité de l'analyse, il conduit en pratique à concevoir des modèles mal adaptés à la projection pluriannuelle du bilan et de la solvabilité car trop peu robustes. Des analyses complémentaires (« pilier 2 »), qui visent à mesurer l’impact du plan stratégique et des actions du management sur la solvabilité de l’assureur sont également demandées. Elles s’inscrivent dans une approche plus globale permettant de fournir une information adéquate sur la déformation de la distribution d’éléments clé du bilan (valeur nette d’actif, exigence de capital, ratio de couverture, etc.) avec le temps pour le pilotage de l’organisme. L'enjeu est alors, sur la base d'une vision globale des risques (risques de tarification, de provisionnement, commercial, défaut des mécanismes de couverture et financier) de proposer des modèles prospectifs assez flexibles pour permettre ces projections ainsi qu’une analyse de l’impact des actions du management de l’entreprise. L'objectif du présent ouvrage est de décrire de telles approches (construction de modèles et justification d'hypothèses) et d'en proposer des illustrations réalistes. Son ambition est de fournir un ensemble d’outils de modélisation agrégés du bilan de l’assureur mieux à même de rendre compte des aspects dynamiques et permettant de fournir ainsi un outil de pilotage opérationnel de l’activité.
  • Contribution à la mesure des engagements et du besoin en capital pour un assureur crédit.

    Anisa CAJA, Frederic PLANCHET, Christian yann ROBERT, Jean francois DECROOCQ, Jean paul LAURENT, Jean francois GAJEWSKI
    2014
    Les nouvelles normes de régulation Solvabilité 2 ont un impact très important sur l'assurance crédit. L'objectif de cette directive est que les compagnies d'assurance mesurent mieux les différents risques auxquels elles font face, afin qu'elles constituent suffisamment de capital pour faire face à des situations de crise. Notre travail se concentre sur une activité d'assurance assez particulière : l'assurance de crédit. Dans le cadre de Solvabilité 2, majoritairement, les assureurs de crédit s'orienteront vers le développement de modèles internes, afin d'avoir une meilleure estimation de leurs exigences en capital. Notre étude a pour objectif de proposer, ou de donner des pistes d'amélioration d'un type de modèle interne. Nous présentons tout d'abord de manière générale, ce qu'est le métier d'assureur crédit et nous aborderons ensuite le sujet d'un modèle interne. Nous présenterons alors celui que l'on aura choisi d'utiliser, un modèle multifacteurs associé à l'approche Merton. Nous comparerons également les méthodes d'intégration des corrélations entre contreparties des normes Solvabilité 2 avec celle du modèle interne. Nous essaierons ensuite d'affiner le modèle interne afin de tenir compte d'une caractéristique importante de l'assurance crédit : la gestion des garanties (limites), qui comme nous le verrons induit une baisse des exigences en capital. Pour cela, nous introduirons la prise en compte de cycles de crédit pour le calcul de pertes, un modèle non plus mono-périodique, comme c'est habituellement le cas, mais à deux périodes. Nous présenterons ensuite les résultats obtenus à l'aide de ce modèle. Nous exposerons alors une approche alternative en la méthode d'approximation linéaire par morceaux via des simulations de Monte Carlo (PLMC). Il s'agit ici de passer d'un modèle discret à un modèle continu. Nous comparerons ensuite les structures de dépendance Gaussienne et de Student afin de voir ce que le changement de cette structure induirait pour les exigences en capital. Nous nous intéresserons finalement au problème de la recherche de quantiles élevés, et des études de convergence de nos variables. Pour cela, nous introduirons tout d'abord la mesure du prix de marché du risque, et nous présenterons une estimation de ce prix de marché du risque, plus spécifiquement pour le risque de taux. Ceci nous permettra d'obtenir la dynamique des taux en univers risque neutre. Nous aborderons ensuite la question du calcul de Best Estimate, dans un cadre de dépendance entre les risques de taux et de crédit. Le calcul du SCR suivra. Nous discuterons d'une approche alternative permettant le calcul de l'exigence en capital, approche propre aux modèles structurels et qui permettrait de se passer de simulations pour ce calcul. Finalement, nous conclurons notre étude en exposant les différents enjeux de cette thèse ainsi que les contributions apportées, et les problématiques rencontrées au cours des travaux.
  • Calculs de la meilleure estimation des contrats d'épargne par des formules fermées : application à l'ORSA.

    Francois BONNIN, Frederic PLANCHET, Marc JUILLARD
    European Actuarial Journal | 2014
    Dans cet article, nous présentons une approximation analytique de la meilleure estimation d'un contrat d'épargne. Cette approximation vise à fournir un cadre pour un calcul robuste et justifiable de l'évaluation de la solvabilité du risque propre en évitant la complexité des approches directes. Une application numérique est proposée.
  • Modélisation de la dépendance au cycle dans l'assurance-crédit.

    Anisa CAJA, Frederic PLANCHET
    Risks | 2014
    Les cycles économiques et de crédit ont un impact sur l'assurance-crédit, comme sur les autres entreprises. Néanmoins, dans l'assurance-crédit, l'impact du risque systémique est encore plus important et peut entraîner des pertes majeures en cas de crise. Pour cette raison, l'assureur surveille et gère ses politiques de manière quasi permanente. Les mesures de gestion qu'il prend limitent les conséquences d'un cycle baissier. Cependant, la modélisation traditionnelle du capital économique ne prend pas en compte cette caractéristique importante de l'assurance-crédit. Cet article propose un modèle visant à estimer les pertes futures d'un portefeuille d'assurance-crédit, tout en tenant compte des actions de gestion de l'assureur. Le modèle considère la capacité de l'assureur-crédit à prendre moins de risque dans le cas d'un retournement de cycle, mais aussi l'inverse, dans le cas d'une reprise du cycle. Ainsi, les pertes sont prédites avec une perspective plus dynamique. D'après nos résultats, le capital économique est surestimé lorsqu'on ne tient pas compte des actions de gestion de l'assureur.
  • Mesure et gestion du risque opérationnel dans les secteurs de l'assurance et de la banque.

    Elias KARAM, Frederic PLANCHET, Jean claude AUGROS, Adel n. SATEL, Toni SAYAH, Michel BERA, Didier FOLUS
    2014
    Notre intérêt dans cette thèse est de combiner les différentes techniques de mesure du risque opérationnel dans les secteurs financiers, et on s'intéresse plus particulièrement aux conséquences du risque d'estimation dans les modèles, qui est un risque opérationnel particulier. Nous allons présenter les concepts mathématiques et actuariels associés ainsi qu'une application numérique en ce qui concerne l'approche de mesure avancée comme Loss Distribution pour calculer l'exigence en capital. En plus, on se concentre sur le risque d'estimation illustré avec l'analyse des scénarios de l'opinion d'experts en conjonction avec des données de pertes internes pour évaluer notre exposition aux évènements de gravité. Nous concluons cette première partie en définissant une technique de mise l'échelle sur la base de (MCO) qui nous permet de normaliser nos données externes à une banque locale Libanaise.Dans la deuxième partie, on donne de l'importance sur la mesure de l'erreur induite sur le SCR par l'erreur d'estimation des paramètres, on propose une méthode alternative pour estimer une courbe de taux et on termine par attirer l'attention sur les réflexions autour des hypothèses de calcul et ce que l'on convient de qualifier d'hypothèse "cohérente avec les valeurs de marché" serait bien plus pertinente et efficace que la complexification du modèle, source d'instabilité supplémentaire, ainsi mettre en évidence le risque d'estimation qui est lié au risque opérationnel et doit être accordé beaucoup plus d'attention dans nos modèles de travail.
  • Analyse de survie.

    Frederic PLANCHET, Pierre emmanuel THEROND
    Computational Actuarial Science with R | 2014
    Pas de résumé disponible.
  • Construction de lois d'expérience en présence d'évènements concurrents : Application à l'estimation des lois d'incidence d'un contrat dépendance.

    Quentin GUIBERT, Frederic PLANCHET
    Bulletin Français d'Actuariat | 2014
    Cet article propose d’illustrer la mise en œuvre de méthodes d’estimation non paramétriques, introduites dans le cadre de modèles multi-états markoviens avec censure, pour construire des lois d’expérience applicables en présence de plusieurs évènements concurrents. Cette situation se présente en pratique en assurance dépendance lorsqu’il est nécessaire de distinguer les lois d’incidence par pathologie. Aussi, plutôt que d’appliquer des techniques utilisées usuellement par les praticiens et consistant à observer marginalement chaque cause d’entrée en dépendance, l’approche décrite permet d’estimer globalement l’ensemble des lois d’entrée par cause et de correctement appréhender l’interdépendance entre chacune d’elle. Ce travail fournit une comparaison des résultats obtenus par ces deux approches au niveau de la provision à constituer afin de pouvoir justifier d’une approche marginale, plus simple à mettre en œuvre en pratique.
  • Exploration ou réduction du bruit ?

    Didier RULLIERE, Alaeddine FALEH, Frederic PLANCHET, Wassim YOUSSEF
    Structural and Multidisciplinary Optimization | 2013
    Nous considérons le problème de la minimisation globale d'une fonction observée avec du bruit. Ce problème se pose par exemple lorsque la fonction objectif est estimée par des simulations stochastiques. Nous proposons une méthode originale pour partitionner itérativement le domaine de recherche lorsque ce domaine est une union nite de simplexes. Sur chaque sous-domaine de la partition, nous calculons un indicateur mesurant si le sous-domaine est susceptible ou non de contenir un minimiseur global. Les prochains domaines à explorer sont choisis en fonction de cet indicateur. Les ensembles de confiance pour les minimiseurs sont donnés. Des applications numériques montrent des résultats de convergence empiriques, et illustrent le compromis à faire entre l'exploration globale du domaine de recherche et la focalisation autour des minimiseurs potentiels du problème.
  • Lissage multidimensionnel par log-vraisemblance locale adaptative pondérée par le noyau : Application à l'assurance soins de longue durée.

    Julien TOMAS, Frederic PLANCHET
    Insurance: Mathematics and Economics | 2013
    Nous nous intéressons à la modélisation de la mortalité des demandeurs de soins de longue durée (SLD) ayant le même niveau de gravité (demandeur lourd). Les praticiens utilisent souvent des méthodes empiriques qui s'appuient fortement sur les avis d'experts. Nous proposons des approches ne dépendant pas de l'avis d'un expert. Nous analysons la mortalité en fonction de l'âge de survenue du sinistre et de la durée des soins. Les demandeurs de soins de longue durée sont marqués par un schéma de mortalité relativement complexe. Par conséquent, plutôt que d'utiliser des approches paramétriques ou des modèles avec avis d'experts, les méthodes de vraisemblance locale adaptative nous permettent d'extraire les informations des données de manière plus pertinente. Nous caractérisons une méthode ponctuelle de lissage localement adaptative utilisant la règle de l'intersection des intervalles de confiance, ainsi qu'une méthode globale utilisant des facteurs de correction de la largeur de bande locale. Cette dernière est une extension de la méthode adaptative à noyau proposée par Gavin et al. (1995) aux techniques de vraisemblance. Nous faisons varier le degré de lissage en fonction de l'emplacement et permettons des ajustements en fonction de la fiabilité des données. Des tests et des indices uniques résumant la distribution de probabilité de la durée de vie sont utilisés pour comparer les séries graduées obtenues par les log-vraisemblances locales adaptatives à noyau pondéré aux modèles pp-spline et de vraisemblance locale.
  • Mortalité : une approche statistique pour détecter la mauvaise spécification du modèle.

    Jean charles CROIX, Frederic PLANCHET, Pierre emmanuel THEROND
    AFIR Colloquium | 2013
    L'avènement de Solvabilité 2 et la méthodologie de la meilleure estimation dans l'évaluation des cash-flows futurs conduisent les assureurs à se concentrer particulièrement sur leurs hypothèses. En matière de mortalité, les hypothèses sont critiques car les assureurs utilisent des lois de best-estimate au lieu des tables de mortalité standard. Les méthodes de backtesting, c'est-à-dire les processus de validation ex post des modèles, sont encouragées par les régulateurs et suscitent un intérêt croissant chez les praticiens et les universitaires. Dans cet article, nous proposons une approche statistique (compatible avec les modèles paramétriques et non-paramétriques) pour le backtesting des lois de mortalité sous risque de modèle. Ensuite, nous introduisons un risque de spécification supposant la loi de mortalité vraie en moyenne mais soumise à des variations aléatoires. Enfin, l'adéquation de notre méthode sera évaluée dans ce cadre.
  • Allocation stratégique d’actifs et ALM pour les régimes de retraites.

    Alaeddine FALEH, Frederic PLANCHET, Didier RULLIERE, Jean claude AUGROS, Jean pierre AUBIN, Guillaume LEZAN, Jean paul LAURENT, Francois DUFRESNE
    2011
    La présente thèse s’intéresse aux modèles d’allocation stratégiques d’actifs et à leurs applications pour la gestion des réserves financières des régimes de retraite par répartition, en particulier ceux partiellement provisionnés. L’étude de l’utilité des réserves pour un système par répartition et a fortiori de leur gestion reste un sujet peu exploré. Les hypothèses classiques sont parfois jugées trop restrictives pour décrire l'évolution complexe des réserves. De nouveaux modèles et de nouveaux résultats sont développés à trois niveaux : la génération de scénarios économiques (GSE), les techniques d’optimisation numérique et le choix de l’allocation stratégique optimale dans un contexte de gestion actif-passif (ALM). Dans le cadre de la génération de scénarios économiques et financiers, certains indicateurs de mesure de performance du GSE ont été étudiés. Par ailleurs, des améliorations par rapport à ce qui se pratique usuellement lors de la construction du GSE ont été apportées, notamment au niveau du choix de la matrice de corrélation entre les variables modélisées. Concernant le calibrage du GSE, un ensemble d’outils permettant l’estimation de ses différents paramètres a été présenté. Cette thèse a également accordé une attention particulière aux techniques numériques de recherche de l'optimum, qui demeurent des questions essentielles pour la mise en place d'un modèle d'allocation. Une réflexion sur un algorithme d’optimisation globale d’une fonction non convexe et bruitée a été développée. L’algorithme permet de moduler facilement, au moyen de deux paramètres, la réitération de tirages dans un voisinage des points solutions découverts, ou à l’inverse l’exploration de la fonction dans des zones encore peu explorées. Nous présentons ensuite des techniques novatrices d'ALM basées sur la programmation stochastique. Leur application a été développée pour le choix de l’allocation stratégique d’actifs des régimes de retraite par répartition partiellement provisionnés. Une nouvelle méthodologie pour la génération de l’arbre des scénarios a été adoptée à ce niveau. Enfin, une étude comparative du modèle d’ALM développé avec celui basé sur la stratégie Fixed-Mix a été effectuée. Différents tests de sensibilité ont été par ailleurs mis en place pour mesurer l’impact du changement de certaines variables clés d’entrée sur les résultats produits par notre modèle d’ALM.
  • Outils théoriques et opérationnels adaptés au contexte de l'assurance vie en Afrique subsaharienne francophone : analyse et mesure des risques liés à la mortalité.

    Aymric KAMEGA, Frederic PLANCHET, Marc QUINCAMPOIX, Frederic PLANCHET, Veronique MAUME DESCHAMPS, Olivier LOPEZ, Abderrahim OULIDI, Michel BERA, Arthur CHARPENTIER
    2011
    Dans un marché de l'assurance vie en Afrique subsaharienne francophone à la traîne, mais promis à un bel avenir en cas d'émergence de solutions techniques et commerciales endogènes, la thèse propose des outils théoriques et opérationnels adaptés à son développement. Cette démarche s'inscrit en parallèle des actions entreprises par l'autorité de contrôle régionale (la CIMA) pour fournir aux assureurs de la région des outils adaptés. En effet, la CIMA a initié des travaux pour la construction de nouvelles tables réglementaires d'expérience, ce qui a permis de fournir des références fiables et pertinentes pour la mortalité de la population assurée dans la région. Toutefois, certaines problématiques techniques utiles n'ont pas été développées dans ces travaux de construction. La thèse leur accorde alors une attention particulière. Ainsi, d'une part, la thèse permet de fournir des outils pour tenir compte des différences de mortalité entre pays de la région, tout en limitant les risques systématiques liés aux fluctuations d'échantillonnage (dues à la petite taille des échantillons de données par pays). Il apparaît notamment que si la modélisation indépendante de chaque pays n'est pas appropriée, les modèles d'hétérogénéité à facteurs observables, tels que le modèle de Cox ou de Lin et Ying, permettent d'atteindre cet objectif. On précise toutefois ici que ces modèles d'hétérogénéité ne permettent pas de supprimer le risque systématique lié aux fluctuations d'échantillonnage lors de l'estimation du modèle, ils engendrent seulement une réduction de ce risque en contrepartie d'une augmentation du risque systématique lié au choix du modèle. D'autre part, la thèse permet également de fournir des outils pour modéliser la mortalité d'expérience future dans la région. En absence de données sur les tendances passées de la mortalité d'expérience, ni le modèle classique de Lee-Carter ni ses extensions ne sont applicables. Une solution basée sur un ajustement paramétrique, une hypothèse sur la forme de l'évolution du niveau de mortalité (évolution linaire ou exponentielle) et un avis d'expert sur l'espérance de vie générationnelle à un âge donné est alors proposée (ces travaux s'appuient sur le modèle de Bongaarts). Ensuite, dans un second temps, en supposant disposer de données sur les tendances passées (ce qui pour mémoire n'est pas le cas à ce stade dans la région, mais devrait l'être dans les prochaines années), la thèse propose une modélisation de la mortalité future à partir d'une référence de mortalité externe et une analyse des risques systématiques associés (risques liés aux fluctuations d'échantillonnage et au choix de la référence de mortalité).
  • Risque de longévité et détermination du besoin en capital : travaux en cours.

    Frederic PLANCHET
    2009
    Le présent travail fait suite à la thèse de doctorat préparée au sein du laboratoire de Sciences Actuarielle et Financière (SAF) de l'Université Lyon 1 et soutenue le 20 novembre 2006 sur le thème du Pilotage technique d'un régime de rentes viagères : identification et mesure des risques, allocation d'actif, suivi actuariel. Il présente des travaux sur le risque de longévité et la détermination du besoin en capital dans le cadre de Solvabilité 2.
  • Pilotage technique d'un régime de rentes viagères : identification et mesure des risques, allocation d'actif, suivi actuariel.

    Frederic PLANCHET
    2006
    Les évolutions récentes tant des dispositifs réglementaires et comptables que des pratiques de place conduisent à une analyse plus fine et plus segmentée des risques portés par un régime de rentes viagères. Dans ce contexte, une révision de la modélisation classique d'un tel régime s'impose, en tenant compte notamment au passif du risque associé à l'incertitude sur la mortalité future (mortalité stochastique et risque de modèle) et à l'actif au caractère essentiellement discontinu des cours des actifs dans lequel le régime investit ses avoirs. Le présent travail définit les grandes lignes d'une modélisation actif / passif d'un régime de rentes viagères intégrant ces contraintes.
Les affiliations sont détectées à partir des signatures des publications identifiées dans scanR. Un auteur peut donc apparaître affilié à plusieurs structures ou tutelles en fonction de ces signatures. Les dates affichées correspondent seulement aux dates des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr