GOFFARD Pierre Olivier

< Retour à ILB Patrimoine
Affiliations
  • 2016 - 2018
    University of California, Santa Barbara
  • 2015 - 2016
    Institut de Mathématiques de Marseille
  • 2019 - 2021
    Hospices Civils de Lyon
  • 2015 - 2016
    Aarhus University
  • 2014 - 2015
    Aix-Marseille Université
  • 2016 - 2017
    Université Libre de Bruxelles
  • 2014 - 2015
    École Doctorale de Mathématiques et Informatique de Marseille
  • 2013 - 2015
    Institut de mathématiques de luminy
  • 2021
  • 2019
  • 2016
  • 2015
  • Enseignements tirés de l'utilisation de modèles compartimentaux lors du verrouillage induit par le COVID-19 en France.

    Romain GAUCHON, Nicolas PONTHUS, Catherine POTHIER, Christophe RIGOTTI, Vitaly VOLPERT, Stephane DERRODE, Jean pierre BERTOGLIO, Alexis BIENVENUE, Pierre olivier GOFFARD, Anne EYRAUD LOISEL, Simon PAGEAUD, Jean IWAZ, Stephane LOISEL, Pascal ROY
    2021
    Pas de résumé disponible.
  • Le minage de blockchain dans les pools : Analyse de l'arbitrage entre rentabilité et ruine.

    Hansjorg ALBRECHER, Dina FINGER, Pierre olivier GOFFARD
    2021
    Le minage de blocs sur une blockchain équipée d'un protocole de consensus par preuve de travail, qui consomme des ressources, comporte un risque de ruine, à savoir lorsque les coûts opérationnels du minage dépassent les récompenses reçues. Dans cet article, nous étudions dans quelle mesure il est intéressant de rejoindre un pool de mineurs qui réduit la variance du rendement d'un mineur pour un coût de participation spécifié. En utilisant la méthodologie de la théorie des ruines et du partage des risques dans l'assurance, nous étudions quantitativement les effets de la mise en commun dans ce contexte et nous dérivons plusieurs formules explicites pour les quantités d'intérêt. Les résultats sont illustrés par des exemples numériques pour des paramètres d'intérêt pratique.
  • Échantillonneurs Monte Carlo séquentiels pour ajuster et comparer les modèles de pertes d'assurance.

    Pierre olivier GOFFARD
    2021
    Les distributions de pertes d'assurance sont caractérisées par une fréquence élevée de petits montants et une occurrence plus faible, mais non négligeable, de grands montants de sinistres. Des modèles composites, qui relient deux distributions de probabilité, l'une pour le "ventre" et l'autre pour la "queue" de la distribution des pertes, sont apparus dans la littérature actuarielle pour prendre en compte cette spécificité. Les paramètres de ces modèles résument la distribution des pertes. L'un d'eux correspond au point de rupture entre les petits et les gros montants de sinistres. Les modèles composites sont généralement ajustés en utilisant l'estimation du maximum de vraisemblance. Une approche bayésienne est considérée dans ce travail. Des échantillonneurs Monte Carlo séquentiels sont utilisés pour échantillonner la distribution postérieure et calculer les évidences du modèle postérieur pour ajuster et comparer les modèles concurrents. La méthode est validée par une étude de simulation et illustrée sur des ensembles de données de pertes d'assurance.
  • Évaluation du risque de fraude dans les transactions par blockchain.

    Pierre olivier GOFFARD, Pierre o. GOFFARD
    Advances in Applied Probability | 2019
    On considère la probabilité de réussir à dépenser deux fois les mêmes bitcoins. Une attaque par double dépense consiste à émettre deux transactions transférant les mêmes bitcoins. La première transaction, du fraudeur vers un marchand, est incluse dans un bloc de la chaîne publique. La seconde transaction, du fraudeur à lui-même, est enregistrée dans un bloc qui intègre une chaîne privée, copie exacte de la chaîne publique jusqu'à substituer la transaction fraudeur-marchand par la transaction fraudeur-fraudeur. Le piratage de la double dépense est terminé lorsque la chaîne privée atteint la longueur de la chaîne publique, auquel cas elle la remplace. La croissance des deux chaînes est modélisée par deux processus de comptage indépendants. La distribution de probabilité du moment où la chaîne malveillante rattrape la chaîne honnête, ou de manière équivalente le moment où les deux processus de comptage se rencontrent, est étudiée. Le marchand est supposé attendre la découverte d'un nombre donné de blocs après celui contenant la transaction avant de livrer les marchandises. Cela donne une longueur d'avance à la chaîne honnête dans la course contre la chaîne malhonnête.
  • Expansions polynomiales orthonormales et densités de somme lognormales.

    Soren ASMUSSEN, Pierre olivier GOFFARD, Patrick j. LAUB
    Risk and Stochastics | 2019
    On discute des approximations pour une densité inconnue g en termes d'une densité de référence fν et de ses polynômes orthonormaux associés. L'application principale est l'approximation de la densité f d'une somme S de lognormales qui peuvent avoir des variances différentes ou être dépendantes. Dans ce cadre, g peut être f elle-même ou une densité transformée, en particulier celle de log S ou une densité à inclinaison exponentielle. Les choix de densités de référence fν qui sont envisagés comprennent les densités normales, gamma et lognormales. Pour le cas lognormal, les polynômes orthonormaux sont trouvés sous forme fermée et il est montré qu'ils ne sont pas denses dans L2(fν), un résultat qui est étroitement lié au fait que la distribution lognormale n'est pas déterminée par ses moments et qui fournit un avertissement au choix le plus évident de prendre fν comme lognormale. Des exemples numériques sont présentés et des comparaisons sont faites avec des approches établies telles que la méthode de Fenton-Wilkinson et les approximations de type skew-normal. L'extension à l'estimation de la densité pour les ensembles de données statistiques et les copules non gaussiennes est également soulignée.
  • Tests de qualité de l'ajustement pour les distributions composées avec applications dans le domaine des assurances.

    Pierre olivier GOFFARD, S RAO JAMMALAMADAKA, S MEINTANIS
    2019
    Des procédures d'adéquation sont fournies pour tester la validité des modèles composés pour le total des sinistres, impliquant des lois spécifiques pour les composantes constitutives, à savoir la distribution de fréquence des sinistres et la distribution des tailles des sinistres individuels. Ceci est fait sans avoir besoin d'observations sur ces deux variables composantes. Des tests de qualité d'ajustement utilisant la transformée de Laplace ainsi que des outils classiques basés sur la fonction de distribution sont proposés et comparés. Ces méthodes sont validées par des simulations, puis appliquées à des données d'assurance. MSC 2010 : 60G55, 60G40, 12E10.
  • Une expansion polynomiale pour approximer la probabilité de ruine ultime dans le modèle de ruine de Poisson composé.

    Pierre olivier GOFFARD, Stephane LOISEL, Denys POMMERET
    Journal of Computational and Applied Mathematics | 2016
    Une méthode numérique d'approximation des probabilités de ruine est proposée dans le cadre d'un modèle de ruine de Poisson composé. La fonction de densité défectueuse associée à la probabilité de ruine est projetée dans un système polynomial orthogonal. Ces polynômes sont orthogonaux par rapport à une mesure de probabilité qui appartient à la famille exponentielle naturelle avec fonction de variance quadratique (NEF-QVF). Cette méthode est pratique à quatre égards au moins. Premièrement, elle conduit à une expression analytique simple de la probabilité de ruine ultime. Deuxièmement, sa mise en œuvre ne nécessite pas de grandes compétences informatiques. Troisièmement, notre méthode d'approximation ne nécessite pas d'étape préliminaire de discrétisation de la distribution des tailles de sinistres. Enfin, les coefficients de notre formule ne dépendent pas des réserves initiales.
  • Approximations polynomiales de densités de probabilité et applications en assurance.

    Pierre olivier GOFFARD, Denys POMMERET, Dominique HENRIET, Xavier GUERRAULT, Stephane LOISEL, Claude LEFEVRE, Patrice BERTAIL
    2015
    Cette thèse a pour objet d'étude les méthodes numériques d'approximation de la densité de probabilité associée à des variables aléatoires admettant des distributions composées. Ces variables aléatoires sont couramment utilisées en actuariat pour modéliser le risque supporté par un portefeuille de contrats. En théorie de la ruine, la probabilité de ruine ultime dans le modèle de Poisson composé est égale à la fonction de survie d'une distribution géométrique composée. La méthode numérique proposée consiste en une projection orthogonale de la densité sur une base de polynômes orthogonaux. Ces polynômes sont orthogonaux par rapport à une mesure de probabilité de référence appartenant aux Familles Exponentielles Naturelles Quadratiques. La méthode d'approximation polynomiale est comparée à d'autres méthodes d'approximation de la densité basées sur les moments et la transformée de Laplace de la distribution. L'extension de la méthode en dimension supérieure à $1$ est présentée, ainsi que l'obtention d'un estimateur de la densité à partir de la formule d'approximation. Cette thèse comprend aussi la description d'une méthode d'agrégation adaptée aux portefeuilles de contrats d'assurance vie de type épargne individuelle. La procédure d'agrégation conduit à la construction de model points pour permettre l'évaluation des provisions best estimate dans des temps raisonnables et conformément à la directive européenne Solvabilité II.
  • Est-il optimal de regrouper les assurés par âge, sexe et ancienneté pour les calculs BEL basés sur des points modèles ?

    Pierre olivier GOFFARD, Xavier GUERRAULT
    European Actuarial Journal | 2015
    Une méthode d'agrégation adaptée aux portefeuilles d'assurance-vie est présentée. Nous visons à optimiser le temps de calcul lors de l'utilisation de simulations de Monte Carlo pour le calcul de la meilleure estimation du passif. La méthode est une procédure en deux étapes. La première étape consiste à utiliser des méthodes de partitionnement statistique afin de rassembler les polices d'assurance. La deuxième étape est la construction d'une police représentative pour chacun des groupes susmentionnés. L'efficacité de la méthode d'agrégation est illustrée sur un portefeuille réel de contrats d'épargne dans le cadre d'un modèle de projection de flux de trésorerie utilisé pour la meilleure estimation du passif et le calcul du capital de solvabilité requis. La procédure fait déjà partie du processus d'évaluation d'AXA France.
Les affiliations sont détectées à partir des signatures des publications identifiées dans scanR. Un auteur peut donc apparaître affilié à plusieurs structures ou tutelles en fonction de ces signatures. Les dates affichées correspondent seulement aux dates des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr