Équation de Bellman et solutions de viscosité pour un problème de contrôle stochastique à champ moyen.

Auteurs
Date de publication
2017
Type de publication
Autre
Résumé Nous considérons le problème de contrôle optimal stochastique d'une équation différentielle stochastique de McKean-Vlasov où les coefficients peuvent dépendre de la loi conjointe de l'état et du contrôle. En utilisant des contrôles par rétroaction, nous reformulons le problème en un problème de contrôle déterministe avec seulement la distribution marginale du processus comme variable d'état contrôlée, et nous prouvons que le principe de programmation dynamique tient dans sa forme générale. Ensuite, en nous appuyant sur la notion de différentiabilité par rapport aux mesures de probabilités récemment introduite par P.L. Lions dans [32], et sur une formule spéciale d'Itô pour les flux de mesures de probabilité, nous dérivons l'équation de Bellman (programmation dynamique) pour le problème de contrôle stochastique à champ moyen, et nous prouvons un théorème de vérification dans notre cadre McKean-Vlasov. Nous donnons des solutions explicites à l'équation de Bellman pour le problème de contrôle linéaire quadratique du champ moyen, avec des applications à la sélection de portefeuille à moyenne variance et à un modèle de risque systémique. Nous considérons également une notion de solutions de visc-sité levée pour l'équation de Bellman, et nous montrons la propriété de viscosité et l'unicité de la fonction de valeur pour le problème de contrôle de McKean-Vlasov. Enfin, nous considérons le cas du problème de contrôle de McKean-Vlasov avec des contrôles en boucle ouverte et discutons l'équation de programmation dynamique associée que nous comparons au cas des contrôles en boucle fermée.
Thématiques de la publication
  • ...
  • Pas de thématiques identifiées
Thématiques détectées par scanR à partir des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr