Une interprétation trajectorielle des dissipations de l'entropie et de l'information de Fisher pour les équations différentielles stochastiques.

Auteurs
Date de publication
2016
Type de publication
Article de journal
Résumé La dissipation des entropies convexes générales pour les processus de Markov à temps continu peut être décrite en termes de martingales rétrogrades par rapport à la filtration de la queue. L'entropie relative est la valeur attendue d'une sous-martingale à rebours. Dans le cas de processus de diffusion de Markov (non nécessairement réversibles), nous utilisons la théorie de Girsanov pour expliciter la décomposition de Doob-Meyer de cette sous-martingale. Nous déduisons un analogue stochastique de la formule bien connue de dissipation d'entropie, qui est valable pour des entropies convexes générales, y compris la distance de variation totale. Sous des hypothèses de régularité supplémentaires, et en utilisant le calcul d'It\^o et les idées d'Arnold, Carlen et Ju \cite{Arnoldcarlenju}, nous obtenons en outre un nouveau critère de Bakry Emery qui assure la convergence exponentielle de l'entropie vers $0$. Ce critère est non intrinsèque puisqu'il dépend de la racine carrée de la matrice de diffusion, et ne peut pas être écrit uniquement en termes de la matrice de diffusion elle-même. Nous fournissons des exemples où le critère classique de Bakry Emery échoue, mais où notre critère non-intrisique s'applique sans modifier la loi du processus de diffusion.
Thématiques de la publication
  • ...
  • Pas de thématiques identifiées
Thématiques détectées par scanR à partir des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr