Une interprétation trajectorielle des dissipations de l'entropie et de l'information de Fisher pour les équations différentielles stochastiques.
Auteurs
Date de publication
- FONTBONA Joaquin
- JOURDAIN Benjamin
2016
Type de publication
Article de journal
Résumé
La dissipation des entropies convexes générales pour les processus de Markov à temps continu peut être décrite en termes de martingales rétrogrades par rapport à la filtration de la queue. L'entropie relative est la valeur attendue d'une sous-martingale à rebours. Dans le cas de processus de diffusion de Markov (non nécessairement réversibles), nous utilisons la théorie de Girsanov pour expliciter la décomposition de Doob-Meyer de cette sous-martingale. Nous déduisons un analogue stochastique de la formule bien connue de dissipation d'entropie, qui est valable pour des entropies convexes générales, y compris la distance de variation totale. Sous des hypothèses de régularité supplémentaires, et en utilisant le calcul d'It\^o et les idées d'Arnold, Carlen et Ju \cite{Arnoldcarlenju}, nous obtenons en outre un nouveau critère de Bakry Emery qui assure la convergence exponentielle de l'entropie vers $0$. Ce critère est non intrinsèque puisqu'il dépend de la racine carrée de la matrice de diffusion, et ne peut pas être écrit uniquement en termes de la matrice de diffusion elle-même. Nous fournissons des exemples où le critère classique de Bakry Emery échoue, mais où notre critère non-intrisique s'applique sans modifier la loi du processus de diffusion.
Thématiques de la publication
-
Pas de thématiques identifiées
Thématiques détectées par scanR à partir des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr