Grandes deviations pour les processus d'apprentissage lent a statistiques discontinues sur une surface.

Auteurs
Date de publication
1995
Type de publication
Thèse
Résumé Nous etablissons le principe de grandes deviations pour des chaines de markov dont les probabilites de transition sont differentes selon que le processus se trouve d'un cote ou de l'autre d'une surface. Les grandes deviations sont alors observees sur un intervalle de temps fixe pour le processus convenablement normalise. Sur chaque champ de probabilite, on fait les hypotheses de continuite qui permettent habituellement d'obtenir le principe de grandes deviations. Cette continuite est perdue sur la frontiere. De telles dynamiques sont utilisees dans de nombreux algorithmes stochastiques, en particulier dans certains algorithmes d'apprentissage pour les reseaux de neurones. Selon la configuration des supports des mesures au voisinage de la frontiere, deux types de comportement sont possibles pour le processus. Dans l'un, le nombre de traversees de la frontiere n'est pas borne. Une nouvelle fonction de cout apparait, combinaison des transformees de cramer de chaque champ . elle correspond au melange des deux champs. La fonctionnelle d'action est calculee seulement sur les chemins pour lesquels il existe un nombre fini d'intervalles ou ils restent soit dans un des deux demi-espaces, soit sur la frontiere. Dans l'autre type de comportement, le processus traverse localement au plus une fois la frontiere . la fonctionnelle de cout s'obtient en integrant successivement chaque transformee de cramer. Dans le dernier chapitre, nous donnons les equations verifiees par une trajectoire de cout minimal entre deux points. Leur resolution peut permettre de faire des simulations accelerees d'evenements rares.
Thématiques de la publication
  • ...
  • Pas de thématiques identifiées
Thématiques détectées par scanR à partir des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr