On the variational principle for a class of stochastic
control for systems governed by stochastic differential
equations of mean-field type with applications
Cette thèse de doctorat s’inscrit dans le cadre de la théorie de contrôle optimal stochastique. Le thème central est l’optimisation stochastique a…n d’établir des conditions nécessaires d’un contrôle optimal sous forme du principe du maximum stochastique de type de
Pontryagin.
D’une part, et plus précisement, nous étudions des problèmes de contrôle stochastique
optimal singulier partiellement observés de type mean-…eld (McKean-Vlasov) général avec
des corrélations entre le système et l’observation Y (�) : Dans ce travail, la variable de
contrôle (u (�) ; � (�)) a deux composantes, la première u (�) est absolument continue et la
seconde � (�) est une variation bornée, non décroissante continue à droite avec limit à
gauche (càdlàg).
Le système stochastique étudié est gouverné par une équation di¤érentielle stochastique
contrôlée de type Itô où les coe¢ cients de la dynamique dépendent du processus d’état
ainsi que de sa loi de probabilité Pxu;�(t) et de la variable de contrôle continue u (�) ; dé…nit
par :
8>>>>>>>>>: dxu;� (t) = f(t; xu;� (t) ; Pxu;�(t); u (t))dt + �(t; xu;� (t) ; Pxu;�(t); u (t))dW (t)
+g(t; xu;� (t) ; Pxv;�(t); v (t))dWf (t) + G(t)d�(t);
xu;� (0) = x0; t 2 [0; T] :
Nous supposons que le processus d’état xu;� (t) ne peut pas être observé directement, mais
les contrôleurs peuvent observer un processus de bruit associé Y (�), régit par l’équation
suivante : 8>:
dY (t) = h(t; xu;� (t) ; u (t))dt + dWf (t)
Y (0) = 0; où Wf (t) est un processus stochastique dépendant du contrôle u(�), et Y (�) le processus
d’observation. On de…nit FY
t martingale �u(t) qui est une solution de l’equation suivante :
8>: d�u(t) = �u(t)h (t; xu(t); u(t)) dY (t);
�u(0) = 1: D’aprés le théorème de dérivation de Radon-Nikodym, cette martingale a permis de dé…nir
une nouvelle probabilité notée Pu, qui dépend de u (�) et donnée par :
dPu
dP
FY
t
= �u(t). La fonctionnelle de coût J(u(�); �(�)) peut s’écrire sous forme
J(u(�); �(�)) = E �Z0T �u(t)l(t; xu;�(t); Pxu;�(t); u(t))dt + �u(T) (xu;�(T); Pxu;�(T ))
+ Z[0;T ] �u(t)M(t)d�(t)� : Par l’utilisation des techniques variationnelles convexes classiques, nous établissons un ensemble de conditions nécessaires de contrôle singulier optimal sous la forme du principe
du maximum. Notre résultat principal est prouvé en appliquant le théorème de Girsanov et les dérivées par rapport à une mesure (ou la loi de probabilité) au sense de P. Lions. D’autre part, nous établissons des conditions nécessaires du second-ordre pour un contrôle stochastique mixed continu-singulier (u (�) ; � (�)), où le système est gouverné par des systèmes di¤érentiels stochastiques contrôlés non linéaires. Le principe du maximum
ponctuel du second-ordre en termes de martingale par rapport à la variable de temps est prouvé. Le domaine de contrôle est supposé convexe. Notons que dans ce travail que les termes de dérivée et les termes de di¤usion des systèmes dépendent de la variable de contrôle continue u (�). Notre résultat est prouvé en utilisant des techniques variationnelles sous certaines conditions de convexité