[go: up one dir, main page]

0% ont trouvé ce document utile (0 vote)
278 vues93 pages

Annie Millet Cal - Stoch PDF

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1/ 93

M2 - Mathématiques Appliquées

´
à l’Economie et à la Finance
Université Paris 1
Spécialité : Modélisation et Méthodes Mathématiques
´
en Economie et Finance

Calcul Stochastique 2
Annie Millet

15
14
13
12
11
10
9
8
7
6
5
4
3
2
1
0
−1
−2
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
Table des matières

1. Processus d’Itô de dimension quelconque . . . . . . . . . . . . . . 1


1.1. Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Variation quadratique - Crochet d’une martingale locale . . . . . . 4
1.3. Processus d’Itô réel. . . . . . . . . . . . . . . . . . . . . . . . 12
1.4. Processus d’Itô de dimension d - Formule d’Itô générale . . . . . . 13
1.4.1. Processus d’Itô de dimension d . . . . . . . . . . . . . . . . . 13
1.4.2. Formule d’Itô générale . . . . . . . . . . . . . . . . . . . . 15
1.5. Propriétés du Brownien. . . . . . . . . . . . . . . . . . . . . . 17
1.5.1. Caractérisations de Lévy . . . . . . . . . . . . . . . . . . . 17
1.5.2. Propriétés de Markov . . . . . . . . . . . . . . . . . . . . . 19
1.6. Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
´
2. Equations différentielles stochastiques . . . . . . . . . . . . . . 24
2.1. Solution forte - Diffusion. . . . . . . . . . . . . . . . . . . . . 25
2.2. Solution faible. . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.3. Quelques propriétés des diffusions. . . . . . . . . . . . . . . . . 33
2.3.1. Flot stochastique et Propriété de Markov . . . . . . . . . . . . 33
2.3.2. Générateur infinitésimal . . . . . . . . . . . . . . . . . . . . 35
2.3.3. Théorème de comparaison . . . . . . . . . . . . . . . . . . . 38
2.4. Processus de Bessel . . . . . . . . . . . . . . . . . . . . . . . . 39
2.5. Lien avec les EDP. . . . . . . . . . . . . . . . . . . . . . . . . 40
2.5.1. Problème parabolique . . . . . . . . . . . . . . . . . . . . . 40
2.5.2. Formule de Feynman-Kac . . . . . . . . . . . . . . . . . . . 41
2.6. Exemples en finance. . . . . . . . . . . . . . . . . . . . . . . . 44
2.6.1. Problème de Sturm-Liouville - Temps d’occupation . . . . . . . . 44
2.6.2. Introduction à la formule de Black & Sholes . . . . . . . . . . . 46
2.7. Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3. Théorème de Girsanov . . . . . . . . . . . . . . . . . . . . . . . 54
3.1. Changement de probabilité . . . . . . . . . . . . . . . . . . . . 54
3.2. Formule de Cameron Martin. . . . . . . . . . . . . . . . . . . . 55
3.3. Théorème de Girsanov . . . . . . . . . . . . . . . . . . . . . . 57
3.4. Condition de Novikov et généralisations . . . . . . . . . . . . . . 58
3.5. Exemples d’application à des calculs d’espérance . . . . . . . . . . 61
3.6. Théorème de représentation prévisible . . . . . . . . . . . . . . 63
3.7. Existence de solutions faibles . . . . . . . . . . . . . . . . . . . 66
3.8. Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4. Applications à la finance . . . . . . . . . . . . . . . . . . . . . . 69
4.1. Modélisation d’un marché financier en temps continu . . . . . . . . 69
4.1.1. Modélisation d’un marché à d actifs risqués et k facteurs . . . . . . 69
4.1.2. Description des stratégies . . . . . . . . . . . . . . . . . . . 70
4.1.3. Absence d’opportunité d’arbitrage - Mesure martingale équivalente . . 71
4.1.4. Probabilité risque neutre . . . . . . . . . . . . . . . . . . . . 72
4.2. Modèle de Black & Sholes généralisé . . . . . . . . . . . . . . . 74
4.2.1. Absence d’opportunité d’arbitrage et changement de probabilité -
Prime de risque . . . . . . . . . . . . . . . . . . . . . . . 74
4.2.2. Complétude du marché . . . . . . . . . . . . . . . . . . . . 77
4.2.3. Calcul du portefeuille de couverture dans le modèle de Black & Sholes 79
4.2.4. Volatilité . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.3. Modèle de Cox-Ingersoll-Ross . . . . . . . . . . . . . . . . . . 83
4.3.1. Processus de Bessel généraux . . . . . . . . . . . . . . . . . . 83
4.3.2. Modèle de Cox-Ingersoll-Ross . . . . . . . . . . . . . . . . . 85
4.3.3. Calcul du prix d’un zéro-coupon . . . . . . . . . . . . . . . . 86
4.4. Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
1

1 Processus d’Itô de dimension quelconque

Le but de ce chapitre est d’étendre les notions de mouvement Brownien, de processus


d’Itô et la formule d’Itô de la dimension 1 à une dimension d arbitraire.

1.1 Rappels

Nous rappelons tout d’abord quelques définitions et notations du cours de Calcul Sto-
chastique 1. La filtration donne l’information dont on dispose à chaque instant t.

Définition 1.1 Soit (Ω, F, P ) un espace probabilisé.


(i) Une filtration est une famille croissante (Ft , t ≥ 0) de sous-tribus de F, c’est à dire
telle que Fs ⊂ Ft ⊂ F si s ≤ t.
(ii) On dit que la filtration (Ft ) satisfaitles conditions usuelles si elle est :
• continue à droite, i.e., Ft = Ft+ := s>t Fs .
• complète, i.e., toutes les tribus Ft contiennent les ensembles négligeables, ce qui revient
à demander que P (A) = 0 entraı̂ne A ∈ F0 .

Convention. Dans toute la suite on se donne un espace probabilisé filtré (Ω, F, (Ft , t ≥
0), P ) et on suppose que sa filtration (Ft ) satisfait les conditions habituelles. On supposera
de plus que la tribu F0 est la complétée de la tribu triviale {∅, Ω}, ce qui entraı̂ne que les v.a.
F0 mesurables sont presque sûrement constantes. Ceci ne sera pas rappelé dans les énoncés.

Définition 1.2 Un processus stochastique (à valeurs dans Rd ) est une famille (Xt , t ≥ 0)
de variables aléatoires Xt : (Ω, F) → (Rd , Rd ).
(i) Le processus stochastique (Xt ) est (Ft )-adapté si Xt est mesurable de (Ω, Ft ) dans
(R , Rd ) pour tout instant t ≥ 0.
d

(ii) Le processus stochastique (Xt ) est progressivement mesurable (ou progressif ) si pour
tout instant t ≥ 0, l’application (s, ω) → Xs (ω) est mesurable de B([0, t])⊗Ft dans (Rd , Rd ).
(iii) Soit (Xt ) un processus stochastique. Sa filtration naturelle est (FtX , t ≥ 0) où FtX =
σ(σ(Xs , s ∈ [0, t]), N ) où N désigne les ensembles négligeables. Si le processus (Xt ) est
continu à droite, sa filtration naturelle (FtX ) satisfait les conditions habituelles.

Théorème 1.3 Soit (Xt ) un processus stochastique à valeurs dans Rd , adapté et continu à
droite. Alors (Xt ) est progressif.

La notion de temps d’arrêt joue un rôle crucial dans la théorie.

Définition 1.4 Une variable aléatoire τ : Ω → [0, +∞] est un temps d’arrêt (relativement
à la filtration (Ft )), ou (Ft )-temps d’arrêt, si {τ ≤ t} ∈ Ft pour tout t ≥ 0. Si τ est un
temps d’arrêt relativement à (Ft ), on note

Fτ = {A ∈ F : A ∩ {τ ≤ t} ∈ Ft , ∀t ∈ [0, +∞[}.

Enfin si (Xt ) est un processus (Ft )-adapté, on note Xτ (ω) = Xτ (ω) (ω) ; si le processus (Xt )
est continu à droite et adapté, Xτ 1{τ <+∞} est Fτ -mesurable.

Les exemples suivants de temps d’arrêt sont importants.

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


2 1 Processus d’Itô de dimension quelconque

Proposition 1.5 Soit (Xt , t ≥ 0) un processus à valeurs dans Rd , (Ft )-adapté et A ∈ Rd .


Rappelons la convention inf ∅ = +∞.
(i) Si A est fermé et (Xt ) est continu, DA = inf{t ≥ 0 : Xt ∈ A} est un (Ft )-temps
d’arrêt.
(ii) Si A est un ensemble ouvert et (Xt ) est continu à droite, alors le temps d’atteinte
de A noté TA = inf{t > 0 : Xt ∈ A} est un (Ft+ )-temps d’arrêt.

Démonstration. (i) De façon évidente, la continuité de X. et le fait que A est fermé entraı̂nent
{DA ≤ t} = {ω : inf s∈Q,s≤t d(Xs (ω), A) = 0} ∈ Ft , où d(x, A) = inf y∈A d(x, y).
(ii) Pour vérifier {TA ≤ t} ∈ Ft+ , il suffit de vérifier que {TA < t} ∈ Ft pour tout t.
De plus, si s < t et Xs (ω) ∈ A, la continuité à droite de X. (ω) et le fait que A est ouvert
entraı̂nent qu’il existe ε ∈]0, t − s[ tel que pour tout r ∈ [s, s + ε[, Xr (ω) ∈ A, d’où

{TA < t} = ∪s<t,s∈Q {Xs ∈ A} ∈ Ft .

Remarquons que TA n’est pas nécessairement un (Ft )-temps d’arrêt. 2


Les martingales jouent un rôle central dans la théorie ; elles ont la propriété fondamentale
constamment utilisée en finance : le processus (Xt , t ∈ [0, T ]) est complètement déterminé
par sa valeur XT à l’instant terminal T .

Définition 1.6 Un processus réel (Ft )-adapté X = (Xt , t ≥ 0) est une (Ft )-martingale si
• E[|Xt |] < +∞ (autrement dit Xt ∈ L1 (Ω)) pour tout t ≥ 0).
• E[Xt | Fs ] = Xs pour tout s ≤ t.
Si X est une (Ft )-martingale telle que E(Xt2 ) < +∞ pour tout t ≥ 0, on dit que X est une
martingale de carré intégrable.
On peut définir une martingale sans filtration préalable, en demandant que ce soit une (FtX )-
martingale où (FtX ) est la tribu naturelle de X. Clairement, si X est une (Ft )-martingale,
c’est aussi une (FtX )-martingale.
Enfin, un processus X = (Xti , i = 1, · · · , d, t ≥ 0) à valeurs dans Rd est une (Ft )-martingale
si chacune de ses composantes (Xti , t ≥ 0), i = 1, · · · , d est une (Ft )-martingale.

Rappelons qu’une (Ft )-martingale (Xt ) par rapport à une filtration (Ft ) qui satisfait les
conditions habituelles admet une modification continue à droite et limitée à gauche (cadlag).
Toutes les martingales que nous considérerons seront donc continues à droite. Le théorème
d’arrêt s’étend aux martingales continues à droite.

Théorème 1.7 (Théorème d’arrêt) Soit M une (Ft )-martingale (continue à droite).
(i) Soit S, T des (Ft )-temps d’arrêt bornés par une constante K, i.e., tels que S ≤ T ≤ K.
Alors MT est intégrable et
E(MT |FS ) = MS p.s.

(ii) Soit T un temps d’arrêt. Le processus arrêté (MtT , t ≥ 0) défini par

MtT = MT ∧t (1.1)

est encore une (Ft )-martingale.

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


1.1 Rappels 3

Démonstration. (i) Pour tout n ≥ 1, soit Sn (ω) = k2−n sur {S ∈ [(k − 1)2−n , k2−n [},
k ≤ K2n + 1 et Tn défini de façon similaire. Alors Sn et Tn sont des (Ft )-temps d’arrêt
qui ne prennent qu’un nombre fini de valeurs et tels que S ≤ Sn ≤ Tn , limn Sn = S et
limn Tn = T . Si A ∈ FSn , en découpant l’ensemble A suivant les
valeurs
 prises par Sn et en
utilisant la propriété de martingale, on voit que A MSn dP = k A∩{Sn =k} MK dP , c’est à
dire que MSn = E(MK |FSn ). Puisque FSn ⊂ FTn , on a donc
E(MTn |FSn ) = E(E(MK |FTn )|FSn ) = MSn .
 
On en déduit que pour A ∈ FS ⊂ FSn , A MSn dP = A MTn dP . De plus, les suites de
temps d’arrêt (Sn , n ≥ 1) et (Tn , n ≥ 1) étant décroissantes, le calcul précédent montre que
les suites (MSn , FSn ) et (MTn , FTn ) sont des martingales descendantes, donc uniformément
intégrables. Puisque la martingale M est continue à droite, MT = limn MTn et MS =
limn MSn p.s. et dans L1 . On en déduit que pour tout A ∈ FS , A MS dP = A MT dP ,
ce qui termine la démonstration. On remarque que cette démonstration s’étend aisément au
cas où S et T sont des temps d’arrêt non bornés tels que S ≤ T si la martingale M est
uniformément intégrable, donc fermée.
(ii) Si s ≤ t, il suffit d’appliquer la partie (i) aux temps d’arrêt s ∧ T ≤ t ∧ T ≤ t,
pour déduire que Mt∧T est une (Ft∧T )-martingale. Montrons que ce processus (Ft )-adapté
intégrable est encore une (Ft )-martingale.
Soit A ∈ Fs . De façon évidente, A ∩ {T > s} ∈ Fs∧T , et puisque E(Mt∧T |Fs∧T ) = Ms∧T ,
 
Mt∧T dP = Ms∧T dP.
A∩{T >s} A∩{T >s}
 
De plus, sur {T ≤ s}, Mt∧T = MT = Ms∧T ; on en déduit A
Mt∧T dP = A
Ms∧T dP , ce qui
termine la démonstration. 2
Cette proposition justifie la définition suivante qui permet de localiser la notion de
martingale en introduisant une suite croissante de temps d’arrêt.
Définition 1.8 Un processus (Ft )-adapté et continu à droite M est une (Ft )-martingale
locale s’il existe une suite croissante (τn ) de (Ft )-temps d’arrêt telle que τn → ∞ et M τn :=
(Mt∧τn , t ≥ 0) est une (Ft )-martingale pour tout n.

Remarque 1.9 (1) Soit M une martingale locale. En remplaçant la suite de temps d’arrêt
(τn ) par (τn ∧ n) on voit que l’on peut demander que chaque martingale M τn soit uni-
formément intégrable. Pour tout n ≥ 1, soit Sn = inf{t ≥ 0 : |Mt | ≥ n}. Alors Sn est
un temps d’arrêt et si la martingale locale M est continue, on peut, en remplaçant τn par
τn ∧ n ∧ Sn , demander que la martingale M τn soit bornée.
(2) Même si M est une martingale locale intégrable, ce n’est pas nécessairement une
martingale. On pourra voir un contre-exemple dans [10], page 182.
Définition 1.10 Le processus (Bt , t ≥ 0) est un mouvement Brownien (standard) réel - ou
unidimensionnel si les propriétés (a)-(c) sont vérifiées :
a) P (B0 = 0) = 1 (le mouvement Brownien est issu de l’origine).
b) Pour 0 ≤ s ≤ t, Bt − Bs est une variable réelle de loi gaussienne, centrée de variance
(t − s), notée N (0, t − s).
c) Pour tout n et 0 ≤ t0 ≤ t1 · · · ≤ tn , les variables aléatoires Bt0 , Bt1 − Bt0 , · · · ,
Btn − Btn−1 sont indépendantes.

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


4 1 Processus d’Itô de dimension quelconque

Rappelons que les trajectoires du Brownien B sont p.s. continues, et même Höldériennes
d’ordre α < 12 , mais p.s. qu’elles ne sont pas dérivables (ni même des fonctions de classe
1
C 2 ).
On supposera souvent que la tribu (Ft ) considérée est la tribu naturelle de B, notée (FtB ),
et satisfait donc le théorème d’arrêt 1.7. La propriété c) montre que pour tout 0 ≤ s < t,
l’accroissement Bt − Bs est indépendant de la tribu FsB = σ(σ(Bu , 0 ≤ u ≤ s), N ). Le
mouvement Brownien est donc une (FtB )-martingale. Rappelons des propriétés du Brownien
qui seront d’un usage constant, et pourront être montrées à titre d’exercice.

Proposition 1.11 Soit (Bt ) un Brownien. Alors


(i) (Scaling) Pour toute constante c > 0, le processus cBt/c2 est un mouvement Brownien
et (−Bt ) est un mouvement Brownien.
(ii) (Xt2 − t, t ≥ 0) est (FtB )-martingale.
   
2
(iii) Pour tout θ ∈ R, le processus exp θXt − θ2 t , t ≥ 0 est une (FtB )-martingale.

La figure suivante montre trois exemples de trajectoires de B (obtenues par simulation).

−1

−2

−3

−4

−5
0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0

1.2 Variation quadratique - Crochet d’une martingale locale

Rappelons les notations suivantes.

Définition 1.12 Soit (Ω, F, (Ft , t ≥ 0), P ) un espace filtré. Pour a = 1, 2 et T ∈]0, +∞]
on note :
  t

Ha (Ft ) = h progressivement mesurable tel que pour tout t ≥ 0, E |hs | ds < ∞ ,
a
0
  t
Ha (Ft ) = h progressivement mesurable tel que pour tout t ≥ 0,
loc
|hs | ds < ∞ p.s. ,
a
0
  T

T
Ha (Ft ) = h progressivement mesurable tel que E |hs | ds < +∞ .
a
0

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


1.2 Variation quadratique - Crochet d’une martingale locale 5

t 2
En particulier soit h un processus
 cadlag
 (F t )-adapté ; si pour tout t > 0 on a h ds <
0 s
t
+∞ p.s., alors h ∈ H2loc , si E 0 h2s ds < ∞ pour tout t, alors h ∈ H2 (Ft ), ... Lorsque
la filtration (Ft ) est la filtration naturelle (FtB ) d’un mouvement Brownien B, on notera
simplement H1loc := H1loc (FtB ), H2loc := H2loc (FtB ), ...
La propriété suivante des intégrales stochastiques par rapport au mouvement Brownien
est fondamentale.

Théorème 1.13 Soit B un mouvement t Brownien et (FtB ) sa filtration naturelle. Soit h ∈


H2 ; alors le processus t → It = 0 hs dBs est une (FtB )-martingale de carré intégrable et à
trajectoires p.s. continues. t
Soit h ∈ H2loc (par exemple un processus cadlag, (FtB )-adapté tel que 0 h2s ds < +∞
t
p.s.) Alors l’intégrale stochastique It = 0 hs dBs peut être construite comme une martingale
locale continue.

Rappelons la notion de variation satisfaite par les intégrales de la borne supérieure déterministes.

Définition 1.14 (i) Soit s < t et f : [s, t] → R. La fonction f est à variation bornée sur
[s, t] si V[s,t] (f ) < +∞, où


V[s,t] (f ) := sup |f (ti+1 ) − f (ti )| : {s = t0 < t1 < · · · < tn ≤ t} subdivision de [s, t] .
i

La fonction f : [0, +∞[ est à variation finie sur [0, +∞[ si elle est à variation bornée sur
tout intervalle [0, T ].
(ii) Le processus (Xt ) est à variation bornée sur [s, t] (resp. à variation finie) si ses
trajectoires sont p.s. à variation bornée sur [s, t] (resp. p.s. à variation finie).
t
De façon évidente, si b ∈ H1loc (Ft ), le processus t → It = 0 bs ds est à variation finie ; en
T
effet pour tout T ≥ 0, V[0,T ] (I) ≤ 0 |b(t)| dt. Le comportement des intégrales stochastiques
est tout autre.
Proposition 1.15 Soit (Mt ) une (Ft )-martingale locale p.s. continue à variation finie.
Alors pour tout t la variable aléatoire Mt est presque sûrement constante (égale à M0 ).
Démonstration. Puisque X0 est p.s. constante, en remplaçant Mt par Mt − M0 , on peut
supposer M0 = 0.
(i) Fixons T et supposons que (Mt ) est une martingale continue et que sa variation
V[0,T ] (M ) est (p.s.) bornée par C. Soit Δ = {t0 = 0 < t1 < · · · < tn = T } une subdivision de
i=0 |ti+1 − ti | son pas et pour 0 ≤ k ≤ n − 1 soit Xk = Mtk+1 − Mtk . Alors
[0, T ], |Δ| = supn−1


n−1
2 2
E(|MT | ) = E(|MT − M0 | ) = E(Xk2 ) + 2 E(Xi Xj ).
k=0 1≤i<j≤n−1

Si i < j, Xi est Fti 


mesurable, donc indépendante
 de Xj et E(Xi Xj ) = E(Xi E(Xj |Fti )) = 0.
2 n 2
Donc E(|MT | ) = k=0 E(Xk ) ≤ CE supk |Mtk+1 − Mtk | et par continuité des trajectoires
de M , p.s. la fonction t → Mt (ω) est uniformément continue sur [0, T ]. Quand |Δ| → 0,
on a donc supk:tk+1 ≤t |Mtk+1 − Mtk | → 0 p.s. tandis que supk:tk+1 ≤t |Mtk+1 − Mtk | ≤ 2C. En

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


6 1 Processus d’Itô de dimension quelconque

 
appliquant le Théorème de convergence dominée, on en déduit E supk |Mtk+1 − Mtk | → 0
quand |Δ| → 0. On en déduit E(|MT |2 ) = 0 ce qui entraı̂ne MT = 0 p.s.
(ii) Supposons que (Mt ) est une martingale p.s. continue. Pour tout n, soit

τn = inf{t ∈ [0, T ] : V[0,t] (M ) ≥ n} ∧ T

(avec la convention inf ∅ = +∞). La définition de V[0,t] montre que c’est un processus (Ft )-
adapté, continu. La Proposition 1.5 (i) montre que (τn ) est une suite de (Ft )-temps d’arrêt ;
de façon évidente, (τn ) est croissante et converge vers T . Le théorème d’arrêt 1.7 montre
que le processus (Mtτn ) = (Mt∧τn , t ≥ 0) est une (Ft )-martingale. De plus, par construction,
V[0,T ] (M τn ) ≤ n p.s. Soit t ∈ [0, T ] ; la partie (i) montre donc que Mt∧τn = 0 p.s. puis la
continuité p.s. de M permet, en faisant tendre n vers l’infini, d’en déduire que Mt = 0 p.s.
(iii) Soit maintenant M une martingale locale continue et soit (τn ) une suite de temps
d’arrêt qui croit vers T telle que (Mt∧τn , t ≥ 0) est une martingale continue. Pour tout
n cette martingale est à variation bornée sur [0, T ] et est donc nulle p.s. d’après (ii). On
conclut de nouveau par passage à la limite en n en utilisant la continuité p.s. de M . 2

La proposition précédente montre que le mouvement Brownien n’est p.s. pas à variation
t
bornée sur [0, T ] et que l’intégrale stochastique t → 0 σs dBs ne peut pas être définie
ω par ω et n’est pas à variation finie, sauf si elle est nulle.
La bonne notion pour les intégrales stochastiques, tout comme pour le Brownien, est
celle de variation quadratique. Pour tout processus X défini sur [0, T ], 0 ≤ t ≤ T et toute
subdivision Δ = {t0 = 0 < t1 < · · · < tk = T },


k−1
TtΔ (X) = |Xti+1 ∧t − Xti ∧t |2 .
i=0

Définition 1.16 Soit X : [0, T ] × Ω → R un processus stochastique défini sur [0, T ]. On dit
que X est de variation quadratique finie si pour tout t ∈ [0, T ],

X, Xt = lim TtΔ existe en probabilité,


|Δ|→0

c’est à dire que pour toute suite (Δn ) de subdivisions de [0, T ] dont le pas tend vers 0, la
suite TtΔn converge en probabilité vers une limite notée X, Xt .

Les deux résultats suivants donnent les rapports entre processus à variation bornée et à
variation quadratique finie.

Proposition 1.17 Soit X un processus continu à variation bornée sur [0, T ]. Alors X est
de variation quadratique nulle sur [0, T ].

Démonstration. Soit Δ = {0 = t0 < t1 < · · · < tk = T } une subdivision de [0, T ]. Alors


k−1
k−1
2
|Xti+1 − Xti | ≤ |Xti+1 − Xti | sup |Xti+1 − Xti |.
0≤i<k
i=0 i=0

La continuité uniforme p.s. de X sur l’intervalle [0, T ] entraı̂ne sup0≤i≤k−1 |Xti+1 − Xti | → 0

p.s. quand |Δ| → 0. De plus p.s. k−1 i=0 |Xti+1 (ω) − Xti (ω)| ≤ V[0,T ] (X. (ω)) < +∞, ce qui
termine la démonstration.

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


1.2 Variation quadratique - Crochet d’une martingale locale 7

On remarque d’ailleurs que la démonstration précédente et le Théorème de convergence


dominée entraı̂nent que si V[0,t] (X) ≤ C p.s. où C est constante, TtΔ converge vers 0 dans
L1 . 2
Le résultat suivant a été montré dans le cours de Calcul Stochastique 1.
Théorème 1.18 Le mouvement Brownien (Bt ) est de variation quadratique finie sur tout
intervalle [0, T ] et B, Bt = t. Plus précisément, lorsque |Δ| → 0, E(|TtΔ (B) − t|2 ) → 0,
2
t L .
c’est à dire que la convergence a lieu dans t
De plus, si σ ∈ H2 , le processus ( 0 σs dBs , t ≥ 0) est de variation quadratique 0 σs2 ds
loc

sur chaque intervalle [0, t].


Nous allons tout d’abord le généraliser à des martingales locales continues.
Notation Soit Δ = {t0 = 0 < t1 < t2 < · · · } une subdivision de [0, +∞[ telle que pour tout
t > 0, Δ ∩ [0, t] ne comprend qu’un nombre fini de points. Par analogie avec les notations
précédentes, pour tout t > 0 (en ajoutant t à la subdivision) et pour tout processus X
notons
TtΔ (X) = (Xti+1 ∧t − Xti ∧t )2 . (1.2)
i≥0

Le processus X est à variation quadratique finie si pour tout t la famille de processus TtΔ (X)
converge en probabilité vers X, Xt quand le pas |Δ| de la subdivision sur [0, t] tend vers
0.
Le résultat suivant est fondamental. Il relie la variation quadratique à une martingale
associée au carré du processus.

Théorème 1.19 Soit M une (Ft )-martingale (resp. martingale locale) continue. Alors M
est de variation quadratique finie et sa variation quadratique M, M t est l’unique processus
croissant, adapté, continu, nul en zéro tel que
 2 
Mt − M, M t , t ≥ 0 est une (Ft ) martingale locale .
De plus,
 pour s < t et toute suite (Δn ) de subdivisions dont le pas |Δn | tend vers 0, la suite
sups≤t Ts (M ) − M, M s  converge vers 0 en probabilité.
 Δn

Si de plus, M est une martingale de carré intégrable (c’est à dire que E(Mt2 ) < +∞
pour tout t), alors (Mt2 − M, M t , t ≥ 0) est une (Ft ) martingale continue telle que pour
tout couple de temps d’arrêt bornés S ≤ T ≤ C,
E(MT2 − MS2 |FS ) = E(|MT − MS |2 |FS ) = E(M, M T − M, M S |FS ).

Démonstration. L’unicité de la décomposition découle de la Proposition 1.15. En effet,


soit Mt2 = Yt + At = Zt + Bt où A, B sont des processus continus à variation finie et nuls
en 0, Y, Z sont des martingales locales, continues puisque M.2 , A. et B. le sont. Alors la
différence Y − Z = B − A est une martingale locale continue à variation finie nulle en 0,
donc est nulle d’après la Proposition 1.15.
Pour prouver l’existence, nous distinguerons plusieurs étapes. Pour alléger les notations,
nous ne ferons pas référence à la filtration pour les temps d’arrêt, martingales, ... En rem-
plaçant (Mt ) par (Mt − M0 , t ≥ 0) qui est aussi une martingale (ou une martingale locale),
nous supposerons que M0 = 0.

(1) On suppose que M est une martingale bornée par C. Pour toute subdivision Δ,
s < t, notons i et k les entiers tels que ti ≤ s < ti+1 et tk ≤ t < tk+1 .

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


8 1 Processus d’Itô de dimension quelconque

Alors si i = k, la propriété de martingale de M entraı̂ne que


  
E TtΔ (M ) − TsΔ (M )Fs = E(|Mt − Mti |2 − |Ms − Mti |2 |Fs )
= E(|Mt − Ms |2 |Fs ) = E(Mt2 − Ms2 |Fs ).

Si i < k,    
E |Mti+1 − Mti |2 |Fs = E |Mti+1 − Ms |2 |Fs + |Ms − Mti |2 .
 2
Avec la convention nj=n 1
xj = 0 si n1 > n2 , on en déduit

 Δ   
k−1  
Δ  2 
E Tt (M ) − Ts (M ) Fs = E |Mti+1 − Ms | + |Mtj+1 − Mtj |2 + |Mt − Mtk |2 Fs .
j=i+1

D’autre part, pour tout s ≤ a < b ≤ c < d ≤ t,

E[(Mb − Ma )(Md − Mc )|Fs ] = E[(Mb − Ma )E[Md − Mc |Fc ]|Fs ] = 0.

En décomposant Mt − Ms comme somme d’accroissements sur les points {s, ti+1 , · · · , tk , t}


on obtient donc
  
k−1  
2 2 2 2
E |Mt − Ms | |Fs = E |Mti+1 − Ms | + |Mtj+1 − Mtj | + |Mt − Mtk | Fs ,
j=i+1

On en déduit que
     
E Mt2 − Ms2 |Fs = E (Mt − Ms )2 |Fs = E TtΔ (M ) − TsΔ (M )|Fs . (1.3)

Le processus (Mt2 − TtΔ (M ), t ≥ 0) est donc une martingale de carré intégrable et E(Mt2 ) =
E(TtΔ (M )) pour tout t ≥ 0.

(2) Soit M une martingale continue bornée par C. Fixons a en notons (Δn ) une suite
de subdivisions de [0, a] dont le pas tend vers 0. Montrons que la suite (TaΔn (M ), n ≥ 0)
converge dans L2 , c’est à dire est de Cauchy dans L2 .
Soit Δ et Δ deux subdivisions ; notons Δ̃ la subdivision obtenue en prenant l’union des
points de Δ et Δ . Notons

X = T Δ (M ) − T Δ (M ).
Puisque (Mt2 − TtΔ (M ) , t ≥ 0) est une martingale, X est également une martingale nulle
en 0 telle que (Xt , 0 ≤ t ≤ a) est bornée. Le calcul précédent appliqué à X au lieu de M
montre que    
2 Δ Δ 2 Δ̃
E(Xa ) = E |Ta (M ) − Ta (M )| = E Ta (X) .
     
De plus, TaΔ̃ (X) ≤ 2 TaΔ̃ T Δ (M ) + TaΔ̃ T Δ (M ) .
Pour vérifier que la suite TaΔn (M ) est de Cauchy, il suffit donc de vérifier que
  
E TaΔ̃ T Δ (M )) converge vers 0 quand |Δ| + |Δ | → 0.

Soit sk ∈ Δ̃ et tl l’unique élément de Δ tel que tl ≤ sk < sk+1 ≤ tl+1 . Alors

TsΔk+1 (M ) − TsΔk (M ) = (Msk+1 − Mtl )2 − (Msk − Mtl )2 = (Msk+1 − Msk )(Msk+1 + Msk − 2Mtl ).

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


1.2 Variation quadratique - Crochet d’une martingale locale 9

On en déduit

 
TaΔ̃ T (M ) ≤ TaΔ̃ (M )
Δ 2
sup |Msk+1 + Msk − 2Mtl | .
k

Puisque M est continue bornée, le théorème de convergence dominée entraı̂ne que


E sup |Msk+1 + Msk − 2Mtl | → 0 quand |Δ| + |Δ | → 0.


4
k

Il suffit d’après l’inégalité de Schwarz de prouver que E(|TaΔ̃ (M )|2 ) reste bornée par une
constante, c’est à dire que
sup E(|TaΔ (M )|2 ) < +∞.
Δ

Soit Δ une subdivision qui contient a = tn . Alors


 n−1 2

Δ 2 2
|Ta (M )| = |Mti+1 − Mti |
i=0

n−1
n−2
n−1
4 2
= |Mti+1 − Mti | + 2 |Mti+1 − Mti | |Mtj+1 − Mtj |2
i=0 i=0 j=i+1


n−1
n−2
 2  
= |Mti+1 − Mti |4 + 2 Mti+1 − Mti TaΔ (M ) − TtΔi+1 (M ) .
i=0 i=0
   
L’équation (1.3) montre que E TaΔ (M )−TtΔi+1 (M )|Fti+1 = E (Ma −Mti+1 )2 |Fti+1 . Puisque
(Mti+1 − Mti )2 est Fti+1 -mesurable, on en déduit


n−1
E(|TaΔ (M )|2 ) = E(|Mti+1 − Mti |4 )
i=0

n−1
  
+2 E |Mti+1 − Mti |2 E TaΔ (M ) − TtΔi+1 (M )|Fti+1
i=0

n−1
n−1
 
4
= E(|Mti+1 − Mti | ) + 2 E |Mti+1 − Mti |2 (Ma − Mti+1 )2

i=0 i=0


2 2
≤E sup |Mtk+1 − Mtk | + 2 sup |Ma − Mtk | TaΔ (M ) .
k k

Puisque supt |Mt | ≤ C et M0 = 0, l’équation (1.3) pour 0 et a entraı̂ne que E(TaΔ (M )) ≤ C 2


et donc
E(|TaΔ (M )|2 ) ≤ 12C 2 E(TaΔ (M )) ≤ 12C 4 . (1.4)
La suite (TaΔn (M ), n ≥ 1) est donc de Cauchy dans L2 ; elle converge dans L2 (donc aussi
en probabilité) vers une limite notée M, M a .

(3) Soit M une martingale continue bornée par C. Il reste à vérifier que le processus
M, M  a les propriétés annoncées. Soit (Δn ) une suite de subdivisions dont le pas |Δn | tend

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


10 1 Processus d’Itô de dimension quelconque

vers 0. Pour tout m < n, le processus T Δn (M ) − T Δm (M ) est une martingale et l’inégalité


de Doob entraı̂ne que

 
E sup |Ts (M ) − Ts (M )| ≤ 4E |TaΔn (M ) − TaΔm (M )|2 .
Δn Δm 2
0≤s≤a

Δ
Soit m(k) un entier tel que pour tout m ≥ m(k), E(|TsΔm (M )−Ts m(k) (M )|2 ) ≤ 2−k . On peut
supposer que la suite m(k) est strictement croissante et, d’après le lemme de Borel Cantelli,
de la suite (T.Δn (M ), n ≥ 1) on peut donc extraire une sous-suite (T.Δm(k) (M ), k ≥ 1) qui
converge p.s. uniformément sur l’intervalle [0, a].
Par un procédé diagonal, on peut faire en sorte d’extraire une nouvelle sous-suite qui
converge uniformément sur tout intervalle [0, N ] pour tout entier N . La limite M, M  est
donc p.s. continue. De plus, la limite étant indépendante de la suite de subdivisions choisie,
on peut faire en sorte que la suite de subdivisions soit telle que Δn ⊂ Δn+1 et que ∪n Δn
soit dense dans [0, +∞[.
Alors, si s < t sont des points de ∪n Δn , il existe n0 tel que s, t ∈ Δn pour tout n ≥ n0 . On
en déduit alors de façon évidente que TsΔn ≤ TtΔn pour n ≥ n0 , d’où M, M s ≤ M, M t et
que le processus M, M  est croissant par continuité. Enfin, en faisant tendre n vers l’infini
dans l’équation (1.3) écrite pour la subdivision Δn et en utilisant l’intégrabilité uniforme
de la suite (TtΔn (M ), n ≥ 1) qui découle du fait que cette suite est bornée dans L2 d’après
(1.4), on déduit que M 2 − M, M  est une martingale.

(4) Soit M une martingale locale continue et (Tn ) une suite de temps d’arrêt qui croı̂t
p.s. vers +∞ et telle que pour tout n le processus X(n) = M Tn défini par (1.1) est une
martingale continue bornée. La démonstration précédente montre qu’il existe un processus
croissant A(n) nul en 0 tel que pour tout n, (X(n)2t − A(n)t , t ≥ 0) est une martingale. De
plus la martingale arrêtée

(X(n + 1)2 − A(n + 1))Tn = X(n)2 − A(n + 1)Tn

est une martingale et A(n + 1)Tn est un processus croissant nul en 0. L’unicité montrée en
(1) permet de déduire que A(n + 1)Tn = A(n)Tn p.s. Ceci permet de définir sans ambiguı̈té
un processus croissant M, M t = A(n)t pour tout t ≤ Tn . L’unicité vient de l’unicité sur
tout intervalle [0, Tn ].
Fixons t > 0, ε > 0 et δ > 0. La suite de temps d’arrêt (Tn ) tend vers +∞, donc pour n
assez grand S = Tn est tel que P (S ≤ t) < δ et la martingale M S est bornée. La première
partie montre que lorsque le pas de la subdivision |Δ| tend vers 0, TtΔ (M S ) converge vers
M S , M S t en probabilité. Puisque TsΔ (M S ) = TsΔ (M ) et M S , M S s = M, M s pour
s ∈ [0, S], on en déduit que pour |Δ| assez petit

Δ Δ
P sup |Ts (M ) − M, M s | ≥ ε ≤ δ + P sup |Ts (M ) − M , M s | ≥ ε ≤ 2δ.
S S S
s≤t s≤t

(5) Supposons enfin que M est une martingale est de carré intégrable. D’après l’inégalité
de Doob,
E( sup |Ms |2 ) ≤ 2E(|Mt |2 ).
0≤s≤t

D’autre part, soit (Tn ) une suite de temps d’arrêt qui croı̂t p.s. vers +∞ et telle que pour tout
n le processus Xn = M Tn est une martingale continue bornée. Pour tout t, E(M, M t∧Tn ) =

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


1.2 Variation quadratique - Crochet d’une martingale locale 11

E(|Mt∧Tn |2 ) et la suite (Mt∧Tn , n ≥ 0) est une (Ft∧Tn , n ≥ 0) martingale bornée dans L2 qui
converge dans L2 vers Mt2 . De plus, le théorème de convergence monotone montre que

E(M, M t ) = lim E(M, M t∧Tn ) = lim E(|Mt∧Tn |2 ).


n n

Enfin la martingale discrète (Mt∧Tn , n ≥ 1) est fermée par Mt ∈ L2 et converge dans L2 vers
Mt puisque ∨n Ft∧Tn = Ft ; on a donc E(M, M t ) = E(Mt2 ) < +∞. L’inégalité de Doob
montre alors que pour tout s ≤ t,

Ms2 − M, M s ≤ sup Mr2 + M, M r ∈ L1 .


r≤t

L’exercice 1.4 (ii) montre que cette martingale locale continue uniformément intégrable est
une martingale. Il suffit d’appliquer le Théorème d’arrêt 1.7 pour conclure la démonstration.
2
Le crochet de deux martingales locales continues M et N est défini par polarisation.
Théorème 1.20 Soit M et N des (Ft )-martingales locales continues. Il existe un unique
processus continu, adapté, à variation finie M, N  nul en 0 tel que (Mt Nt − M, N t , t ≥ 0)
soit une martingale locale continue. De plus pour toute suite Δn de subdivisions de [0, t] dont
le pas tend vers 0, la suite
 
 
 
sup  (Mti+1 ∧s − Mti ∧s )(Nti+1 ∧s − Nti ∧s ) − M, N s  converge vers 0 en probabilité.
s≤t  
ti ∈Δn

Démonstration. L’unicité découle de la proposition 1.15. Pour l’existence, il suffit de vérifier


que
1 
M, N  = M + N , M + N  − M − N , M − N  .
4
a les propriétés annoncées. C’est la différence de deux processus croissants et c’est donc un
processus à variation finie. 2

Définition 1.21 On dit que le processus M, N  est le crochet de M et N et que le processus
M, M  aussi noté M  est le processus croissant associé à M .

Définition 1.22 Un processus X est une semi-martingale continue s’il admet la décompo-
sition Xt = X0 + Mt + At pour tout t, où (Mt ) est une (Ft )-martingale locale continue, (At )
est un processus continu à variation finie, M0 = A0 = 0.

On déduit aisément la
Proposition 1.23 La variation quadratique d’une semi-martingale continue X = X0 +M +
A est finie et égale M, M . La décomposition de X est unique (à indistinguabilité près).
On note donc X, X = M, M  et on dit que ce processus croissant est le crochet de X. De
même, si X = X0 + M + A et Y = Y0 + N + B sont des semi-martingales continues (avec
les martingales locales continues M, N et les processus à variation finie A et B) on définit
le crochet de X et Y comme
1 
X, Y  = M, N  = X + Y , X + Y  − X − Y , X − Y  .
4

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


12 1 Processus d’Itô de dimension quelconque

Démonstration. Soit X = X0 + M + A une semi-martingale continue. Si X admet une


autre décomposition X = X̄0 + M̄ + Ā où Ā est un processus à variation finie, M̄ est une
martingale locale continue, M̄0 = Ā0 = 0, on a X̄0 = X0 , le processus M − M̄ = Ā − A est
une martingale locale continue à variation finie, est est donc nulle p.s. d’après la Proposition
1.15.
Soit Δ une subdivision de [0, t]. D’après la Proposition 1.17 le processus A est à variation
quadratique nulle et pour prouver que la variation quadratique de X est celle de M , il suffit
de vérifier que
 

 
 
 (Mti+1 − Mti )(Ati+1 − Ati ) ≤ sup |Mti+1 − Mti | V ar[0,t] (A).
  i
i

Puisque les trajectoires de M sont p. s. continues (donc uniformément continues sur [0, t])
et que V ar[0,t] (A) < +∞ on déduit que p.s., le majorant tend vers 0 quand |Δ| → 0. 2

1.3 Processus d’Itô réel.

Définition 1.24 Soit (Bt ) un mouvement Brownien, (FtB ) sa filtration naturelle, x ∈ R,


b ∈ H1loc (FtB ) et σ ∈ H2loc (FtB ). Le processus X défini par
 t  t
Xt = x + σs dBs + bs ds (1.5)
0 0

est un processus d’Itô ; il est à trajectoires continues. Le processus b est sa dérive, le processus
σ est le coefficient de diffusion et x est la condition initiale. L’équation (1.5) est souvent
également notée 
dXt = bt dt + σt dBt ,
(1.6)
X0 = x.
t
Le Théorème 1.13 montre que Mt = 0 σs dBs est une (FtB )-martingale locale continue.
t t
Un processus d’Itô Xt = x + 0 σs dBs + 0 bs ds est donc une semi-martingale locale conti-
t
nue. On dit que t → 0 σs dBs est sa partie martingale (même si c’est seulement une
t
martingale locale) et que t → x + 0 bs ds est sa partie à variation finie . La partie mar-
tingalede X est une vraie (FtB )-martingale si le coefficient de diffusion σ est cadlag tel
t
que E 0 σs2 ds < +∞ pour tout t > 0, ou plus généralement si σ ∈ H2 (FtB ). C’est une
martingale bornée dans L2 si σ ∈ H2∞ (Ft2 ).
Les résultats de la section précédente donnent donc immédiatement quelques propriétés
importantes des processus d’Itô.
t t
Corollaire 1.25 (i) Le crochet d’un processus d’Itô Xt = x + 0 σs dBs + 0 bs ds est défini
t
par X, Xt = 0 σs2 ds pour tout t ≥ 0.
t
(ii) Plus généralement, le crochet croisé de deux processus d’Itô Xt = x + 0 σs dBs +
t t t
bs ds et Yt = y + 0 σ̄s dBs + 0 b̄s ds est celui de leurs parties martingales, soit X, Y t =
t
0
σ σ̄ ds.
0 s s t t t t
(iii) Soit (Xt = x + 0 σs dBs + 0 bs ds = x̃ + 0 σ̃s dBs + 0 b̃s ds, t ≥ 0) un processus
d’Itô, où b, b̃ ∈ H1loc (FtB ), σ, σ̃ ∈ H2loc (FtB ), x, x̃ ∈ R. Alors, x = x̃, b = b̃ ds ⊗ dP p.p. et
σ = σ̃ ds ⊗ dP p.p., c’est à dire que la décomposition de X est unique.

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


1.4 Processus d’Itô de dimension d - Formule d’Itô générale 13

(iv) Soit (Xt ) un processus d’Itô qui est une (FtB )-martingale locale. Alors sa dérive b
est nulle ds ⊗ dP p.p.

Démonstration. (i) et (ii) sont des conséquences immédiates de la Proposition 1.17, du


Théorème 1.18 et de la polarisation.
t t
(iii) La différence Dt = 0 (b̃s − bs )ds = 0 (σs − σ̃s )dBs est dont un processus à variation
bornée sur [0, T ] (à cause de l’intégrale déterministe) et une martingale locale continue (à
cause de l’intégrale stochastique et du Théorème 1.13). La Proposition 1.17 montre que la
variation quadratique
t de l’intégrale stochastique de σ − σ̃ est nulle p.s. sur tout intervalle
2
[0, t], soit 0 |σs − σ̃s | ds = 0, et σ = σ̃ ds ⊗ dP p.p. sur [0, t] × Ω. On en déduit que
t
(b − b̃s )ds = 0 pour tout t, ce qui termine la démonstration puisque X0 = x = x̃.
0 s t t t
(iv) Le processus d’Itô Xt = x + 0 σs dBs + 0 bs ds est continu. Puisque t → x + 0 σs dBs
t
est une (FtB )-martingale locale continue, par différence le processus t → 0 bs ds est une
martingale locale continue et est à variation finie sur tout intervalle [0, t]. Il est donc constant
(et égal à 0) p.s. d’après la Proposition 1.15 2

1.4 Processus d’Itô de dimension d - Formule d’Itô générale

1.4.1 Processus d’Itô de dimension d


Nous étendons tout d’abord la définition du mouvement Brownien réel au cas d’un
processus de dimension quelconque.
 
Définition 1.26 Soit Bt = (Bt1 , Bt2 , . . . , Btr ), t ≥ 0 un processus r-dimensionnel et (Ft )
une filtration. On dit que B est un (Ft )-Brownien standard r-dimensionnel si les processus
(B i ), 1 ≤ i ≤ r sont des (Ft )-Browniens réels indépendants, c’est à dire : B0 = 0 et pour
0≤s≤t
(i) Bt − Bs suit une loi normale N (0, (t − s)Idr ).
(ii) l’accroissement Bt − Bs est indépendant de la tribu Fs .
Quand la filtration n’est pas précisée, on dit que B est un Brownien standard d-dimensionnel
si c’est un mouvement Brownien pour sa filtration naturelle (FtB ). Si B est un Brownien
standard pour la filtration (Ft ), c’est aussi un Brownien standard pour sa filtration naturelle
(FtB ). Le Brownien est un processus gaussien à accroissements indépendants.

Nous commettrons l’abus de notation consistant à identifier un vecteur (x1 , · · · , xr ) ∈ Rr et


la matrice colonne de ses composantes dans la base canonique. Nous noterons donc
⎛ ⎞
Bt1
⎜ ⎟
Bt = ⎝ ... ⎠ .
Btr

Nous généralisons de même la notion de processus d’Itô. Notons M(d, r) l’ensemble des
matrices d × r à d lignes et r colonnes. On dit qu’un processus X = (Xji (t) : 1 ≤ i ≤ d, 1 ≤
j ≤ r, t ≥ 0) à valeurs dans M(d, k) appartient à H1loc (Ft ) (resp. H2loc (Ft ), H22 (Ft ), H2∞ (Ft ))
si chaque composante Xki est un processus réel qui appartient à H1loc (Ft ) (resp. H2loc (Ft ),
H22 (Ft ), H2∞ (Ft )).

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


14 1 Processus d’Itô de dimension quelconque

Définition 1.27 Soit B un (Ft )-Brownien standard de dimension r, σ = (σki : 1 ≤ i ≤


d, 1 ≤ k ≤ r) : Ω × [0, +∞[→ M(d, r) ∈ H2loc , b = (b1 , · · · , bd ) : Ω × [0, +∞[→ Rd ∈ H1loc ,
et x = (x1 , · · · , xd ) ∈ Rd . Le processus (Xt ) à valeurs dans Rd est un processus d’Itô de
condition initiale x, de coefficient de diffusion σ et de coefficient de dérive b si pour tout
i = 1, · · · , d,
r  t  t
i i i k
Xt = x + σk (s)dBs + bi (s)ds. (1.7)
k=1 0 0

En notation matricielle, si on commet l’abus de notation qui consiste à identifier un vecteur


x = (x1 , · · · , xd ) de Rd et la matrice colonne de ses coefficients dans la base canonique,
l’équation (1.7) peut s’écrire
 t  t
Xt = x + σ(s)dBs + b(s)ds,
0 0

où on note
⎛ ⎞ ⎞ ⎛ ⎛ ⎞ ⎞

Xt1 x1 σ11 (s) · · · σr1 (s) b1 (s)
⎜ ⎟ ⎜ ⎟ ⎜ .. ⎟ , ⎜ ⎟
Xt = ⎝ ... ⎠ , x = ⎝ ... ⎠ , σ(s) = ⎝ ... ..
. . ⎠ b(s) = ⎝ ... ⎠ .
Xtd xd σ1 (d) · · · σr (s)
d d
bd (s)

Considérons les processus d’Itô unidimensionnels


r 
t  t
r  t
ξt = x + σk (s)dBsk + b(s)ds et ξ¯t = x̄ + σ̄j (s)dBsk + b̄(s)ds,
k=1 0 0 k=1 0

t
pour b, b̄ ∈ H1loc et σk , σ̄k ∈ H2loc . Alors le processus 0 b(s)ds est continu à variation finie,
 t
tandis que le processus rk=1 0 σk (s)dBsk est une martingale locale continue comme somme
de martingales locales continues. Les processus ξ et ξ¯ sont donc des semi-martingales. Pour
trouver leurs
 crochets, on remarque tout d’abord
2 
que pour chaque indice k = 1, · · · , r, le
 t  t
processus  0 σk (s)dBsk  − 0 |σk (s)|2 ds , t ≥ 0 est une (Ft )-martingale locale.
Soit k = l ; supposons d’abord que les processus σk et σl sont étagés, c’est à dire


n−1
n
σk = ξki 1]ti ,ti+1 ] et σl = ξli 1]ti ,ti+1 ] , t0 = 0 < t1 < · · · et ξki , ξlj Fti -mesurables.
i=0 i=1

Soit s < t ; sans perte de généralité, on peut supposer que les instants s et t sont ajoutés à
la liste des ti , avec s = tI et t = tn . Alors,
 t  t 

n−1
n−1   
 
E σk (u)dBuk σl (u)dBul Fs = E ξki ξlj [Btki+1 − Btki ][Btlj+1 − Btlj ]Fs
0 0 i=0 j=0
 s  s
= σk (u)dBuk σl (u)dBul .
0 0

En effet l’indépendance de Fti , Btki+1 − Btki et Btli+1 − Btli , entraı̂ne par exemple que :
si i < I ≤ j, ξki (Btkj+1 − Btkj )E(ξlj E(Btlj+1 − Btlj |Ftj )|FtI ) = 0,

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


1.4 Processus d’Itô de dimension d - Formule d’Itô générale 15


si I ≤ i < j, E(ξki (Btki+1 − Btki )ξlj E(Btlj+1 − Btlj |Ftj )FtI ) = 0,
si I ≤ i = j, puisque E[(Btki+1 − Btki )(Btli+1 − Btli )|Fti ) = E[(Btki+1 − Btki )(Btli+1 − Btli )] = 0,

on en déduit E(ξki ξli E[(Btki+1 − Btki )(Btli+1 − Btli )|Fti )FtI ) = 0.
Cette propriété s’étend ensuite à des processus σk et σl de H22 (Ft ) pour lesquels on déduit
que
r  t
 2 r  t 
 k 2
 σk (s)dB s − |σk (s)| ds , t ≥ 0
k=1 0 k=1 0

est une (Ft )-martingale. Par localisation, on montre enfin que ce processus est une (Ft )-
martingale locale si on sait seulement que les processus σk , 1 ≤ k ≤ r appartiennent à
H2loc (Ft ).
Le crochet
r des t processus ξ et ξ¯ estdonc celui de leurs parties martingales
t
mt = k=1 0 σk (s)dBsk , et m̄t = rk=1 0 σ̄k (s)dBsk soit
 t
r
¯ t = m, m̄t =
ξ , ξ σk (s)σ̄k (s)ds.
0 k=1

Le crochet de la martingale locale m est égal à celui de ξ, soit


 t r  t
2
ξ , ξt = m, mt = |σk (s)| ds = σ(s)2 ds,
0 k=1 0

où σ(s) désigne la norme euclidienne dans Rr du vecteur (σ1 (s), · · · , σr (s)).
1.4.2 Formule d’Itô générale
Les résultats de la section précédente sont résumés dans la

Proposition 1.28 Soit (Bt ) un (Ft )-Brownien standard à valeurs dans Rr , (Xt ) un pro-
cessus d’Itô à valeurs dans Rd de la  t forme (1.7). Alors X est à trajectoires continues. Pour
chaque i = 1, · · · , d, le processus ( 0 bi (s)ds, t ≥ 0) est continu à variation finie (c’est à dire
t
que chacune de ses composantes est à variation finie), nul en 0. Le processus 0 σ(s)dBs est
une martingale locale continue (c’est à dire que chacune de ses composantes est une mar-
tingale locale continue) nulle en 0. La décomposition est unique. Le crochet des composantes
X i et X j , 1 ≤ i, j ≤ d est
 t r
X , X t =
i j
σki (s)σkj (s)ds.
0 k=1

La formule d’Itô, montrée pour un processus d’Itô réel dans le cours de Calcul Stochas-
tique 1, se généralise immédiatement à des processus d’Itô multidimensionnels. Rappelons
la tout d’abord en dimension 1 sous sa forme la plus simple.
t t
Théorème 1.29 Soit Xt = x+ 0 σ(s)dBs + 0 b(s)ds, où x ∈ R, (Bt ) est un (Ft )-Brownien,
b ∈ H1loc , σ ∈ H2loc . Soit f : R → R une fonction de classe C 2 . Alors pour tout t ≥ 0,
 t
1
f (Xt ) = f (x) + f (Xs )dXs + f (Xs )dX, Xs (1.8)
0 2
 t  t 
1 2
= f (x) + f (Xs )σ(s)dBs + f (Xs )b(Xs ) + f (Xs )σ (s) ds.
0 0 2

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


16 1 Processus d’Itô de dimension quelconque

On peut donc formellement poser


 t
1
df (Xt ) = f (Xt )dXt + f (Xt )dX, Xt où X, Xt = σ 2 (s)ds.
2 0
La formule d’Itô admet la version suivante en dimension quelconque, dont la démons-
tration similaire à celle en dimension 1, est omise. Notons A∗ la transposée de la matrice
A.
Théorème 1.30 Soit B un (Ft )-Brownien standard de dimension r, σ un processus à va-
leurs dans M(d, r) qui appartient à H2loc (Ft ), b un processus  à valeurs dans Rd qui appartient
t t
à H1loc (Ft ) et x ∈ Rd . Notons Xt = x + 0 σ(s)dBs + 0 bs ds le processus d’Itô défini par
les équations (1.7) pour tout i = 1, · · · , d et soit f : Rd → R une fonction  de classe C 2 .
Alors si on note a(s) = σ(s)σ(s)∗ la matrice d × d définie par ai,j (s) = rk=1 σki (s)σkj (s)
pour i, j ∈ {1, · · · , d}, on a :
 t 
1 t ∂2f
d d
∂f
f (Xt ) = f (x) + (Xs )dXs +i
(Xs )dX i , X j s ds (1.9)
0 i=1 ∂x i 2 0 i,j=1 ∂x i ∂x j

 t k d  t d
∂f i j ∂f
= f (x) + (Xs )σj dBs + (Xs )bi (s)ds
0 j=1 i=1 ∂x i 0 i=1 ∂x i


1 t ∂ 2f
d
+ (Xs )ai,j (s)ds. (1.10)
2 0 i,j=1 ∂xi ∂xj
 2 
∂2f
Notons ∂x2 la matrice carrée symétrique ∂xi ∂xj , 1 ≤ i, j ≤ d , (, ) le produit scalaire
∂ f

dans Rd et ∂f∂x
la matrice colonne dont les composantes sont les dérivées partielles ∂f
∂xi
. On
peut alors écrire formellement la formule d’Itô

∂f 1 ∗ ∂ 2f
df (Xt ) = (Xt ), dXt + T race σ(t)σ (t) 2 (Xt ) dt.
∂x 2 ∂x
Si la fonction f dépend aussi du temps, on a la seconde version de la formule d’Itô.
Théorème 1.31 Soit B un (Ft )-Brownien standard de dimension r, σ un processus à va-
leurs dans M(d, r) qui appartient à H2loc (F  t ), b un processus
 à valeurs dans Rd qui appartient
t t
à H1loc (Ft ) et x ∈ Rd . Notons Xt = x + 0 σ(s)dBs + 0 bs ds le processus d’Itô défini par les
équations (1.7) pour tout i = 1, · · · , d et soit f : [0, +∞[×Rd → R une fonction de classe
C 1,2 , c’est à dire de classe C 1 par rapport à la première variable t et de classe C 2 par rapport
à la seconde variable x. Alors si a(s) = σ(s)σ(s)∗ , on a :
 t  t d
∂f ∂f
f (t, Xt ) = f (0, x) + (s, Xs )ds + (s, Xs )dXsi
0 ∂t 0 i=1 ∂x i
 t d
1 ∂ 2f
+ (s, Xs )dX i , X j s ds (1.11)
2 0 i,j=1 ∂xi ∂xj
 t r d
∂f
= f (0, x) + (s, Xs )σki (s)dBsk
0 k=1 i=1 ∂x i
 t !
∂f d
∂f 1 d
∂ 2
f
+ (s, Xs ) + (s, Xs )bi (s) + (s, Xs )ai,j (s) ds.
0 ∂t i=1
∂x i 2 i,j=1
∂x i ∂x j

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


1.5 Propriétés du Brownien. 17

De nouveau, l’équation (1.11) peut s’écrire de façon compacte sous la forme



∂f ∂f 1 ∗ ∂ 2f
df (t, Xt ) = (t, Xt )dt + (t, Xt ), dXt + T race σ(t)σ (t) 2 (t, Xt ) dt.
∂t ∂x 2 ∂x

Un cas particulier très simple de cette formule est le résultat suivant qui est une formule
d’intégration par parties . On la montrera comme exercice.
Si f : [0, +∞[→ R est de classe C 1 et (Bt ) est un Brownien standard unidimensionnel,
 t  t
f (s)dBs = f (t)Bt − Bs f (s)ds.
0 0

La formule d’Itô permet de montrer que si B est un Brownien standardunidimensionnel 


T
et si X est un processus (FtB )-adapté, p ∈ [1 + ∞[ et T > 0 sont tels que E 0 |Xs |2p ds <
+∞, alors  2p   T

 T 
E  Xs Bs  ≤ [p(2p − 1)] T
p p−1
E 2p
|Xs | ds (1.12)
0 0

On pourra montrer cette inégalité très utile dans l’exercice 1.8. Le résultat suivant renforce
la conclusion. L’une des inégalités est montrée dans l’exercice 1.8.

Théorème 1.32 (Théorème de Burkholder-Davies-Gundy) Pour tout p ∈ [1, +∞[ il existe


des constantes universelles kp > 0 et Kp > 0 (qui ne dépendent que de p) telles que toute
(Ft )- martingale continue M de carré intégrable et pour tout T > 0,

2p
kp E (M T ) ≤ E sup |Ms |
p
≤ Kp E (M pT ) . (1.13)
0≤s≤T

1.5 Propriétés du Brownien.

1.5.1 Caractérisations de Lévy


Remarquons que si B est un Brownien standard d-dimensionnel, pour tout i, j = 1, · · · , d
les processus (Bti , t ≥ 0) et (Bti Btj − δi,j t , t ≥ 0) sont des (FtB )-martingales (avec δi,j = 0
pour i = j et δi,i = 1). La démonstration est faite dans l’exercice 1.7 Nous allons montrer
que ces propriétés caractérisent le Brownien, ce qui sera fondamental pour traiter des chan-
gements de probabilité. Notons (u, v) le produit scalaire des vecteurs u, v ∈ Rd et u la
norme euclidienne de u,

Théorème 1.33 (Caractérisation de Paul Lévy) Soit X = (Xt = (Xt1 , · · · , Xtd ), t ≥ 0) un


processus (Ft )-adapté à valeurs dans Rd .
(i) On suppose pour tout u ∈ Rd , les processus X et t → exp [(u, Xt ) − u2 t/2] sont des
(Ft )-martingales. Alors, X est un (Ft )-Brownien standard de dimension d.
(ii) On suppose que le processus défini pour j = 1, · · · , d par Mtj = Xtj − X0j est une
(Ft )-martingale locale continue nulle en 0 (M0i = 0 pour tout i) et que les crochets de M i
et M j sont
M i M j t = δi,j t. (1.14)
Alors M est un (Ft )-Brownien standard de dimension d.

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


18 1 Processus d’Itô de dimension quelconque

Démonstration. (i) Il faut montrer que pour 0 ≤ s < t, le vecteur aléatoire Xt − Xs suit
une loi N (0, (t − s)Id) et est indépendant de Fs .
Soit Z un vecteur gaussien de loi N (0, (t − s)Id). Puisque la fonction caractéristique
caractérise la loi, il suffit de vérifier que pour tout u ∈ Rd
    u2 (t−s)
i(u,Xt −Xs )
E e |Fs = E ei(u,Z)
= e− 2 . (1.15)

En effet, supposons que (1.15) est vraie et notons Φ(x) = ei(u,x) ; pour tout A ∈ Fs
on a E[1A Φ(Xt − Xs )] = P (A)E[Φ(Z)]. On en déduit que pour toute fonction borélienne
bornée f : Rd → R et tout A ∈ Fs , on a E 1A f (Xt − Xs ) = P (A)E[f (Z)]. Ceci prouve
l’indépendance de Xt − Xs de la tribu Fs et montre également que la loi de Xt − Xs est
égale à celle de Z.
Pour prouver (1.15), fixons tout d’abord v ∈ Rd . Par hypothèse, si 0 ≤ s < t,



    v2 t v2 t 
E exp (Xt − Xs , v) | Fs = exp −(Xs , v) + E exp (Xt , v) −  Fs
2 2

v2 (t − s)
= exp .
2
Un argument de récurrence finie (reposant sur le caractère analytique des deux membres de
(1.15) comme fonction de l’une de variables vk ∈ C, les autres composantes de v étant fixées
dans R ou C) montre que l’équation précédente s’étend du cas v ∈ Rd au cas v ∈ Cd . Cette
égalité appliquée au vecteur v dont les composantes sont vk = iuk montre (1.15).
(ii) Nous ne montrerons cette
 t caractérisation que dans le cas où (Xt ) est un processus
d’Itô, c’est à dire Xt = X0 + 0 H(s)dBs avec H ∈ H2loc . Le cas général nécessite une notion
d’intégrale stochastique plus générale que celle par rapport au Brownien présentée en Calcul
 t j j= 1,2· · · , d et t > 0, le crochet
j
Stochastique 1. Pourr tout rde X j à l’instant t est donné par
X , X t = t = k=1 0 |Hk (s)| ds, ce qui entraı̂ne que k=1 |Hk (s)|2 = 1 p.s. pour presque
j j
t
tout s. De plus, si j = l, pour tout t > 0, le crochet X j , X l t = 0 rk=1 Hkj (s)Hkl (s) ds = 0,

ce qui entraı̂ne que rk=1 Hkj (s)Hkl (s) = 0 p.s. pour presque tout s. On en déduit que H ∈ H22
et que (Xt , 0 ≤ t ≤ T ) est une martingale. De plus, les égalités précédentes montrent que
les vecteurs (H j (s), 1 ≤ j ≤ d) forment une famille orthonormée  (donc libre) de R , ce
r

qui entraı̂ne d ≤ r. Pour tout A ∈ Fs et λ ∈ Rd , soit f (t) = E 1A exp [i(λ, Mt − Ms )] .
 2 
D’après la partie (i), il suffit de montrer que f (t) = P (A) exp − λ2 (t − s) . En appliquant
la formule d’Itô séparément
  à la partie réelle et à la partie imaginaire de la fonction x =
1 d
(x , · · · x ) → exp i j=1 λ x , on déduit que pour s < t,
d j j


d
r  t
i(λ,Mt ) i(λ,Ms )
e = e +i λ j
ei(λ,Mu ) Hkj (u)dBuk
j=1 k=1 s


d
r  t
λj λl
− ei(λ,Mu ) Hkj (s)Hkl (u)du,
j,l=1 k=1
2 s

ce qui entraı̂ne

d
r 
d 
i(λ,Mt −Ms )
t
i(λ,Mu −Ms ) |λj |2 t
e =1+i λ j
e Hkj (u)dBuk − ei(λ,Mu −Ms ) du.
j=1 k=1 s j=1
2 s

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


1.5 Propriétés du Brownien. 19

t
Les intégrales stochastiques ( s ei(λ,Mu −Ms ) Hkj (u)dBuk , t ≥ s) sont des martingales pour tout
j = 1, · · · , d et k = 1, · · · , r, et sont indépendantes de Fs . En utilisant le théorème de Fubini,
on en déduit
 t

λ2 i(λ,Mu −Ms ) λ2 t
f (t) = P (A) − E 1A e du = P (A) − f (u)du.
2 s 2 s
2
Puisque f (t) = − λ
2
f (t) pour t ≥ s et que f (s) = P (A), nous avons établi que pour tout
2
t ≥ s, f (t) = P (A) exp(− λ2 (t − s)). 2

1.5.2 Propriétés de Markov


Une propriété fondamentale du Brownien est la propriété de Markov, qui traduit le fait
que ce qui se passe après l’instant t (c’est à dire dans le futur à l’instant t) ne dépend pas
de toute la tribu Ft des évènements du passé , mais seulement de l’état Bt à l’instant t.
Décrivons tout d’abord le passage d’un instant s à un instant t ≥ s.
Définition 1.34 Une probabilité de transition sur Rd est une application Π : Rd × Rd →
[0, 1] telle que
(i) pour tout x ∈ Rd , l’application A ∈ Rd → Π(x, A) est une probabilité.
(ii) pour tout A ∈ Rd , x ∈ Rd → Π(x, A) est mesurable de (Rd , Rd ) dans ([0, 1], B([0, 1]).
Une fonction de transition sur Rd est une famille (Ps,t , 0 ≤ s < t) de probabilités de transi-
tion telle que si s < t < v l’équation de Chapman-Kolmogorov soit satisfaite :

Ps,t (x, dy)Pt,v (y, A) = Ps,v (x, A) , ∀A ∈ Rd , ∀x ∈ Rd . (1.16)

Pour toute fonction f : Rd → R borélienne positive (ou bornée) on note



Ps,t f (x) = f (y) Ps,t (x, dy).
Rd
Si la fonction de transition Ps,t ne dépend que de t − s, on dit qu’elle homogène et dans ce
cas, si on note Pt = P0,t , l’équation (1.16) s’écrit

Ps+t (x, A) = Ps (x, dy)Pt (y, A).
 
Pour toute fonction f : Rd → R borélienne positive (ou bornée), on a Ps+t f (x) = Pt Ps f (x)
et on dit que (Pt ) est un semi-groupe.
L’équation (1.16) est naturelle. En effet, si X est un processus et (x, A) ∈ Rd × Rd →
Ps,t (x, A) est une probabilité de transition tels que pour tout A ∈ Rd et s < t,

P (Xt ∈ A|σ(Xu , u ≤ s)) = Ps,t (Xs , A) = 1A (y) Ps,t (x, dy) p.s.,

on en déduit E(f (Xt )|σ(Xu , u ≤ s)) = Rd f (y)Ps,t (Xs , dy) pour toute fonction borélienne
f : Rd → R positive (ou bornée). Pour s < t < v, A ∈ Rd et f (y) = Pt,v (y, A), on en déduit
Ps,v (Xs , A) = P (Xv ∈ A|σ(Xu , u ≤ s))
 
= E P (Xv ∈ A|σ(Xu , u ≤ t) | σ(Xu , u ≤ s)

 
= E f (Xt )|σ(Xu , u ≤ s) = Ps,t (Xs , dy)Pt,v (y, A).

Ces notions permettent de formuler précisément la propriété de Markov faible .

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


20 1 Processus d’Itô de dimension quelconque

Définition 1.35 (1) Un processus (Xt , t ≥ 0) à valeurs dans Rd et adapté à la filtration


(Ft ) est un processus de Markov pour cette filtration si pour toute fonction borélienne bornée
f : Rd → R,  
E f (Xt ) | Fs ) = E f (Xt ) | Xs ) pour tout s ≤ t. (1.17)
(2) Un processus (Xt , t ≥ 0) à valeurs dans Rd et adapté à la filtration (Ft ) est un processus
de Markov pour cette filtration de fonction de transition Ps,t si pour toute fonction borélienne
bornée f : Rd → R,

 
E f (Xt ) | Fs = Ps,t f (Xs ) := Ps,t (Xs , dy)f (y). (1.18)
Rd

On dit que le processus de Markov est homogène si sa fonction de transition est homogène.

Nous allons montrer que le mouvement Brownien est un processus de Markov homogène
de semi-groupe de transition Ph défini pour s ≥ 0, h > 0, x ∈ Rd et A ∈ Rd par :


1 y − x2
Ph (x, A) = P (Bs+h ∈ A|Bs = x) = d exp − dy,
(2πh) 2 A 2h

c’est à dire que Ph (x, dy) est la loi d’un vecteur gaussien N (x, hId).

Théorème 1.36 (Propriété de Markov simple) Soit (Bt ) un mouvement Brownien standard
d-dimensionnel et f : Rd → R une fonction borélienne bornée. Alors pour tout s ≤ t,


1 y − Bs 2
E[f (Bt ) | Fs ] = E[f (Bt ) | Bs ] =
B
f (y) exp − dy.
d
(2π(t − s)) 2 Rd 2(t − s)

Démonstration. La démonstration repose sur le lemme suivant :

Lemme 1.37 Soit F une tribu et G une sous-tribu de F, X : (Ω, G) → (E1 , E1 ) une
application G-mesurable et Y : (Ω, F) → (E2 , E2 ) une application F-mesurable indépendante
de G. Alors, pour toute fonction Φ : (E1 × E2 , E1 ⊗ E2 ) → (R, R) bornée,

E(Φ(X, Y )|G) = ϕ(X), où ϕ : (E1 , E1 ) → (R, R) est définie par ϕ(x) = E[Φ(x, Y )].

Démonstration du Lemme Pour toute application mesurable V : (Ω, F) → (E, E),


notons P(V ) la mesure image de  P par V . D’après la définition de P(Y ) et le Théorème de
Fubini, ϕ est telle que ϕ(x) = E2 Φ(x, y)dP(Y ) (y) et est bornée, mesurable de (E1 , E1 ) dans
(R, R). De plus, si Z : (Ω, G) → (R, R) est G-mesurable bornée, l’indépendance de Y et
(X, Z) et le théorème de Fubini entraı̂nent
 
 
E Φ(X, Y )Z = Φ(x, y) z dP(X,Z) (x, z) dP(Y ) (y)
 

= Φ(x, y)dP(Y ) (dy) z dP(X,Z) (x, z)



 
= ϕ(x) zdP(X,Z) (x, z) = E ϕ(X)Z ,

ce qui termine la démonstration. 2

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


1.5 Propriétés du Brownien. 21

Soit s < t ; appliquons le lemme précédent avec E1 = E2 = Rd , G = Fs , F = Ft , X = Bs


etY = Bt − Bs . Nous en déduisons que pour toute fonction borélienne bornée f : Rd → R,
E f (Bt )|Fs = ϕ(Bs ) où ϕ(x) = E f (x + Bt − Bs ) . Un calcul similaire avec G = σ(Bs ) et
F = Ft pour les mêmes variables aléatoires X = Bs et Y = Bt − Bs permet de conclure
E f (Bt )|Bs = ϕ(Bs ). La loi de Bt − Bs étant gaussienne N (0, (t − s)Id), ceci termine la
démonstration. 2
Corollaire 1.38 Soit τ un (Ft )-temps d’arrêt fini presque sûrement et B un (Ft )-Brownien
standard de dimension d. Alors le processus (Mt = Bτ +t − Bτ , t ≥ 0) est un (Fτ +t , t ≥ 0)-
Brownien standard indépendant de Fτ .
Démonstration. Supposons tout d’abord que τ ≤ C p.s. et notons Gt = Fτ +t pour tout
t ≥ 0. Alors (Gt ) est une filtration et le Théorème d’arrêt 1.7 montre que si (Xt ) est une
(Ft )-martingale et si on note Yt = Xτ +t , Yt est intégrable et pour s < t, E(Yt |Gs ) =
E(Xτ +t |Fτ +s ) = Xτ +s = Ys , c’est à dire que (Yt ) est une (Gt )-martingale.
Il faut montrer que si 0 ≤ s < t, le vecteur aléatoire Mt − Ms suit une loi N (0, (t −
s)Id) et est indépendant de Gs . Un argument utilisé dans la démonstration du théorème
de caractérisation du Brownien de Paul Lévy montre qu’il suffit de vérifier que pour tout
u ∈ Rd l’équation (1.15) est satisfaite.
Fixons u ∈ Rd et notons f (x) = ei(u,x) pour tout x ∈ Rd . Alors |f | = 1 et en décomposant
f en partie réelle et partie imaginaire, la propriété de Markov et la définition du Brownien
montrent

(t − s)u2
E(exp(i(u, Bt )|Fs ) = E(exp(i(u, Bt )|Bs ) = exp(i(u, Bs )) exp − .
2

On en déduit que le processus Xt = exp i(u, Bt ) + tu2 /2) est une (Ft )-martingale, et
d’après la remarque précédente, que (Yt = Xτ +t , t ≥ 0) est une (Gt )-martingale. Pour tout
s ≤ t, on a donc 

Yt  E(Yt |Gs ) Ys
E Gs = = ,
Y0 Y0 Y0
 Yt 
ce qui prouve que Y0 = exp(i(u, Mt ) + tu2 /2), t ≥ 0 est une (Gt )-martingale. Donc pour
s ≤ t,
   

i(u,Mt −Ms )  i(u,Mt )+ 2 


tu2 tu2 (t−s)u2
E e Gs = E e Gs e−i(u,Ms )− 2 = e− 2 ,

ce qui termine la démonstration de (1.15) lorsque τ est borné p.s.


Soit τ un temps d’arrêt presque sûrement fini ; pour conclure, il suffit d’écrire (1.15) pour
la suite de temps d’arrêt τ ∧ n et de faire tendre n vers +∞. 2.
On en déduit une propriété similaire à la propriété de Markov simple (Théorème 1.36)
en remplaçant les temps fixes par des temps d’arrêt.
Théorème 1.39 (Propriété de Markov forte) Soit B un (Ft )-Brownien standard à valeurs
dans Rd et τ un (FtB )-temps d’arrêt fini presque sûrement ; alors pour tout t > 0,


1 y − Bτ 2
E[f (Bτ +t ) | Fτ ] = E[f (Bτ +t ) | Bτ ] = d f (y) exp − dy. (1.19)
(2πt) 2 Rd 2t
Démonstration. Le lemme 1.37 appliqué à X = Bτ , Y = Bτ +t − Bτ , G = Fτ (ou bien
G = σ(Xτ )), F = Ft+τ et le Corollaire 1.38 montrent que, puisque (Bτ +t − Bτ , t ≥ 0) est un
Brownien indépendant de Fτ , la propriété de Markov forte (1.19) est satisfaite. 2

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


22 1 Processus d’Itô de dimension quelconque

1.6 Exercices

Exercice 1.1 Montrer qu’une martingale locale M arrêtée est encore une martingale locale.

Exercice 1.2 Soit (Mt ) un processus cadlag (Ft )-adapté. Montrer que c’est une (Ft )-
martingale si et seulement si pour tout temps d’arrêt borné T , MT ∈ L1 et E(MT ) = E(M0 ).

Exercice 1.3 Soit (Xt , 0 ≤ t ≤ T ) une (Ft )-surmartingale, c’est à dire que si 0 ≤ s ≤ t ≤ T ,
Xs ≥ E(Xt |Fs ), telle que E(XT ) = E(X0 ). Montrer que (Xt ) est une martingale.

Exercice 1.4 Soit (Mt ) une (Ft )-martingale locale. Monter que
(i) Si Mt est positive, c’est une surmartingale.
(ii) S’il existe Y ∈ L1 telle que |Mt | ≤ Y p.s., alors (Mt ) est une martingale.

Exercice 1.5 Soit B un mouvement Brownien réel et (FtB ) sa filtration naturelle. t


(i) Caractériser les valeurs de α ∈ R telles que le processus défini par It = 0 |Bs |α dBs
est une (FtB )-martingale. "
(ii) En admettant que, si on note ψ(t) = 2 ln(ln(1/t)) pour 0 < t < 1e , lim supt→0 ψ(t)Bt
=
+1 et lim inf t→0 ψ(t) = −1, caractériser les valeurs de α telles que le processus I précédent
Bt

est une (FtB )-martingale locale.


t t t
Exercice 1.6 Soit B un (Ft )-Brownien, Xt = x+ 0 σs dBs + 0 bs ds et X̄t = x̄+ 0 σ̄(s)dBs +
t
b̄ ds des processus d’Itô. Récrire Xt Yt comme une semi-martingale.
0 s

Exercice 1.7 Soit (Bt1 , · · · , Btr ) un Brownien standard de dimension r.


1. Soit X et Y des variables aléatoires réelles, G une sous-tribu de F telle que les tribus
σ(X), σ(Y ) et G sont indépendantes. Montrer que E(XY |G) = E(X)E(Y ) p.s.

2. En déduire que pour s < t, lorsque i = j on a E(Bti Btj Fs ) = Bsi Bsj .
3. En déduire que B i , B j t = δi,j t.
4. Montrer que pour tout u = (u1 , · · · , ur ) ∈ Rr ,
  
(u,Bt )− 12 u 2 t  1 2
E e Fs = e(u,Bs )− 2 u s .
 
T
Exercice 1.8 Soit (Xt ) un processus (Ft )-adapté et T > 0 tel que E 0 |Xs |2p ds < +∞
pour p ∈ [1, +∞[.
t
1. En appliquant la formule d’Itô à Mt = 0 Xs dBs , montrer qu’il existe une suite crois-
sante (Tn ) de temps d’arrêt qui tendent vers +∞ tels que
 T

E(MT2p∧Tn ) = p(2p − 1)E 2(p−1)


|Mt∧Tn | 2
Xt∧Tn
dt .
0

2. La fonction t → E(|Mt∧Tn |2p ) est-elle monotone ? En déduire que


 T

2p p 2p
E(|MT | ) ≤ [p(2p − 1)] T p−1
E |Xs | ds .
0

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


1.6 Exercices 23

3. En appliquant l’inégalité de Doob, montrer qu’il existe une constante Kp que l’on
explicitera telle que

 T

2p 2p
E sup |Mt | ≤ Kp E |Xs | ds .
0≤s≤T 0

Exercice 1.9 Soit (Xt ) un processus (Ft )-adapté continu, positif tel que X0 = 0, (At ) un
processus croissant continu (Ft )-adapté tel que pour tout temps d’arrêt T , E(XT ) ≤ E(AT ).
Pour tout t ≥ 0, on note Vt = sup0≤s≤t Xs .
1. Montrer que pour tout temps d’arrêt T et tout  > 0, P (VT ≥ ) ≤ 1 E(AT ). (On
pourra utiliser τε = inf{t ≥ 0 : Xt ≥ ε} et Tn = T ∧ n ∧ τε .)
2. Montrer que pour tout temps d’arrêt T , et tout δ > 0,  > 0, si S = inf{t ≥ 0 : At ≥
δ}, P (VT ≥ , AT ≤ δ) ≤ P (VT ∧S ≥ ε) ≤ 1 E(δ ∧ AT ).
3. Soit F : [0, +∞[→ [0, ∞[ une fonction dérivable, strictement croissante telle que

F (0) = 0 et pour tout x > 0, u → F u(u) 1[x,+∞[ (u) ∈ L1 (λ), où λ désigne la mesure de
Lebesgue. Notons G :]0, +∞[→]0, +∞[ la fonction définie par
 +∞
F (u)
G(x) = 2F (x) + x du.
x u
 +∞ 
(a) Montrer que G (x) = F (x) + x F u(u) du.
(b) Montrer que
 +∞
E(F (VT )) = P (VT ≥ u)F (u)du
0 +∞ 

+∞
1  
≤ 2P (AT ≥ u)F (u)du + E AT 1{AT ≤u} F (u)du
0 0 u
≤ E(G(AT )).
2−p
En déduire que si p ∈]0, 1[, pour tout temps d’arrêt T , E(VTp ) ≤ 1−p
E(ApT ).

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


24 2 ´
Equations différentielles stochastiques

´
2 Equations différentielles stochastiques

Ces processus, qui généralisent les équations différentielles ordinaires, sont fondamentaux
en finance. Ils modélisent le prix d’actifs financiers.
Rappelons qu’une équation différentielle ordinaire (EDO) sur [0, +∞[×R est du type

yt = f (t, yt ) et y0 = y, (2.1)

où y : [0, +∞[→ R est la fonction inconnue et f : [0, +∞[×R → R est une fonction
donnée. L’étude mathématique des équations différentielles ordinaires est d’une importance
considérable pour les applications notamment en physique. En général, il est impossible de
donner une solution explicite à une EDO. On peut cependant chercher à savoir s’il existe
une solution et si elle est unique. Un critère est le :

Théorème 2.1 (Théorème de Cauchy-Lipschitz) Supposons qu’il existe une constante K >
0 telle que pour tout t ∈ [0, +∞[, x, y ∈ R :

|f (t, x) − f (t, y)| ≤ K|x − y| (condition de Lipschitz globale),
|f (t, x)| ≤ K(1 + |x|) (condition de croissance linéaire).

Alors l’EDO (2.1) a une solution unique définie sur [0, +∞[.

La condition de Lipschitz globale est assez naturelle pour que la solution soit définie sur
tout [0, +∞[. Si on considère par exemple y0 = 1 et f (t, y) = y 2 , alors on voit facilement que
l’unique solution de l’équation (2.1) correspondante est yt = 1/(1 − t), et que cette solution
explose en t = 1.

Une équation différentielle stochastique (EDS) est une perturbation de (2.1) avec un
terme aléatoire modélisant un bruit autour du phénomène déterministe décrit par (2.1).
La perturbation la plus simple est l’ajout d’un Brownien. Ceci modélise le fait que sur des
intervalles de temps disjoints, les perturbations sont la somme de très nombreuses petites
variables aléatoires indépendantes de même loi (qui, d’après le théorème central limite,
convenablement renormalisée suit une loi proche d’une loi gaussienne). 0n considère
donc l’équation dYt = f (t, Yt )dt + σdBt et Y0 = y, soit, sous forme intégrale (la seule qui ait
un sens mathématique, puisque le Brownien n’est pas dérivable) :
 t
Yt = y + f (s, Ys )ds + σBt
0

pour tout t ≥ 0. On a coutume d’utiliser des majuscules pour les solutions d’EDS et des
minuscules pour les solutions d’EDO.
La trajectoire y de l’EDO (2.1) est régulière et déterministe. La présence du Brownien
entraı̂ne que pour σ petit , la trajectoire de l’EDS précédente, non dérivable, est proche
de celle de (2.1), en oscillant aléatoirement autour. Mais quand σ est grand, cette trajectoire
n’a plus rien à voir avec celle de (2.1).
La figure suivante montre les trajectoires sur [0, 2] de la solution de l’EDO

yt = −yt , et y0 = 5

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


2.1 Solution forte - Diffusion. 25

(c’est à dire yt = 5e−t ) et des EDS


 t
Yt = 5 − ys ds + σBt
0

avec σ = 0.4 et σ = 2 obtenues par simulation.

−1

−2
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0

2.1 Solution forte - Diffusion.

Dans la suite, nous étudierons donc des Équations Différentielles Stochastiques (EDS),
dont la définition précise est la suivante.
On se donne de nouveau une filtration (Ft ) continue à droite et formée de tribus
complètes (mais on ne suppose pas nécessairement que F0 est la tribu des ensembles négligeables),
un (Ft )-Brownien B à valeurs dans Rr , une variable aléatoire ξ à valeurs dans Rd indépendante
de FsB = σ(Bs , s ≥ 0), des fonctions boréliennes

σ : [0, +∞[×Rd → M(d, r) ∼ Rdr et b : [0, +∞[→ Rd .

On appelle Équation Différentielle Stochastique (EDS) de condition initiale ξ, de coefficient


de diffusion σ et de coefficient de dérive b un processus X tel que pour tout t ≥ 0,
 t  t
Xt = ξ + σ(s, Xs )dBs + b(s, Xs )ds. (2.2)
0 0

L’équation (2.2) sera aussi notée



dXt = σ(t, Xt )dBt + b(s, Xs )ds,
X0 = ξ.

On s’intéresse tout d’abord à l’existence et l’unicité de solutions au sens fort.

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


26 2 ´
Equations différentielles stochastiques

Définition 2.2 Soit B un Brownien donné, ξ une variable aléatoire indépendante de la


tribu σ(Bs , s ≥ 0) et soit (Ft ) la filtration définie par les tribus Ft qui sont pour tout t ≥ 0
les complétées de σ(σ(Bs , 0 ≤ s ≤ t), σ(ξ)). Une solution forte de (2.2) est un processus
(Xt ) à trajectoires presque sûrement continues tel que
(i) (Xt ) est adapté à la filtration (Ft ),
(ii) X0 = ξ p.s. t 

(iii) Pour tout i = 1, · · · , d, 0 |bi (s, Xs )| + rk=1 |σki (s, Xs )|2 ds < +∞ p.s.
(iv) Pour tout t ≥ 0, et tout i = 1, · · · , d,
r 
t  t
Xti = X0i + σki (s, Xs )dBsk + bi (s, Xs )ds.
k=1 0 0

Le théorème suivant est fondamental ; il donne des conditions suffisantes d’existence


et d’unicité d’une solution forte de (2.2), calquées sur celles de l’existence de la solution
d’EDO (2.1). On note |.| la norme euclidienne sur Rd ou Rd×r . Les conditions suivantes sur
les coefficients répliquent celles imposées pour résoudre une EDO.

Définition 2.3 Soit T > 0. Une fonction ϕ : [0, T ] × Rd → RN satisfait


(i) La condition de Lipschitz globale sur [0, T ] s’il existe une constante C > 0 telle que

|ϕ(t, x) − ϕ(t, y)| ≤ C|x − y| , ∀t ∈ [0, T ], ∀x, y ∈ Rd . (2.3)

(ii) La condition globale de restriction sur la croissance sur [0, T ] s’il existe C > 0 telle
que
|ϕ(t, x)| ≤ C(1 + |x|) , ∀t ∈ [0, T ], ∀x, y ∈ Rd . (2.4)

Lorsque la fonction ϕ est définie sur [0, +∞[×Rd et que les conditions (2.3) et (2.4) sont
vérifiées sur chaque intervalle [0, T ], on dit que ϕ vérifie les conditions globales de Lipschitz
et de restriction sur la croissance.

On remarque immédiatement, que si ϕ est globalement Lipschitzienne, la condition (2.4)


de restriction sur la croissance est une conséquence immédiate de

sup |ϕ(t, 0)| < +∞.


t≥0

La démonstration du théorème suivant d’existence et d’unicité repose sur le lemme de Gron-


wall.

Lemme 2.4 (Lemme de Gronwall) Soit f : [0, T ] → [0, M ] une fonction borélienne positive
bornée, a et b des constantes réelles telles que pour tout t ∈ [0, T ]
 t
f (t) ≤ a + bf (s)ds.
0

Alors pour tout t ∈ [0, T ], f (t) ≤ a ebt .

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


2.1 Solution forte - Diffusion. 27

Démonstration. Il suffit d’itérer la majoration sous l’intégrale. On en déduit pour tout n ≥ 1


 t  s

f (t) ≤ a + b a + b f (u) du ds
0 0

≤ a + abt + b2 f (u) du ds
0≤u≤s≤t
  u

2
≤ a + abt + b a + b f (v) dv du ds
0≤u≤s≤t 0
  t s u
2 3
≤ a + abt + ab du ds + b f (v) dv du ds
0≤u≤s≤t 0 0 0
2 2 n n n+1 n+1
bt b t b t
≤ a + abt + a + ··· + a +M ,
2! n! (n + 1)!

où dans la dernière intégrale on a majoré la fonction f par M . La dernière majoration de f


donne f (t) ≤ a ebt par passage à la limite en n. 2

On peut cependant affaiblir les hypothèses en ne demandant qu’une hypothèse de Lip-


schitz locale de ceux-ci, mais en gardant une restriction sur la croissance globale.

Définition 2.5 La fonction ϕ satisfait la condition de Lipschitz locale sur [0, T ] par rapport
à la variable spatiale x si pour tout n ≥ 1 il existe Kn > 0 tel que pour tout t ∈ [0, T ] et
x, y ∈ Rd :
|ϕ(t, x) − ϕ(t, y)| ≤ Kn |x − y| pour |x| ≤ n et |y| ≤ n. (2.5)
Si ϕ est définie sur [0, +∞[ et satisfait la condition de Lipschitz locale (2.5) sur chaque
intervalle [0, T ] avec une suite de constantes Kn qui ne dépend pas de T , on dit qu’elle est
localement Lipschitzienne.

Théorème 2.6 (Théorème d’existence et d’unicité forte) Soit σ et b des coefficients qui sa-
tisfont sur [0, +∞[ les conditions globales de Lipschitz (2.3) et de restriction sur la croissance
(2.4). Alors, si B est un Brownien standard de dimension r, pour toute variable aléatoire
X0 de carré intégrable et indépendante de σ(Bs , s ≥ 0) il existe une unique solution forte de
l’EDS  t  t
Xt = X0 + σ(s, Xs )dBs + b(s, Xs )ds p.s. , ∀t ≥ 0. (2.6)
0 0

Cette solution forte X de (2.6), adaptée à la filtration (Ft ) où Ft est la tribu complétée de
σ(X0 , σ(Bs , 0 ≤ s ≤ t)), est continue. De plus, il existe une constante C̃(C, T ) telle que pour
tout t ≥ 0 :

E sup |Xs |2 ≤ C̃(C, T )eC̃(C,T )t [1 + E(|X0 |2 )]. (2.7)


0≤s≤t

Si la condition initiale X0 ∈ Lp , 2 ≤ p < +∞, il existe une constante C̄(C, T, p) telle que

E sup |Xt | < C̄(C, T, p)[1 + E(|X0 |p )].


p
(2.8)
0≤t≤T

Démonstration. Fixons un instant T > 0 quelconque et prouvons l’existence et l’unicité de


la solution forte sur l’intervalle [0, T ].

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


28 2 ´
Equations différentielles stochastiques

Unicité Nous supposons ici seulement la condition (2.5). Soit X et X̄ des solutions fortes
(donc continues) de (2.6). Pour tout n ≥ 0, soit τn = inf{t ≥ 0 : |Xt | ≥ n}, τ̄n = inf{t ≥
0 : |X̄t | ≥ n} et Tn = τn ∧ τ̄n . Alors, Tn → ∞ p.s. De plus,
 t∧Tn  t∧Tn
   
Xt∧Tn − X̄t∧Tn = σ(s, Xs ) − σ(s, X̄s ) dBs + b(s, Xs ) − b(s, X̄s ds.
0 0

L’isométrie des intégrales stochastiques et l’inégalité


 de Schwarz entraı̂nent que si pour toute
matrice σ de type d × r on note σ2 = di=1 rk=1 |σki |2 , on a tout t ∈ [0, Tn ],
⎛  2 ⎞
d  r  t∧Tn 
 
E(|Xt∧Tn −X̄t∧Tn |2 ) ≤ 2E ⎝  [σki (s, Xs ) − σki (s, X̄s )] dBsk  ⎠
 
i=1 k=1 0
 2 
 t∧Tn 
+ 2E  [b(s, Xs ) − b(s, X̄s )] ds
0
 t∧Tn  t∧Tn
2
≤ 2E σ(s, Xs ) − σ(s, X̄s ) ds + 2tE |b(s, Xs ) − b(s, X̄s )|2 ds
0 0
 t
 
≤ 2(T + 1)Kn2 E |Xs∧Tn − X̄s∧Tn |2 ds.
0

Le Lemme de Gronwall appliqué à la fonction continue f (t) = E(|Xt∧Tn − X̄t∧Tn |2 ) permet


de conclure que les processus Xt∧Tn et X̄t∧Tn sont indistinguables. En faisant tendre n vers
l’infini, on en déduit que X et X̄ sont également indistinguables.
Existence Afin de mettre les idées en évidence et de simplifier les notations, nous suppo-
serons r = d = 1.
On construit une solution comme pour les EDO par itération de Picard. Soit X (n) une
suite de processus définis par :

(0)
Xt = X0 , ∀t ∈ [0, T ],
 t  t
(n+1) (n)
Xt = X0 + σ(Xs )dBs + b(Xs(n) )ds, ∀n ≥ 0, ∀t ∈ [0, T ]. (2.9)
0 0

(i) Montrons par récurrence que pour tout entier n ≥ 0,


(n)
sup E(|Xt |2 ) < +∞. (2.10)
0≤t≤T

En utilisant la restriction sur la croissance (2.4), on en déduira que les processus X (n) sont
(n) (n)
bien définis puisque b(t, Xt ) ∈ H1T (Ft ) et σ(t, Xt ) ∈ H2T (Ft ). Puisque X0 ∈ L2 , (2.10)
est vraie pour n = 0. Supposons que (2.10) est vraie pour n et montrons que cette propriété
est vraie pour n + 1. Pour tout t ∈ [0, T ], l’inégalité de Schwarz, l’isométrie dans L2 des
intégrales stochastiques, la condition (2.4) et le théorème de Fubini entraı̂nent
  t  t 
(n+1) 2 2 (n) 2 (n) 2
E(|Xt | ) ≤ 3 E(|X0 | ) + T E(|b(s, Xs )| )ds + E(|σ(s, Xs )| )ds
0 0
  t
2 2
  
≤ 3 E(|X0 | ) + 3(T + 1) C 1 + E(|Xs(n) |2 ds ,
0

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


2.1 Solution forte - Diffusion. 29

ce qui prouve (2.10).

(ii) Montrons qu’il existe une constante K := K(T ), qui dépend seulement de C et de
T , telle que
(n)
sup sup E(|Xt |2 ) ≤ K[1 + E(|X0 |2 )]eCt . (2.11)
n≥1 t∈[0,T ]

(1)
En effet, pour tout t ∈ [0, T ], la partie (i) montre que E(|Xt |2 ) ≤ C[1 + E(|X0 |2 )], tandis
que pour tout n ≥ 1,
 t
(n+1) 2 2
E(|Xt | ) ≤ C[1 + E(|X0 | )] + C E(|Xs(n) |2 )ds.
0

En itérant cette inégalité, on en déduit par récurrence sur n que pour tout n ≥ 1 et t ∈ [0, T ],
 (Ct)2 (Ct)n 
(n+1) 2 2
E(|Xt |) ≤ C[1 + E(|X0 | )] 1 + Ct + + ··· + ,
2! n!
ce qui termine la démonstration de (2.11).

(iii) Montrons que la suite (X (n) ) converge p.s. uniformément sur [0, T ] vers un processus
X continu, (Ft )-adapté X tel que (2.7) soit vraie. Pour tout n ≥ 1, notons
(n+1) (n)
Xt − Xt = Ant + Mtn ,

où
 
t   t  
Ant = b(s, Xs(n) ) − b(s, Xs(n−1) ) ds , Mtn = σ(s, Xs(n) ) − σ(s, Xs(n−1) ) dBs .
0 0

(n+1) (n)    
Alors, E(sup0≤s≤t |Xs − Xs |2 ) ≤ 2E sup0≤s≤t |Ans |2 + 2E sup0≤s≤t |Msn |2 .
L’inégalité de Schwarz et (2.3) entraı̂nent pour tout r ∈ [0, t],
 t  t
n 2 (n) (n−1) 2
|At | ≤ t |b(s, Xs ) − b(s, Xs )| ds ≤ CT |Xs(n) − Xs(n−1) |2 ds
0 0

(n) (n−1)
De plus, l’inégalité (2.11) montre que le processus s → σ(s, Xs ) − σ(s, Xs ) appartient
à H2T (Ft ). En effet, (2.3) montre que
 t
 t
 
(n−1) 2
E  (n)
σ(s, Xs ) − σ(s, Xs ) ds ≤ C 2
E(|Xs(n) − Xs(n−1) |2 )ds
0 0
 t
 
≤ 2C 2 E(|Xs(n) |2 ) + E(|Xs(n−1) |2 ds < +∞.
0

L’inégalité de Doob appliquée à la martingale continue (Mtn , t ≥ 0), puis (2.3) montrent que

 t
n 2
E sup |Ms | ≤ 4 E(|σ(s, Xs(n) ) − σ(s, Xs(n−1) )|2 )ds
0≤s≤t 0
 t
2
≤ 4C E(|Xs(n) ) − Xs(n−1) )|2 )ds.
0

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


30 2 ´
Equations différentielles stochastiques

Les deux inégalités précédentes entraı̂nent pour L := L(T ) = 2C(T + 4C),



 t
(n+1) (n) 2
E sup |Xs − Xs | ≤ L E(|Xs(n) ) − Xs(n−1) )|2 ds,
0≤s≤t 0

et en itérant cette inégalité, on montre par récurrence sur n que


(n+1) (n) 2 (Lt)n (1)


E sup |Xs − Xs | ≤ C̄ où C̄ = sup E(|Xt − X0 |2 ) < +∞.
0≤s≤t n! 0≤t≤T
# $
(n+1) (n)
L’inégalité de Markov montre alors que si An = sup0≤s≤T |Xs − Xs | ≥ 21n ,

2n (4Lt)n
P (An ) ≤ 2 E sup |Xs(n+1) − Xs(n) |2 ≤ C̄ .
0≤s≤T n!
Le Lemme de Borel Cantelli permet de conclure que P (lim sup An ) = 0, c’est à dire que
(n+1) (n)
pour presque tout ω, il existe un entier N (ω) tel que sup0≤s≤T |Xs (ω) − Xs (ω)|2 ≤ 21n
(n) (0)   (k+1) (k) 
pour tout n ≥ N (ω). La suite Xt (ω) = Xt (ω) + n−1 k=0 Xt (ω) − Xt (ω) est donc
uniformément convergente vers la limite Xt (ω). En posant X = 0 sur l’ensemble négligeable
hors duquel la convergence est vraie, on a ainsi construit un processus X qui est (p.s.)
continu, (Ft ) adapté comme limite p.s. d’une suite de processus (Ft )-adaptés (on rappelle
que les tribus Ft sont complètes). Enfin,


n−1

(n) 2 2 (k+1) (k) 2


E sup |Xt | ≤ 2E(|X0 | ) + 2 E sup |Xt − Xt |
0≤t≤T 0≤t≤T
k=0

(4Lt)k
n−1
≤ 2E(|X0 |2 ) + 2C̄ ≤ 2E(|X0 |2 ) + 2C̄e4LT .
k=0
k!
 
Le lemme de Fatou permet d’en déduire que E sup0≤t≤T |Xt |2 ≤ 2E(|X0 |2 ) + 2C̄e4LT , ce
qui prouve (2.7).
(n)
2
(iv) Montrons enfin que pour tout t ∈ [0, T ], la suite Xt converge dans L√ vers Xt , et
1
que le processus X satisfait (2.6). pour tout x > 0, la formule de Stirling n! ∼ 2πnn+ 2 e−n
  k  12
montre que pour m assez grand, ∞ k=m
x
k!
≤ C(x)m−1 . Pour tout t ∈ [0, T ] et n > m,


n−1 +∞

1
(n) (m) (k+1) (k) (4Lt)k 2
Xt − Xt 2 ≤ Xt − Xt 2 ≤ C̄ →0
k=m k=m
k!
(n)
quand m → +∞. La suite Xt est donc de Cauchy dans L2 ; elle converge dans L2 vers une
variable aléatoire Yt de carré intégrable. Elle admet une sous-suite qui converge p.s. vers Yt
et on a donc Yt = Xt p.s.
De plus, (2.7) et la restriction sur la croissance montrent que les processus s → b(s, Xs )
et s → σ(s, Xs ) appartiennent respectivement à H1T (Fs ) et H2T (Fs ). Le théorème de Fubini
montre que
 T  T  +∞
1 2
(n) (m) 2 (4Lt)k 2
E |Xt − Xt | dt ≤ C̄ dt → 0 quand m → +∞.
0 0 k=m
k!

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


2.1 Solution forte - Diffusion. 31

Le lemme de Fatou et la condition de Lipschitz (2.3) montrent que pour tout m,


 T
 T

(m) (n) (m)


E |Xt − Xt |2 dt ≤ lim inf E |Xt − Xt |2 dt →0
0 n 0

quand m → ∞. L’inégalité de Schwarz et la condition de Lipschitz (2.3) montrent alors


t (n) t
que 0 b(s, Xs )ds converge dans L2 vers 0 b(s, Xs )ds, tandis que l’isométrie des intégrales
t (n) t
stochastiques prouve que 0 σ(s, Xs )dBs converge dans L2 vers 0 σ(s, Xs )dBs . On en
déduit que X satisfait (2.6) en prenant la limite dans L2 de l’équation (2.9).
Enfin, si l’on renforce l’intégrabilité de la condition initiale, la démonstration précédente
dans laquelle on remplace l’isométrie de l’intégrale dans L2 par l’inégalité de Burkholder-
Davies-Gundy (1.13) permet de montrer (2.8). 2

Exemple 2.7 (Brownien géométrique) Soit σ et b des nombres réels, S0 un nombre réel
strictement positif. Le Brownien géométrique est la solution de l’EDS
 t  t
St = S 0 + σSs dBs + bSs ds.
0 0

Le Théorème 2.6 montre que cette EDS a une unique solution forte, puisque les coefficients
σ(t, x) = σx et b(t, x) = bx satisfont clairement les conditions globales de Lipschitz et de
restriction sur la croissance. Pour tout t ≥ 0, notons


σ2
Xt = S0 exp σBt + b − t . (2.12)
2
2
En appliquant la formule d’Itô à la fonction f (t, x) = S0 exp[σx + (b − σ2 )t] et au Brownien
2 2
B, puisque ∂f ∂t
(t, x) = (b − σ2 )f (t, x), ∂f
∂x
(t, x) = σf (t, x), ∂∂xf2 (t, x) = σ 2 f (t, x), f (t, Bt ) = Xt
et f (0, B0 ) = S0 , on déduit que
 t
 t   t  t
σ2 1 t 2
Xt = S0 + b− Xs ds + σXs dBs + σ Xs ds = S0 + σXs dBs + bXs ds,
0 2 0 2 0 0 0

c’est à dire que X est solution de (2.12). L’unicité de la solution forte entraı̂ne que X = S.
On en déduit que St > 0 pour tout t ≥ 0 p.s. En appliquant de nouveau la formule d’Itô
à la fonction g(x) = ln(x) et à St , on voit que si on avait postulé que le processus S ne
prenait p.s. que des valeurs positives (ce que nous venons de vérifier) on aurait trouvé pour
Yt = ln(St ),
 t  t 

Ss Ss 1 t σ 2 Ss2 σ2
Yt = Y0 + σ dBs + b ds − ds = Y0 + σBt + b − t,
0 Ss 0 Ss 2 0 Ss2 2

c’est à dire que la forme (2.12) de la solution était naturelle . L’exercice 2.4 généralisera
cette observation à une EDS linéaire plus générale. De plus, la loi de ln(St ) − ln(S0 ) est
2
gaussienne N ((b − σ2 )t, σ 2 t), c’est à dire que St suit une loi log-normale. La figure suivante
montre la simulation de trajectoires du Brownien géométrique sur [0, 1] avec σ = 0.5 (resp.
σ = 2), b = 2 et S0 = 1.

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


32 2 ´
Equations différentielles stochastiques

15
14
13
12
11
10
9
8
7
6
5
4
3
2
1
0
−1
−2
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0

15
14
13
12
11
10
9
8
7
6
5
4
3
2
1
0
−1
−2
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0

2.2 Solution faible.

Dans de nombreuses applications, il est plus naturel lors de la modélisation de se donner


uniquement les coefficients b(t, x) et σ(t, x), ainsi que la loi de X0 , mais pas l’espace proba-
bilisé ni le mouvement brownien B. On cherche alors le couple (B, X) qui satisfait (2.6), ce
qui donne la notion suivante.

Définition 2.8 Une solution faible de l’équation

dXt = σ(t, Xt )dBt + b(t, Xt )dt (2.13)


 
est un triplet (Ω, F, (Ft ), P ), B, X où
(i) (Ω, F, P ) est un espace probabilisé muni d’une filtration (Ft ) continue à droite et
complète.
(ii) (Bt ) est un (Ft )-Brownien de dimension r et (Xt ) est un processus (Ft )-adapté,
continu, de dimension d tels que les propriétés (iii) et (iv) de la définition 2.2 soient satis-
faites.

La loi de X0 est appelée la loi initiale. On n’exige plus que la filtration (Ft ) soit la plus
petite filtration qui rend mesurable B et X0 , et la solution Xt à l’instant t n’est donc plus
une fonction mesurable de la trajectoire (Bs , s ≤ t) et de X0 . Cependant, puisque B est un
(Ft )-Brownien et que X est (Ft )-adapté, Xt est indépendant de la trajectoire de B après
l’instant t, c’est à dire des accroissements (Br − Bt , r ≥ t).

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


2.3 Quelques propriétés des diffusions. 33

Une solution forte est clairement une solution faible, mais la réciproque est fausse, comme
le montre l’exemple suivant. L’existence d’une solution faible peut en effet être montrée sous
des conditions plus générales sur les coefficients.
Exemple 2.9 (Équation de Tanaka) Notons sign(x) = 1 si x ≥ 0 et sign(x) = −1 si
x < 0. Alors l’EDS  t
Xt = sign(Xs )dBs (2.14)
0
admet une solution faible, mais pas de solution forte.
 
Si Ω, F, (Ft ), B, X est une solution faible, le processus X est une martingale continue
t
de variation quadratique X, Xt = 0 sign(Xs )2 ds = t et d’après la caractérisation du
Brownien de P. Lévy (Théorème 1.33), X est un (Ft )-Brownien. On en déduit immédiate-
ment la construction d’une solution faible.
 t Soit (Xt ) un Brownien et (Ft ) sa filtration naturelle. Pour tout t ≥ 0 soit Bt =
0
sign(Xs )dXs . Le processus (Bt ) est une (Ft )-martingale continue, de variation quadra-
tique B, Bt = t. La caractérisation du Brownien de P. Lévy montre donc que B est un
(Ft )-Brownien. De plus, dBt = sign(Xt )dXt , c’est à dire que dXt = sign(Xt )dBt .
Sur l’espace probabilisé (Ω, F, (Ft ), P ), le couple (B, X) est donc une solution faible de
(2.14). On voit d’ailleurs que sur le même espace probabilisé, (B, −X) est également une
solution faible de (2.14), qui ne peut donc avoir une unique solution trajectorielle mais
au mieux une unique solution en loi .
L’absence de solution forte sera admise.
Définition  2.10 On dit qu’il  y a unicité en loi de la solution de (2.13) si deux solutions
faibles (Ω, F, (Ft ), P ), B, X et (Ω̃, F̃ , (F̃t ), P̃ ), B̃, X̃ ont la même loi, c’est à dire que
pour tout n ≥ 1 et tout 0 ≤ t1 < t2 < · · · < tn , les lois des vecteurs (Xt1 , · · · , Xtn ) et
(X̃t1 , · · · , X̃tn ) sont égales.
Le raisonnement précédent montre que pour l’équation de Tanaka (2.14), il y a unicité en
loi puisque nous avons montré que toute solution faible est un Brownien.
On remarque par ailleurs que si les coefficients σ et b satisfont les conditions (2.3)
et (2.4), le Théorème 2.6 montre l’existence et l’unicité forte de la solution de (2.6). Il
y a aussi unicité en loi de la solution forte ou de la solution faible de (2.13). En effet,
soit (Ω, F, (Ft ), P ), B, X et (Ω̃, F̃ , (F̃t ), P̃ ), B̃, X̃ deux solutions faibles et soit Y et Ỹ
deux
 solutions fortes
 continues
 de (2.6) définies respectivement sur les espaces probabilisés
Ω, F, (Ft ), P ), B et Ω̃, F̃ , (F̃t ), P̃ ), B̃ . Le Théorème 2.6 permet de conclure que l’on a
Xt = Yt pour tout t ≥ 0 P p.s. (c’est à dire, qu’en utilisant la continuité des trajectoires
on a un ensemble négligeable construit à partir des instants rationnels en dehors duquel les
trajectoires coı̈ncident). De même X̃t = Ỹt pour tout t ≥ 0 P̃ p.s. Pour prouver l’unicité
faible, il suffit donc de prouver que les lois de X et X̃ sont égales. En reprenant les schémas
d’itération de Picard (2.9) pour X et X̃, on vérifie que pour tout n ≥ 0, les lois des processus
(n) (n)
continus (Bt , Xt ) et (B̃t , X̃t ) sont égales.

2.3 Quelques propriétés des diffusions.

2.3.1 Flot stochastique et Propriété de Markov


Soit σ et b des coefficients qui satisfont les conditions globales de Lipschitz (2.3) et
de restriction sur la croissance (2.4). En reprenant la démonstration du Théorème 2.6, on

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


34 2 ´
Equations différentielles stochastiques

montre que pour tout s ≥ 0 et pour tout x ∈ Rd , il existe une unique solution trajectorielle
(Xts,x , t ≥ s) de l’EDS (2.6) qui part de x en l’instant s, c’est à dire définie pour t ≥ s par
 t  t
Xts,x =x+ σ(u, Xus,x )dBu + b(u, Xu )du. (2.15)
s s

Alors X 0,x = X(x) est la solution forte de (2.6) avec X0 = x, c’est à dire
 t  t
Xt (x) = x + σ(s, Xs (x))dBs + b(s, Xs (x))ds (2.16)
0 0

et on a montré E(sup0≤t≤T |Xt (x)|2 ) < +∞.


On a tout d’abord le résultat suivant de flot.
s,Xs (x)
Théorème 2.11 (Propriété de flot stochastique) Pour tout 0 ≤ s ≤ t, Xt (x) = Xt
p.s.

Démonstration. Soit t ≥ s ; alors par (2.16) on a :


 t  t
Xt (x) = Xs (x) + σ(u, Xu (x))dBu + b(u, Xu (x))du,
s s

tandis que par (2.15) on a :


 t  t
s,X (x)
Xt s = Xs (x) + σ(u, Xus,Xs (x) )dBu + b(u, Xus,Xs (x) )du.
s s

s,Xs (x)
Ceci montre que les processus (Xt (x), t ≥ s) et (Xt , t ≥ s) sont indistinguables par
unicité forte de l’EDS dont ils sont solution. 2

Cette propriété de flot stochastique permet de montrer la propriété de Markov faible .

Théorème 2.12 (Propriété de Markov) Soit (Xt (x), t ≥ 0) la solution forte de l’EDS (2.6)
avec X0 = x. Alors (Xt (x), t ≥ 0) est un processus de Markov pour la filtration naturelle
(FtB ) du Brownien. Plus précisément, pour toute fonction f : Rd → R borélienne positive
(ou bornée), 0 ≤ s, t,

E[f (Xs+t (x))|FsB ] = E[f (Xs+t (x))|Xs (x)] = Φt (Xs (x)),


s,y
où Φt (y) = E[f (Xs+t )].

Démonstration. Le processus (Xs+t s,y


, t ≥ 0) est l’unique solution forte de l’EDS (2.6) avec
comme condition initiale y, comme coefficients (t, x) → σ(s + t, x) et (t, x) → b(s + t, x) et le
Brownien B̃ défini par B̃t = Bs+t − Bs . C’est une fonction mesurable Ψ(y, B̃) et il est donc
s,X (x)
indépendant de (Fu , 0 ≤ u ≤ s). On en déduit que Xs+t (x) = Xs+t s est égal à Ψ(Xs (x), B̃).
Puisque Xs (x) et B̃ sont indépendants, le Lemme 1.37 montre alors que pour toute fonction
f mesurable bornée, E(f (Xs+t (x)|FsB ) = Φt (Xs (x)) où Φt (y) = E[f ◦Ψ(y, B̃)] = E[f (Xs+t
s,y
)].
Lorsqu’on conditionne par Xs (x), un raisonnement similaire basé sur l’indépendance de B̃
et de Xs (x) montre aussi que E(f (Xs+t (x))|Xs (x)) = Φt (Xs (x)) ; 2

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


2.3 Quelques propriétés des diffusions. 35

Lorsque les coefficients sont homogènes, c’est à dire ne dépendent pas du temps, on peut
écrire la propriété de Markov sous une forme plus précise (homogène) et on a la propriété
de Markov forte. En effet, dans ce cas, puisque le processus défini par B̃t = Bs+t − Bs
est un (Fs+t , t ≥ 0)-Brownien, on en déduit que les variables aléatoires Xs+t s,y
et Xt (y)
ont la même loi et la fonction Φt (y) utilisée dans la propriété de Markov peut s’écrire
s,y
Φt (y) = E[f (Xs+t )] = E[f (Xt (y))] = Pt f (y). De plus, on a le
Théorème 2.13 (Propriété de Markov homogène - Propriété de Markov forte)
Soit σki : Rd → R et bi : Rd → R, 1 ≤ i ≤ d, 1 ≤ k ≤ r des coefficients indépendants du
temps tels qu’il existe C > 0 pour lequel pour tout i = 1, · · · , d et k = 1, · · · , r :
|σki (x) − σki (y)| + |bi (x) − bi (y)| ≤ C|x − y|, (2.17)
Notons X(x) la solution forte de l’EDS homogène
 t  t
Xt = X0 + σ(Xs )dBs + b(Xs )ds (2.18)
0 0

qui correspond au cas X0 = x. C’est un processus de Markov fort homogène, c’est à dire
que pour tout (FtB )-temps d’arrêt τ fini presque sûrement et pour toute fonction borélienne
positive (ou bornée) f : Rd → R,
E[f (Xτ +t (x))|Fτ ] = E[f (Xτ +t (x))|Xτ (x)] = Pt f (Xτ (x)),
où Pt (x) = E[f (Xt (x))].
Remarquons que dans le cas homogène, la condition de Lipschitz (2.17) entraı̂ne immédia-
tement un analogue de la restriction sur la croissance
|σki (x)| + |bi (x)| ≤ C(1 + |x|). (2.19)
Dans le cas général (in-homogène), on montre de façon similaire que le processus espace-
temps est fortement Markovien, c’est à dire que si f : [0, +∞[×Rd → R est borélienne
positive, alors pour tout temps d’arrêt τ fini presque sûrement, si
Φt (s, x) = E[f (s + t, Xts,x )]
on a :
E[f (τ + t, Xτ +t (x))|Fτ ] = E[f (τ + t, Xτ +t (x))|Xτ (x)] = Φt (τ, Xτ (x)).
2.3.2 Générateur infinitésimal
Convention : Dans toute cette section, nous considérons des coefficients σ et b qui satisfont
les conditions (2.3) et (2.4) dans le cas général, ou bien les conditions du Théorème 2.13
dans le cas homogène et que la condition initiale X0 est constante.
Notons C n,p ([0, +∞[×Rd ) l’ensemble des fonctions u : [0, +∞[×Rd → R de classe C n par
rapport à la variable t ∈ [0, ∞[ et de classe C p par rapport à la variable x ∈ Rd .

Définition 2.14 Lorsque X est la solution de l’EDS homogène (2.18), si on note a = σσ ∗ ,


le générateur infinitésimal de X est l’opérateur différentiel A défini pour u ∈ C 2 (Rd ) par

d
∂u 1 i,j
d
∂2u
i
Au(x) = b (x) (x) + a (x) (x) . (2.20)
i=1
∂xi 2 i,j=1 ∂xi ∂xj

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


36 2 ´
Equations différentielles stochastiques

Ainsi, le générateur du mouvement Brownien sur Rr (qui correspond au cas d = r,


σki (x) = δi,k d’où a(x) = Idr ) est 12 Δ, où Δ est le Laplacien défini sur C 2 (Rr ). Le générateur
t t
d’un Brownien géométrique (réel) Xt = x + 0 σXs dBs + 0 bXs ds est l’opérateur défini sur
∂2
C 2 (R) par A = b x ∂x ∂
+ 12 σ 2 x2 ∂x 2.

Lorsque la diffusion n’est pas homogène, le générateur infinitésimal dépend du temps.


Définition 2.15 Si a(t, x) = σ(t, x) σ ∗ (t, x) désigne la matrice carrée symétrique d × d de
i,j r i j
type positif définie par a (t, x) = k=1 σk (t, x) σk (t, x), le générateur infinitésimal de la
diffusion (Xt , t ≥ 0) définie par (2.6) est l’opérateur différentiel défini sur C 1,2 ([0, +∞[×Rd )
par :
d
∂u 1 i,j
d
∂ 2u
i
At u(x) = b (t, x) (t, x) + a (t, x) (t, x) . (2.21)
i=1
∂xi 2 i,j=1 ∂xi ∂xj

La formule d’Itô montre donc que si f : [0, +∞[×Rd → R est de classe C 1,2 et si X est
solution de (2.6), alors
 
∂f ∂f
df (t, Xt ) = σ(t, Xt ) (t, Xt )dBt + (t, Xt ) + At f (t, Xt ) dt. (2.22)
∂x ∂t
On en déduit le
Théorème 2.16 Soit σ et b des coefficients qui satisfont les conditions globales de Lipschitz
(2.3) et de restriction sur la croissance (2.4), X0 ∈ Rd et X la solution forte de (2.6).
Pour toute fonction f : [0, +∞[×Rd → R appartenant à C 1,2 et telle que ∂x ∂f
i
est bornée
pour tout i = 1, · · · , d, le processus (Mt ) défini par
 t

∂f
Mt = f (t, Xt ) − + As (s, Xs ) ds (2.23)
0 ∂s
est une (FtB )-martingale et pour tout temps d’arrêt τ p.s. borné, la formule de Dynkin est
vraie :  τ

∂f
E[f (τ, Xτ )] = f (0, X0 ) + E + As (s, Xs )ds .
0 ∂s
Démonstration. La propriété de martingale de M est une conséquence immédiate de (2.22),
du Théorème 1.13, de la propriété (2.7) et de la restriction sur la croissance de σ, qui
montrent que le processus s → σ(s, Xs ) ∂f ∂x
(s, Xs ) ∈ H2 .
Le Théorème d’arrêt 1.7 montre alors que si τ est p.s. borné, M0 = E(Mτ ) puisque
la tribu F0B est la tribu complétée de la tribu triviale. Les dérivées partielles de f par
rapport à x étant bornées, on en déduit que |f (s, Xs ) − f (s, X0 )| est majorée par une
combinaison linéaire des composantes Xsi , et d’après (2.7), pour tout K > 0, la variable
aléatoire sups≤K |f (s, Xs ) − f (s, X0 )| est de carré intégrable. De plus, par continuité de f ,
sups≤K |f (s, X0 )| < +∞. Pour tout temps d’arrêt borné, la variable aléatoire f (τ, Xτ ) est
donc intégrable, ce qui termine la démonstration. 2

Grâce à la propriété (2.8), on peut affaiblir les hypothèses sur le contrôle des dérivées par-
∂f
tielles de f dans les théorèmes précédents. En effet, si ∂x i
(t, x) est à croissance polynomiale
en x uniformément en t, c’est à dire s’il existe un exposant ai > 0 tel que
 
 ∂f 
sup  (t, x) ≤ C(1 + |x|ai ),
t ∂xi

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


2.3 Quelques propriétés des diffusions. 37

alors la restriction sur la croissance des coefficients σki (t, x) et le fait que la condition initiale
soit constante (donc dans tous les espaces Lp , 1 ≤ p < +∞) entraı̂nent que pour tout k, il
existe une constante C et un exposant bi,k > 0 tels que pour tout t > 0
 t 2

 ∂f   i 2
E  (s, Xs ) σk (s, Xs ) ds ≤ C 1 + sup E(|Xs | i,k ) < +∞.
b

0 ∂xi 0≤s≤t

∂f
Une croissance polynomiale de toutes les dérivées partielles ∂x i
(t, x) permet donc de conclure
que les intégrales stochastiques dans la formule d’Itô de f (t, Xt ) sont des martingales conti-
nues (de carré intégrable).
En appliquant le théorème 2.16 avec d = r = 1, on déduit immédiatement que si f ∈ C 1,2
a une dérivée partielle ∂f
∂x
bornée (ou à croissance polynomiale) et si
2
∂f ∂f ∂f 1 2∂ f
(t, x) + At f (t, x) = (t, x) + b(t, x) (t, x) + σ(t, x) (t, x) = 0,
∂t ∂t ∂x 2 ∂x2
alors f (t, Xt ) est une vraie (FtB )- martingale

De même, si
∂f
(t, x) + At f (t, x) = rf (t, x),
∂t
alors le processus e−rt f (t, Xt ) est une (FtB )-martingale. Le coefficient r est appelé coefficient
d’actualisation. En particulier, si f (T, x) = h(x), on a f (t, Xt ) = er(t−T ) E[h(XT )|FtB ]. Ceci
sera fort utile en finance, comme on le verra dans les chapitres suivants. On peut généraliser
cette propriété de martingale pour un coefficient d’actualisation non constant.

Théorème 2.17 Soit σ et b des fonctions qui satisfont les conditions globales de Lipschitz
et de restriction sur la croissance (2.3) et (2.4), B un mouvement Brownien standard de
dimension r, Xt la solution de l’équation différentielle stochastique :
 t  t
Xt = x + σ(s, Xs ) dBs + b(s, Xs ) ds (2.24)
0 0

et At son générateur infinitésimal. Alors pour toute fonction continue minorée ρ : [0, T ] ×
Rd → [m, +∞[ et toute fonction f : [0, T ] × Rd → Rd de classe C 1 et t et de classe C 2 en x
∂f
telle que les dérivées partielles ∂x i
de f sont à croissance polynomiale, le processus
t
Mtρ (f ) = e− 0 ρ(s,Xs ) ds f (t, Xt ) − f (0, X0 )
 t 

− 0s ρ(u,Xu ) du ∂f
− e + As f − ρ f (s, Xs ) ds
0 ∂s

est une martingale pour la filtration FtB ).

Démonstration : La formule d’Itô pour un produit entraı̂ne que


 t  t
d e− 0 ρ(s,Xs ) ds f (t, Xt ) = −ρ(t, Xt ) e− 0 ρ(s,Xs ) ds f (t, Xt ) dt
t  
+e− 0 ρ(s,Xs ) ds d f (t, Xt ) .

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


38 2 ´
Equations différentielles stochastiques

La formule d’Itô pour f (t, Xt ) permet alors d’écrire :


t
e− 0 ρ(s,Xs ) ds
f (t, Xt ) = f (0, X0 )
 t 

− 0s ρ(u,Xu ) du ∂f
+ e + As f − ρ f (s, Xs ) ds
0 ∂s
d r  t s ∂f
+ e− 0 ρ(u,Xu ) du (s, Xs ) σki (s, Xs ) dBsk .
i=1 k=1 0
∂x i

La fonction
 t ρétant
 s minorée, on montre alors comme dans le théorème précédent que les pro-
cessus 0 exp − 0 ρ(u, Xu ) du ∂x ∂f
i
(s, X i k
s ) σk (s, Xs ) dBs sont des martingales, ce qui conclut
la démonstration. 2

Dans le cas de diffusions homogènes, l’opérateur différentiel défini par (2.20) est bien le
générateur infinitésimal du processus de Markov homogène.
Théorème 2.18 Le générateur infinitésimal A de la diffusion homogène X(x) solution de
(2.18) avec la condition initiale x est bien son générateur en tant que processus de Markov
homogène, c’est à dire que pour toute fonction f de classe C 2 dont les dérivées partielles
d’ordre 1 et 2 sont bornées,
1 1
Af (x) = lim [Ph f (x) − f (x)] = lim [E(f (Xh (x)) − f (x)].
t→0 t t→0 t

Démonstration. D’après le Théorème 2.16, pour tout t ≥ 0,


 t
 
E[f (Xt (x))] = f (x) + E Af (Xs (x) ds.
0

Les trajectoires de X étant presque sûrement continues, celles de Af (Xs ) le sont également.
t
On en déduit que t → 0 Af (Xs (x))ds est P presque sûrement dérivable en 0 et que sa
dérivée vaut Af (X0 (x)) = Af (x).
De plus, les dérivées partielles de f étant bornées par K > 0, la restriction sur la
croissance des coefficients montre que

|Af (x)| ≤ K |bi (x)| + K|σki (x)σkj (x)| ≤ C(1 + |x|2 ).
i i,j,k

La propriété (2.7) montre alors que pour tout t > 0,


sup |Af (Xs )| ≤ C 1 + sup |Xs | ∈ L1 .


2
0≤s≤t 0≤s≤t

Le théorème de convergence dominée permet de conclure. 2

2.3.3 Théorème de comparaison


Le théorème suivant permet de comparer presque sûrement des solutions d’EDS unidi-
mensionnelles avec le même coefficient de diffusion, mais des conditions initiales et coeffi-
cients de dérive qui satisfont des inégalités similaires. Il s’avère souvent extrêmement utile
en pratique. La preuve, qui utilise des arguments semblables à ceux de l’unicité trajectorielle
vus précédemment, peut être trouvée dans [6].

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


2.4 Processus de Bessel 39

Théorème 2.19 (Théorème de comparaison) Soit (Bt , t ≥ 0) un mouvement brownien


réel, b1 , b2 et σ des fonctions globalement lipschitziennes de R dans R, x1 ≥ x2 des nombres
réels. Pour i = 1, 2, on considère les EDS
 t  t
i i
Xt = xi + bi (Xs ) ds + σ(Xsi ) dBs
0 0

Supposons que b1 (x) ≥ b2 (x) pour tout x ∈ R. Alors Xt1 ≥ Xt2 p.s. pour tout t ≥ 0.

2.4 Processus de Bessel

Dans la pratique, le théorème d’existence et d’unicité de solutions d’EDS sous les condi-
tions usuelles sur les coefficients (conditions globales de Lipschitz et de restriction sur la
croissance) est parfois insuffisant pour ce qui concerne le coefficient de diffusion. On peut
notablement améliorer ce théorème dans le cas réel.

Théorème 2.20 (Yamada-Watanabe) Soit d = r = 1. Supposons que b et σ sont à crois-


sance linéaire, c’est à dire satisfont la condition de restriction sur la croissance globale (2.4),
que b vérifie la condition de Lipschitz locale (2.5) et que

|σ(t, x) − σ(t, y)|2 ≤ ρ(|x − y|) , ∀t ≥ 0, ∀x, y ∈ R,

où ρ :]0, +∞[→]0, +∞[ est une fonction borélienne telle que
 ε
dz
2
= +∞
0 ρ (z)

pour tout ε > 0. Alors si X0 = x ∈ R, l’équation (2.6) admet une unique solution forte.

Une classe très importante d’EDS dont l’existence et l’unicité sont montrées en appli-
quant le théorème précédent est la suivante :
 t"
Xt = x + 2 Xs dBs + δ t (2.25)
0
√ √ "
où B est un Brownien réel et x, δ > 0. En effet, | x −√ y| ≤ |x − y| et le théorème
de Yamada-Watanabe appliqué avec la fonction ρ(x) = x montre que (2.25) admet une
unique solution forte. De plus, on peut montrer que cette solution est toujours positive et
définie sur [0, +∞[. Cependant,
√ le théorème d’existence 2.6 n’aurait pas permis d’obtenir ce
résultat, car σ(x) = x n’est pas lipschitzienne en zéro. Le processus X est un processus
de Bessel carré de dimension δ.

Nous allons relier le processus de Bessel au Brownien. Soit n > 1 et B = (B 1 , B 2 , . . . , B n )


un mouvement
n Brownien n-dimensionnel. Soit X le processus
n défini par Xt = ||Bt || ; alors
2 i 2 2
Xt = i=1 (Bt ) et la formule d’Itô montre que dXt = i=1 2Bti dBti + n dt.
En notant (x, y) le produit scalaire des vecteurs x et y, on voit que le processus β défini par

1 i i
n
1
dβt = (Bt , dBt ) = B dB , β0 = 0,
Xt ||Bt || i=1 t t

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


40 2 ´
Equations différentielles stochastiques

est une martingale continue de carré intégrable et la formule d’Itô montre que (βt2 − t, t ≥ 0)
est une martingale. La caractérisation de Paul Lévy entraı̂ne que β est un mouvement
brownien. L’égalité d(Xt2 ) = 2(Bt , dBt ) + ndt s’écrit
d(Xt2 ) = 2Xt dβt + n dt .
Ainsi, en posant Vt = Xt2 on obtient que V est solution d’une EDS du type (2.25)
"
dVt = 2 Vt dβt + n dt ,
où β est un mouvement brownien. Puisque Xt > 0 p.s., une nouvelle application de la
formule d’Itô montre que
n − 1 dt
dXt = dβt +
2 Xt
où β est un mouvement Brownien.
On dit que X est un processus de Bessel (BES) de dimension n, et que V est un processus
de Bessel carré (BESQ). Les processus de Bessel seront généralisés et utilisés en Finance
dans le modèle de Cox-Ingersoll-Ross décrit dans le dernier chapitre.

2.5 Lien avec les EDP

2.5.1 Problème parabolique


Notons Kn,p ([0, T ] × Rd ) l’ensemble des fonctions u : [0, T ] × Rd → R qui sont de classe
C par rapport à la variable t ∈ [0, T ], de classe C p par rapport à la variable x ∈ Rd et
n

dont les dérivées partielles sont à croissance polynomiale, c’est à dire telles qu’il existe des
constantes C > 0 et des entiers k tels que chaque dérivée partielle v de u satisfasse l’inégalité
|v(t, x)| ≤ C (1 + |x|k ). On note Kp (Rd ) l’ensemble des fonctions u : Rd → R de classe C p
par rapport à la variable x ∈ Rd dont les dérivées partielles sont à croissance polynomiale.
L’exemple le plus simple d’EDP parabolique liée à un processus stochastique est l’équation
de la chaleur en dimension 1, c’est à dire
∂u σ2 ∂ 2u
(t, x) = (t, x) , (t, x) ∈]0, +∞[×R , (2.26)
∂t 2 ∂x2
où σ > 0 et où la condition initiale u(0, x) = f (x) est donnée par une fonction f : R → R
borélienne à croissance polynomiale. Pour t > 0, notons p(t; x, .) la densité de x + σ Bt où
(Bt , t ≥ 0) est un mouvement Brownien standard à valeurs réelles, c’est à dire la fonction
1 (x−y)2
p(t; x, y) = √ e− 2 σ2 t .
σ 2πt
∂p σ2 ∂ 2 p
Un calcul facile montre que ∂t
= 2 ∂x2
.
Notons
 
u(t, x) = E f (x + σ Bt )
 +∞
pour tout t ≥ 0 ; alors u(0, x) = f (x). De plus, pour t > 0, u(t, x) = −∞ p(t; x, y) f (y) dy
et la croissance polynomiale de f entraı̂ne que l’on peut appliquer le théorème de dérivation
sous le signe intégral. Pour tout couple d’entiers positifs m et n on a donc
 +∞ n+m
∂ n+m ∂
m n
u(t, x) = m n
p(t; x, y) f (y) dy ;
∂t ∂x −∞ ∂t ∂x

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


2.5 Lien avec les EDP 41

2 2
la fonction définie par u(t, x) = E[f (x+σ Bt )] satisfait donc l’EDP ∂u
∂t
(t, x) = σ2 ∂∂xu2 (t, x) sur
]0, +∞[×R et appartient à K1,2 ([ε, +∞[×R) pour tout ε > 0. Reste à vérifier le comporte-
ment asymptotique de u(t, y) quand (t, y) → (0, x). De nouveau, puisque f est à croissance
polynomiale, si cette fonction est de plus continue, le théorème de convergence dominée
entraı̂ne que pour tout x ∈ R,
lim u(t, y) = f (x) .
(t,y)→(0,x)

On a ainsi prouvé que l’équation (2.26) de condition initiale f continue à croissance


polynomiale a une solution ; reste à prouver l’unicité de la solution de (2.26) pour la condi-
tion initiale, ce qui donnera une interprétation probabiliste à la solution de cette EDP. De
nouveau, on peut montrer l’unicité de la solution de (2.26) de façon probabiliste.
Théorème 2.21 Soit u une fonction de classe C 1,2 sur ]0, T ] × R qui satisfait l’équation
de la chaleur (2.26), telle que sup |u(t, x)| soit à croissance polynomiale en x et telle pour
0<t≤T
tout x ∈ R, lim u(t, y) = 0. Alors, u(t, x) = 0 sur ]0, T ] × R.
(t,y)→(0,x)

On peut aussi considérer le problème similaire à celui de l’équation (2.26) sur l’intervalle
de temps [0, T ] en renversant le temps et imposant une condition finale donnée par une
fonction f continue :
 ∂v 2 ∂2v
(t, x) + σ2 ∂x 2 (t, x) = 0 pour (t, x) ∈ [0, T [×R ,
∂t (2.27)
v(T, x) = f (x) pour x ∈ R ,

dont une solution continue v ∈ K1,2 ([0, T [×Rd ) est


   
v(t, x) = E f (x + σ(BT − Bt )) = E f (x + σBT −t ) pour (t, x) ∈ [0, T [×R .
On étend ces propriétés du Brownien B aux diffusions, ce qui donne une interprétation
probabiliste d’une EDP parabolique liée au générateur infinitésimal At défini par (2.21).
Théorème 2.22 Soit σ et b des coefficients satisfaisant les conditions (2.3) et (2.4), f une
fonction continue et (Xts,x , t ≥ s) la solution de (2.15).
Alors une fonction v continue sur [0, T ] × Rd telle que v ∈ K1,2 ([0, T [×Rd ) est solution
du problème de Cauchy si :
 ∂v
∂t
(t, x) + At v(t, x) = pour (t, x) ∈ [0, T [×Rd ,
(2.28)
v(T, x) = f (x) pour x ∈ Rd ,
La fonction v admet la représentation stochastique :
 
v(t, x) = E f (XTt,x ) (2.29)

2.5.2 Formule de Feynman-Kac


On s’intéresse à une EDP un peu plus générale que le problème de Cauchy (2.28) étudié
dans la section précédente. Soit σ et b des coefficients qui satisfont les conditions globales
de Lipschitz et de restriction sur la croissance (2.3) et (2.4), et pour tout t ∈ [0, T [, soit Xst,x
le processus solution de
 t  t
t,x
Xs = x + t,x
σ(u, Xu )dBu + b(u, Xut,x )du , ∀s ∈ [t, T ]. (2.30)
t t

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


42 2 ´
Equations différentielles stochastiques

Définition 2.23 Soit At le générateur infinitésimal défini sur K1,2 ([0, T ] × Rd ) par (2.21).
Soit m un nombre réel, f : Rd → R, g : [0, T ] × Rd → Rd et ρ : [0, T ] × Rd → [m, +∞[
des fonctions continues. La fonction v ∈ K1,2 ([0, T [×Rd ) satisfait le problème de Cauchy
d’opérateur At , de potentiel ρ, de Lagrangien g et de condition terminale f si c’est une
fonction continue sur [0, T ] × Rd et si
 ∂v
∂t
(t, x) + At v(t, x) − ρ(t, x) v(t, x) + g(t, x) = 0 pour (t, x) ∈ [0, T [×Rd ,
(2.31)
v(T, x) = f (x) pour x ∈ Rd .

Étudions d’abord le cas g = 0, c’est à dire seulement l’existence d’un coefficient d’actua-
lisation aléatoire ρ.

Théorème 2.24 (Théorème de Feynman-Kac) Soit σ et b des fonctions satisfaisant les


conditions globales de Lipschitz et de restriction sur la croissance (2.3) et (2.4), f, ρ des
fonctions satisfaisant les conditions de la définition 2.23. Supposons que f ∈ K0 (Rd ). Pour
tout t ∈ [0, T [ et x ∈ Rd , notons (Xst,x , s ∈ [t, T ]) le processus solution de (2.30) et (Ft = FtB )
la filtration naturelle du Brownien B. Alors une solution v du problème de Cauchy
 ∂v
∂t
(t, x) + At v(t, x) − ρ(t, x) v(t, x) = 0 pour (t, x) ∈ [0, T [×Rd ,
v(T, x) = f (x) pour x ∈ Rd .

admet la représentation stochastique :


 T t,x

v(t, x) = E f (XTt,x )e− t ρ(s,Xs ) ds . (2.32)

De plus, si (Xt = Xt0,x , t ∈ [0, T ]) est la diffusion solution de (2.2), alors pour tout t ∈ [0, T ],
 T  
− t ρ(s,Xs ) ds 
v(t, Xt ) = E e f (XT )Ft . (2.33)

Démonstration. La formule d’Itô montre que si v résout le problème de Cauchy (2.31) avec
g = 0, le processus :
s
ρ(u,Xut,x ) du
Mst,x = e− t v(s, Xst,x ) , s ∈ [t, T ]
 
est une (Ft )-martingale, ce qui entraı̂ne que Mtt,x = E MTt,x | Ft . La propriété de martingale
de (Ms0,x , s ∈ [0, T ]) et la condition terminale v(T, x) = f (x) montrent alors (2.33).
Remarquons que de même, la condition terminale entraı̂ne que
 T  
t,x 
v(t, x) = v(t, Xtt,x ) = E e− t ρ(u,Xu ) du f (XTt,x )  Ft .

Pour prouver (2.32), fixons (t, x) ∈ [0, T [×Rd et notons τn = inf{s ≥ t , |Xst,x | ≥ n}. La for-
mule d’Itô et le théorème d’arrêt pour les martingales entraı̂nent que v(t, x) = E(MTt,x∧τn ) =
2 i
i=1 Tn , avec :
  
− tτn ρ(s,Xst,x ) ds
Tn1 (t, x) = E v(τn , Xτt,xn
) e 1{τn ≤T } ,
  
2 t,x − 0T ρ(s,Xst,x ) ds
Tn (t, x) = E v(T, XT ) e 1{τn >T } .

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


2.5 Lien avec les EDP 43

Une généralisation immédiate de (2.8) basée sur le lemme de Gronwall et l’inégalité de


Burkholder montre que pour tout p ∈ [1, +∞[, E(supt≤s≤T |Xst,x |p ) ≤ Cp (1 + |x|p ). Il existe
K > 0 tel que le terme |Tn1 (t, x)| est dominé par CnK P (τn ≤ T ). Pour tout p ∈ [1, +∞[,
 
P (τn ≤ T ) ≤ Cp n−p E sup |Xst,x |p ≤ Cp n−p .
t≤s≤T

Choisissant p > K nous obtenons Tn1 (t, x) → 0 quand n → +∞. Le théorème de convergence
dominée entraı̂ne que lorsque n → +∞,
  
2 − 0T ρ(s,Xst,x ) ds
Tn (t, x) → E f (XT ) e
t,x
,

ce qui termine la démonstration. 2

Nous verrons dans l’exercice 2.6 que le problème de Cauchy (2.31) admet comme solution
 !
T T s
ρ(s,Xst,x ) ds ρ(u,Xut,x ) du
v(t, x) = E f (XTt,x )e− t + g(s, Xst,x ) e− t ds . (2.34)
t

On déduit immédiatement du Théorème de Feynman Kac le résultat suivant. Soit r > 0


et f : Rd → R une fonction continue à croissance polynomiale. Alors si v continue sur
[0, T ] × Rd et v ∈ K1,2 ([0, T [×Rd ) est solution du problème de Cauchy
 ∂v
∂t
(t, x) + At v(t, x) = r v(t, x) pour (t, x) ∈ [0, T [×Rd ,
v(T, x) = f (x) pour x ∈ Rd ,
 
alors v(t, x) = E e−r(T −t) f (XTt,x ) .

Ces liens entre diffusions et EDP peuvent être vus de deux façons.
D’une part en petite dimension on peut utiliser des méthodes numériques d’EDP (dif-
férences finies ou éléments finis) afin de résoudre numériquement l’EDP (il faut encore des
conditions pour qu’elle ait une solution unique) et en déduire une information sur l’espérance
d’une fonction du processus.
Mais les méthodes numériques, efficaces en petite dimension, deviennent très difficiles
à implémenter en grande dimension. Par contre, les méthodes de Monte-Carlo ou de quasi
Monte Carlo permettent d’approximer l’espérance d’une variable aléatoire ou d’un processus
en une famille finie d’instants t et d’états x. On peut se servir de l’interprétation de la solution
v(t, x) de l’EDP (sous réserve qu’elle soit unique) comme une espérance pour écrire cette
fonction au point (t, x) à l’aide de l’espérance d’une diffusion. Par un schéma d’Euler de pas
T /n, on sait approximer la trajectoire de la diffusion par celle d’un processus très simple et
très rapide à simuler. La vitesse de convergence forte ,√qui donne une majoration de la
norme uniforme de la différence des trajectoires, est en 1/ n. Si on s’intéresse seulement à
l’espérance d’une fonction de la diffusion en un instant T , la vitesse de convergence faible
du schéma est en 1/n. L’espérance de la fonction du processus approximant à l’instant T
est elle-même approximée par une moyenne d’après la loi forte des grands nombres. Le
théorème de la limite centrale montre alors que si on dispose de N réalisations, la vitesse
de convergence de la moyenne vers l’espérance est en √1N . Simuler une approximation de
la diffusion par un schéma d’Euler est très simple et l’inconvénient est plutôt le nombre de
simulations qu’il faut utiliser pour avoir une approximation raisonnable . Cette méthode
est donc lente , mais insensible à la dimension .

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


44 2 ´
Equations différentielles stochastiques

2.6 Exemples en finance

Nous présentons ici deux exemples d’EDS importants en finance. Le modèle de Black &
Sholes sera présenté de façon beaucoup plus approfondie dans le dernier chapitre.
2.6.1 Problème de Sturm-Liouville - Temps d’occupation
Nous venons de voir comment les diffusions permettent de résoudre explicitement cer-
taines EDP. Les mêmes techniques peuvent être aussi employées pour l’étude de certaines
EDO du deuxième ordre. On s’intéresse par exemple au problème suivant, dit de Sturm-
Liouville :

f
(α + k)f = + g (2.35)
2
où α > 0, k : R → R+ est une fonction continue et g : R → R une fonction continue telle
que :  √
|g(x + y)|e−|y| 2α dy < +∞
R

pour tout x ∈ R. Alors, si B est un Brownien standard issu de 0 et f ∈ K2 , pour tout


t > 0, le lien entre générateur infinitésimal et martingale décrit dans le théorème 2.17 avec
ρ(t, y) = α + k(x + y) montre que le processus

t
 t s
 
− α+k(x+Bs )ds − α+k(x+Bu )du 1
f (x + Bt ) e 0 − f (x) − e 0 f (x + Bs ) − α − k(x + Bs ) ds
0 2

est une (FtB )-martingale. On en déduit que si f est une solution bornée de (2.35),
 t   t s

− α+k(x+Bs )ds − α+k(x+Bu )du
E f (x + Bt ) e 0 − f (x) = −E e 0 g(x + Bs )ds .
0

Lorsque t → +∞, ceci entraı̂ne :


 ∞  t 

f (x) = E g(x + Bt ) exp −αt − k(x + Bs )ds dt .


0 0

Cette fonction est l’unique solution bornée de classe C 2 de (2.35).


Ce résultat donne en particulier la transformée de Laplace de la variable aléatoire
 t

g(Bt ) exp − k(Bs )ds


0

  
t
pour toute fonction g et donc par inversion la loi du couple Bt , 0 k(Bs )ds .
Ce couple est très important en Finance, puisqu’il permet de pricer certaines options
exotiques avec temps d’occupation. La formule de Feynman-Kac permet aussi de calculer la
densité de la variable aléatoire
 t
+
At = 1[0,∞[ (Bs ) ds
0

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


2.6 Exemples en finance 45

qui représente le temps d’occupation de [0, +∞[ par le Brownien. En effet, si on pose k(x) =
β1[0,+∞[ (x) et g(x) = 1, en approximant k par une suite de fonctions continues on en déduit
que pour α, β > 0 la fonction
 ∞  t

f (x) = E exp −αt − β 1[0,∞) (x + Bs )ds dt
0 0

est solution de l’EDO



f  (x)
αf (x) = 1 − βf (x) + 2
si x > 0,

αf (x) = 1 + f 2(x) si x < 0.

L’unique solution bornée et continue de cette EDO est donnée par :



Ae−x 2(α+β) + α+β
1
si x > 0,
f (x) = √
1
x 2α
Be +α si x < 0.

En imposant la continuité de f et f en zéro, on trouve


1 1 1 1
A = " − et B = " − ,
α(α + β) (α + β) α(α + β) α

ce qui entraı̂ne  ∞  +
 1
e−αt E e−βAt dt = f (0) = " .
0 α(α + β)

Puisque Γ( 12 ) = π, le théorème de Fubini et un changement de variables montrent que
 ∞ 
 +∞  +∞
t
−βu 1 e−(α+β)u 1 e−α(t−u)
e −αt
du √e dt = √ √ du √ √ dt
0 0
π u(t−u) π 0 u π u t−u
1 1
=√ √ .
α+β α
Puisque la transformée
 t −βu de Laplace caractérise la loi, on en déduit que pour tout β > 0,
−βA+ √
E[e t ]= 0e 1
du, puis que la densité de A+t est la fonction h définie par
π u(t−u)

1
h(u) = " 1]0,t[ (u).
π u(t − u)

La fonction de répartition de cette loi est définie pour tout θ ∈]0, t[ par :
  %
  θ
du θ/t
ds 2 θ
P A+
t ≤θ = " = " = Arcsin .
0 π u(t − u) 0 π s(1 − s) π t

La loi de A+
t est appelée loi de l’arcsinus. On remarque enfin que pour θ ∈]0, t[,
   
P A+ t ≤ θ = P tA+1 ≤ θ ,

ce qui montre que les variables A+ +


t et tA1 ont même loi. On aurait pu aussi obtenir ce
résultat directement par scaling du Brownien.

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


46 2 ´
Equations différentielles stochastiques

2.6.2 Introduction à la formule de Black & Sholes


Nous présentons sommairement cet exemple fondamental, qui sera repris de façon plus
systématique dans le dernier chapitre. On considère un marché financier comportant un
actif dit sans risque de taux constant r, tel que S00 = 1, donc de prix à l’instant t donné par
St0 = ert (soit dSt0 = rSt0 dt) et un actif risqué dont le prix St à l’instant t vérifie
 
St = S0 exp σBt + (b − σ 2 /2)t . (2.36)

C’est le Brownien géométrique vu dans l’exemple 2.7, solution de l’EDS linéaire

dSt = σ St dBt + b St dt ,

où S0 > 0, B est un mouvement brownien et b, σ ∈ R. On remarque que ce processus garde


des valeurs strictement positives et qu’à chaque instant t > 0, E(St ) = S0 ebt . Le processus
St croit donc en moyenne comme un actif sans risque de rendement constant b. De plus,

(2σ)2
2 2 2bt+σ 2 t 2σBt − 2 t 2
E(St ) = S0 e E e = S02 e2bt+σ t ,
 
2
ce qui entraı̂ne que V ar(St ) = S02 e2bt eσ t − 1 . Le coefficient σ est appelé la volatilité et
mesure la sensibilité à l’aléa, c’est à dire le risque de l’actif. C’est lui qui permet de quantifier
les écarts entre St et son espérance. On remarque facilement en utilisant l’expression explicite
de St quepour tout  δ >0 qui modélise un intervalle de temps (par exemple un jour), la
S(j+1)δ
suite ln Sjδ , j ≥ 0 est une suite indépendante équidistribuée de variables aléatoires
 
σ2 2
gaussiennes N (b − 2 )δ ,, σ δ et il est donc facile de tester la validité du modèle sur des
données réelles. On constate d’ailleurs que ce modèle rend mal compte  de la réalité. Un
S(j+1)δ S(j+1)δ −Sjδ
développement limité de ln(1 + u) permet d’approximer ln Sjδ , par Sjδ
afin de
tester le caractère i.i.d. gaussien des rendements successifs observés.
Pour qu’un investisseur ayant une aversion au risque préfère un actif risqué à un actif
sans risque, il faut bien sûr que son rendement espéré b soit supérieur à r et la différence
b − r est une prime de risque . Plus la volatilité σ est grande, plus l’actif est risqué et
dans ce cas, plus la valeur de b doit être grande pour que l’investisseur préfère St à l’actif
sans risque St0 .

On fixe un horizon T > 0 et on souhaite donner le prix d’un actif financier qui versera
h(ST ) à la date T . Le cas d’un call Européen de maturité T et de strike K correspond au
cas h(x) = (x − K)+ .
On procède par duplication (hedging) : on forme un portefeuille qui comprend αt parts
de l’actif sans risque St0 (le montant de la richesse investie dans cet actif à la date t est donc
αt ert ) et de Δt parts de l’actif risqué St .
On suppose que le marché est sans friction, c’est à dire qu’il n’y a pas de coût de
transaction (d’achat ou de vente des actifs), que l’on peut vendre à découvert (c’est à dire
que les coefficients αt et Δt peuvent être négatifs), que les actifs sont indéfiniment divisibles
(αt et Δt sont à valeurs réelles) et que le trading se fait en continu (c’est à dire que αt et
Δt peuvent varier à chaque instant t).
On veut trouver un portefeuille auto-finançant (c’est à dire ne nécessitant pas de
mise de fonds autre qu’à la date 0), qui ne verse pas de dividende (duquel on ne retire pas

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


2.6 Exemples en finance 47

de l’argent avant la date T ) et de valeur terminale h(ST ). La valeur de ce portefeuille à la


date t est
Vt = αt St0 + Δt St .
La condition d’autofinancement se formalise par

dVt = αt dSt0 + Δt dSt ,

soit  
dVt = αt rSt0 dt + Δt [bSt dt + σSt dBt ] = σΔt St dBt + rVt + Δt St (b − r) dt.
La valeur initiale du portefeuille sera la valeur de l’actif financier. On suppose que la
valeur Vt du portefeuille à la date t est une fonction déterministe du temps et de la valeur
de l’actif risqué, soit Vt = V (t, St ). En utilisant la formule d’Itô, on calcule

∂V ∂V σ 2 St2 ∂ 2 V ∂V
dVt = (t, St ) + b St (t, St ) + (t, St ) dt + σSt (t, St ) dBt .
∂t ∂x 2 ∂x2 ∂x

En utilisant la condition d’autofinancement et en identifiant les parties martingales on ob-


tient (parce que St > 0 pour tout t)

∂V ∂V
σΔt St = σSt (t, St ) soit Δt = (t, St ) ,
∂x ∂x
ce qui entraı̂ne alors en identifiant les parties à variation finie

∂V ∂V σ 2 St2 ∂ 2 V
rSt (t, St ) + (t, St ) + (t, St ) − rV (t, St ) = 0 ,
∂x ∂t 2 ∂x2
avec pour condition terminale V (T, ST ) = h(ST ). Comme St est une variable aléatoire
qui peut prendre toutes les valeurs de ]0, +∞[, on en déduit que V satisfait l’EDP sur
[0, +∞[×[0, +∞[ :

∂V ∂V σ 2 x2 ∂ 2 V
rx (t, x) + (t, x) + (t, x) − rV (t, x) = 0 , (2.37)
∂x ∂t 2 ∂x2
avec pour condition terminale V (T, x) = h(x). On notera que le coefficient b a disparu.

Nous allons résoudre cette EDP dans le cas d’un call européen, c’est à dire pour une
condition terminale h(x) = (x − K)+ , avec σ > 0. On note C la valeur du portefeuille dans
ce cas particulier, Les détails des calculs sont laissés en exercice (cf. Exercice 2.5). Nous
verrons au chapitre suivant une façon plus rapide et moins technique de les retrouver.
Les résultats précédents entraı̂nent que C satisfait l’équation (2.37)

∂C ∂C σ 2 x2 ∂ 2 C
(t, x) + rx (t, x) + (t, x) = rC(t, x) ,
∂t ∂x 2 ∂x2
avec C(T, x) = (x − K)+ . La formule de Feynman-Kac (2.32) appliquée à la fonction f (x) =
(x − K)+ et à ρ(s, x) = r montre que la valeur du call européen à l’instant t, est donnée par
 
r(t−T ) &t,x +
C(t, x) = E e (ST − K) , (2.38)

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


48 2 ´
Equations différentielles stochastiques

avec  
2
S&Tt,x = xeσ(BT −Bt )+ r− σ2 (T −t)

solution de l’EDS dS̃st,x = σ S̃st,x dWs + bS̃st,x ds pour s ≥ t et S̃tt,x = x.


Puisque BT − Bt suit une loi gaussienne N (0, T − t), on peut calculer explicitement
C(t, x). Pour tout a ∈ R, notons
 a
1 x2
F (a) = √ e− 2 dx
2π −∞

la fonction de répartition d’une loi gaussienne N (0, 1). La solution de l’équation (2.38) est
donnée par la formule suivante de Black & Sholes

C(t, x) = xF (d1 ) − Ke−r(T −t) F (d2 ),

avec les notations


1  r(T −t)
 1 2 √
d1 = √ ln xe /K + σ (T − t) et d2 = d1 − σ T − t. (2.39)
σ T −t 2

La quantité
∂C &
Δt = (t, St ) = F (d1 ),
∂x
qui représente le nombre de parts de l’actif sous-jacent utilisées pour répliquer l’option s’ap-
pelle le Delta de l’option et représente aussi la sensibilité du prix de l’option par rapport au
prix du sous-jacent. Le couple (C(t, St ) − Δt St , Δt ) représente le portefeuille de couverture.

D’autre part, le théorème de Feynman-Kac 2.24 appliqué au cas ρ(s, x) = r et f (x) =


(x − K)+ montre en appliquant l’équation (2.33) que si S&s = Ss0,x est la solution de dS&t =
σ S&t dBt + rS&t dt,
 
C(t, S&t ) = e−(T −t) E (S&T − K)+ |Ft (2.40)

L’expression (2.38) permet également de retrouver le Delta de l’option de façon différente.


Dans le cas t = 0, on a
 
C(0, x) = E e−rT (xMT erT − K)+ ) ,

2
avec la notation S&t = xMt ert et où Mt = SS0t = x eσBt − 2 t pour t ≥ 0 est une martingale. En
& σ

t
dérivant par rapport à x sous l’espérance, on retrouve

∂C  
(0, x) = E MT 1{xMT erT ≥K} = F (d1 ),
∂x

où d1 est la constante précédente.

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


2.7 Exercices 49

2.7 Exercices

Exercice 2.1 Le but de cet exercice est de proposer deux généralisations du Lemme de
Gronwall.
(i) Soit f : [0, T ] → R une fonction continue. Supposons qu’il existe une constante b > 0
et une fonction a : [0, T ] → R positive intégrable telle que pour tout t ∈ [0, T ],
 t
0 ≤ f (t) ≤ a(t) + b f (s)ds. (2.41)
0
t
Alors f (t) ≤ a(t) + b 0 a(s)eb(t−s) ds pour tout t ∈ [0, T ].
(ii) Soit f : [0, T ] → R une fonction borélienne bornée. Supposons qu’il existe une
constante
t a > 0 et une fonction intégrable ] → R telle que 0 ≤ f (t) ≤
 t positive b : [0, TH(t)
a + 0 b(s)f (s)ds. Montrer que si H(t) = 0 b(s)ds, f (t) ≤ ae pour tout t ∈ [0, T ].

Exercice 2.2 Processus d’Ornstein-Uhlenbeck Soit X0 , σ et b des constantes réelles,


(Bt ) un Brownien standard de dimension 1, X le processus solution de l’équation de Langevin
 t
Xt = X0 + σBt − b Xs ds.
0

1. Montrer que si X 1 et X 2 sont solutions de l’équation de Langevin, X 1 = X 2 .


 t 
2. Soit Yt = e−bt X0 + σ 0 ebs dBs . Montrer que
 t

−bt
Yt = e X0 − bσ bs
e Bs ds + σBt .
0

En appliquant le théorème de Fubini, en déduire que


 t  t
 −bt

b Ys ds = X0 1 − e + bσ e−b(t−u) Bu du = X0 − Yt + σBt .
0 0

En déduire que l’unique solution de l’équation de Langevin est


 t

−bt bs
Xt = e X0 + σ e dBs .
0
 2

3. Montrer que pour tout t, la loi de Xt est gaussienne N X0 e−bt , σ2b (1 −2bt
−e ) . Pour
tout s < t, calculer Cov(Xs , Xt ).

Exercice 2.3 Processus de Vasicek On généralise le processus précédent en ajoutant


une constante dans le terme de dérive

dYt = σdBt + a(b − Yt )dt.

Cette EDS a été étudiée pour modéliser l’évolution des taux d’intérêt d’un marché financier
et est appelée mean-reversing car si a et b sont positifs, le processus Yt tend vers b (en
un sens à préciser).
1. Montrer que Xt = Yt − b est solution de l’équation de Langevin.

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


50 2 ´
Equations différentielles stochastiques

2. On suppose que X0 est une constante. En déduire une expression explicite de Yt , puis
la loi de E(Yt ) et Cov(Ys , Yt ) pour 0 ≤ s ≤ t.
3. On suppose que X0 suit une loi gaussienne N (m, σ02 ) et est indépendante de (Bt ). Re-
prendre la question précédente et calculer la loi du vecteur (Ys , Yt ) pour
0 ≤ s < t, l’espérance de Yt et la covariance de Ys et Yt . Si Y0 > 0, Le processus
Yt garde-t-il des valeurs positives
 ?  
T 
Pour 0 ≤ t ≤ T , calculer E exp t Yu du FtB .

Exercice 2.4 Soit (Bt ) un (Ft )-Brownien standard de dimension r, (σk (s), s ≥ 0) et
(b(s), s ≥ 0) des processus réels progressivement mesurables définis pour k = 1, · · · , r,
et M une constante réelle telle que sup0≤t≤T (σ(s)2 + |b(s)|) ≤ M p.s. Pour tout X0 ∈ R
on veut résoudre explicitement l’EDS linéaire suivante (à coefficients non constants)
 t  t
Xt = X0 + σ(s)Xs dBs + b(s)Xs ds. (2.42)
0 0

1. On suppose qu’il existe une constante réelle M telle que sup (σ(s)2 + |b(s)|) ≤ M
0≤t≤T
p.s. En reprenant la démonstration du Théorème 2.6 montrer que (2.42) a une unique
solution telle que sup0≤t≤T E(|Xt |2 ) < +∞. Sous quelles conditions supplémentaires
ce processus satisfait-il la propriété de Markov ?
2. On suppose que (St ) est un processus d’Itô (continu) à valeurs strictement positives
 H (t)
tels que si dSt = kj=1 Hk (s)dBsk +H0 (s)ds et si on note σj (t) = Sj i pour j = 1, · · · , k
(t) T t

et b(t) = HS i0(t) , on a 0 (σ(s)2 + |b(s)|)ds < +∞ p.s. Comparer ces hypothèses à


celles de la question précédente.

3. On suppose que les hypothèses de l’une des questions précédentes sont satisfaites. Soit
 t  t

1 2
Yt = exp − σ(s)dBs + −b(s) + σ(s) ds .
0 0 2
Calculer dYt puis d(Xt Yt ) et en déduire que
 t  t

1 2
Xt = X0 exp σ(s)dBs + b(s) − σ(s) ds . (2.43)
0 0 2
Exercice 2.5 Le but de cet exercice est de donner une première méthode pour trouver
l’équation (2.39) du modèle de Black & Sholes.
1. Montrer que la solution de l’équation de Black & Sholes (2.37) est
∂C ∂C σ 2 x2 ∂ 2 C
(t, x) + rx (t, x) + (t, x) = rC(t, x)
∂t ∂x 2 ∂x2
avec C(T, x) = (x − K)+ .
2. Montrer que la valeur du call européen à l’instant t, est donnée par (2.38)
 
r(t−T ) &t,x +
C(t, x) = E e (ST − K) ,
 2

où S&Tt,x = xeσ(BT −Bt )+ r− σ2 (T −t)
.

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


2.7 Exercices 51

√  2
3. Montrer que que si G ∼ N (0, 1), α = σ T − t > 0 et β = r − σ2 (T − t),
   
E e−r(T −t) (S&Tt,x − K)+ = xe−r(T −t) E eα G+β 1{α G+β≥ln(K/x)}
−Ke−r(T −t) P (α G + β ≥ ln(K/x)) .
x 2
4. Notons F (x) = √12π −∞ e−u /2 du la fonction de répartition d’une variable aléatoire
G gaussienne N (0, 1). Montrer que pour tout α > 0, β ∈ R, K > 0 et x > 0,

  ln(x/K) + β
P α G + β ≥ ln(K/x) = F
α
et

  α2 ln(x/K) + β
E eαG+β 1{αG+β>ln(K/x)} = eβ+ 2 F α+
α
5. Montrer la formule (2.39).

Exercice 2.6 Le but de l’exercice est de généraliser la formule de Feynman-Kac montrée


dans le Théorème 2.24 en prouvant (2.34).
Soit σ et b des fonctions satisfaisant les conditions (2.3) et (2.4), f, g, ρ des fonctions satis-
faisant les conditions de la définition 2.23. Supposons que f ∈ K0 (Rd ) et que sup0≤t≤T |g(t, x)|
est à croissance polynomiale. Pour tout t ∈ [0, T [ et x ∈ Rd , notons (Xst,x , s ∈ [t, T ]) le pro-
cessus solution de (2.30) et (Ft = FtB ) la filtration naturelle du Brownien B. Alors une
solution v du problème de Cauchy (2.31)
 ∂v
∂t
(t, x) + At v(t, x) − ρ(t, x) v(t, x) + g(t, x) = 0 pour (t, x) ∈ [0, T [×Rd ,
v(T, x) = f (x) pour x ∈ Rd .

admet la représentation stochastique :


 !
T T s
ρ(s,Xst,x ) ds ρ(u,Xut,x ) du
v(t, x) = E f (XTt,x )e− t + g(s, Xst,x ) e− t ds .
t

Les cinq exercices suivants étudient de façon systématique la solution de l’EDS

dXt = (αXt + a)dBt + (βXt + b)dt , X0 = x.

Exercice 2.7 Préliminaire


Soit a, α, b, β des constantes réelles positives et x ∈ R. On considère l’EDS

dXt = (αXt + a)dBt + (βXt + b)dt , X0 = x. (2.44)

1. Montrer que (2.44) admet une unique solution forte.


2. On note m(t) = E(Xt ) et M (t) = E(Xt2 ).
(a) Montrer que m(t) est la solution de d’EDO

y − βy = b , y(0) = x. (2.45)

Résoudre cette EDO.

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


52 2 ´
Equations différentielles stochastiques

(b) Écrire Xt2 comme processus d’Itô en utilisant la formule d’Itô pour la solution
Xt de (2.44). Montrer que l’intégrale stochastique est une martingale de carré
intégrable.
(c) En déduire que si on note m(t) la solution de (2.45), M (t) est la solution de
l’EDO
y − (2β + α2 )y = 2(b + aα)m + a2 , y(0) = x2 .
Résoudre cette EDO.

Exercice 2.8 Premier cas particulier a = b = 0


Soit (Yt ) la solution de (2.44) avec a = b = 0 et x = 1.
 2

αBt + β− α2 t
1. Montrer que Yt = e .
2. Montrer que si β ≥ 0, (Yt ) est une (Ft )-sous-martingale. A quelle condition sur β le
processus (Yt ) est-il une martingale ?
3. Soit (Zt ) le processus d’Itô défini par
 t  t
Zt = x + a Ys−1 dBs + (b − aα) Ys−1 ds.
0 0

Montrer que ce processus est bien défini et calculer Y, Zt . En déduire que la solution
(Xt ) de (2.44) peut s’écrire Xt = Yt Zt .

Exercice 2.9 Second cas particulier α = b = 0


On note (Xt ) la solution de l’EDS

dXt = adBt + βXt dt , X0 = x. (2.46)

1. Montrer que l’unique solution de (2.46) est


 t

βt −βs
Xt = e x+a e dBs .
0

(On pourra soit utiliser l’exercice précédent, soit poser Yt = e−βt Xt et résoudre
l’équation vérifiée par Y .)
2. Montrer que pour tout choix d’instants t1 < t2 < · · · < td , le vecteur ξ = (Xt1 , · · · Xtd )
est gaussien. Calculer E(ξ) et la matrice de covariance de ξ.
t
3. Pour tout t ≥ 0, on note It = 0 Xs ds. Montrer que pour tout choix d’instants
t1 < t2 < · · · < td , le vecteur (It1 , · · · Itd ) est gaussien. Calculer E(eIt ) pour tout t ≥ 0.
4. Calculer E(Xt |Fs ) et V ar(Xt |Fs ) pour tout 0 < s < t.
5. Soit (Xt ) la solution de (2.46) et φ une fonction de classe C 2 . Écrire la formule d’Itô
x 2
pour Zt = φ(Xt ). En déduire que si φ(x) = 0 exp −β ay2 dy,


t
Bs2
Zt = a exp −β 2 dBs .
0 a

Le processus (Zt ) est-il une martingale de carré intégrable ?

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


2.7 Exercices 53

6. Fixons λ ∈ R. Calculer  
2
Φ(t, y) = E eλXt .
 2 
Pour t > 0 fixé, étudier la (Ft )-martingale E(eλXt |Fs ), 0 ≤ s ≤ t . Montrer que Φ
est solution d’une équation aux dérivées partielles que l’on explicitera. Soit Ψ(t, x) =
ln(Φ(t, x)). Montrer que

Ψ(t, x) = x2 a(t) + b(t) avec a (t) = −a(t)(2β + a2 a(t)), et b (t) = −a2 a(t).

Exercice 2.10 Troisième cas particulier b = β = 0


Soit (Xt ) la solution de l’EDS
a
dXt = (αXt + a)dBt , X0 = x = − . (2.47)
α
Soit h la fonction définie par
 
1  a + αy  a
h(y) = ln   pour y = − .
α a + αx α

1. Soit Yt = h(Xt ). Quelle est l’équation vérifiée par Yt ?


2. En déduire que la solution de (2.47) est


a α2 a
Xt = x + exp − t + αBt − .
α 2 α

Exercice 2.11 Quatrième cas particulier b = 1 et a = 0


Soit (Xt ) la solution de (2.44) dans le cas b = 1 et a = 0. On note Yt = e−βt Xt .
Quelle est l’équation satisfaite par Yt ? Calculer E(Xt ) et V ar(Xt ).

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


54 3 Théorème de Girsanov

3 Théorème de Girsanov

Avec la formule d’Itô, le théorème de Girsanov est l’outil fondamental du calcul stochas-
tique. Il décrit comment changer de façon absolument continue la loi de certains processus.
Plus précisément, on considère un processus (Xt , t ≥ 0) défini sur un espace probabilisé
filtré (Ω, F, (Ft ), P ), dont la loi sous P peut être délicate à étudier. On perturbe la
probabilité P en la multipliant par une (Ft )-martingale exponentielle. On obtient alors une
nouvelle probabilité Q, sous laquelle le processus X suit une autre loi, plus simple à étudier.
On étudie cette loi sous la probabilité Q et on revient à la probabilité P avec la martingale
exponentielle. Les applications de cette méthode sont multiples, aussi bien en finance que
pour l’étude du mouvement brownien.
Convention Dans tout ce chapitre, nous serons amenés à utiliser simultanément plusieurs
probabilités sur un espace mesurable (Ω, F). Si P désigne une telle probabilité, nous note-
rons EP (X) = XdP l’espérance d’une variable aléatoire positive ou P-intégrable X, et de
même EP (X | G) l’espérance conditionnelle de X par rapport à la sous-tribu G de F sous la
probabilité P.

3.1 Changement de probabilité

Soit (Ω, F, P) un espace probabilisé et L une v.a. F-mesurable positive telle que EP (L) =
1, c’est à dire d’espérance 1 sous P. On définit une nouvelle probabilité Q sur F de densité
L par rapport à P en posant Q(A) = EP (L1A ) pour tout A ∈ F ; on note dQ = L dP.
Alors une variable aléatoire X est Q intégrable si et seulement si LX est P-intégrable ; si
X est positive ou Q-intégrable, EQ (X) = EP (LX). De plus, Q est absolument continue par
rapport à P, c’est à dire que pour tout A ∈ F, P(A) = 0 entraı̂ne Q(A) = 0. Si L > 0 P
p.s., alors P est absolument continue par rapport à Q, ce qui entraı̂ne que les probabilités P
et Q sont équivalentes, et la probabilité P a pour densité L1 par rapport à Q.

Lemme 3.1 Soit (Ω, F, (Ft ), P) un espace probabilisé filtré, T > 0. Soit LT une variable
aléatoire FT -mesurable positive ou nulle telle que EP (LT ) = 1. Pour tout t ∈ [0, T ], soit
Lt = EP (LT | Ft ).
(i) Pour tout t < T , si on note dQ|Ft (resp. dP|Ft ) la restriction de Q (resp. P) à Ft ,
on a
dQ|Ft = Lt dP|Ft .
(ii) Soit (Mt , t ≥ 0) un processus. C’est une (Ft , t ∈ [0, T ])-martingale (resp. une (Ft , t ∈
[0, T ])-martingale locale) sous Q si et seulement si le processus (Lt Mt , t ∈ [0, T ]) est une
(Ft , t ∈ [0, T ])-martingale (resp. une (Ft , t ∈ [0, T ])-martingale locale) sous P.
(iii) Si LT > 0 P p.s., les probabilités P et Q sont équivalentes, pour tout t ∈ [0, T ],
Lt > 0 P (ou Q) presque sûrement, ( L1t , 0 ≤ t ≤ T ) est une (Ft , 0 ≤ t ≤ T ) martingale
sous Q et si Z est Ft mesurable et positive ou bien Q-intégrable, pour tout s ∈ [0, t],
EP (ZLt | Fs ) EP (ZLt | Fs )
EQ (Z | Fs ) = = .
Ls EP (Lt | Fs )
Démonstration. La filtration (Ft , t ∈ [0, T ]) étant fixée, les martingales considérées (sous les
probabilités P ou Q) le seront toujours par rapport à cette filtration sans que ce soit précisé.
(i) Pour tout t < T et tout A ∈ Ft on a
Q(A) = EP (EP [LT | Ft ] 1A ) = EP (Lt 1A ) .

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


3.2 Formule de Cameron Martin 55

(ii) Supposons que (Mt , t ∈ [0, T ]) est une Q-martingale. Pour tout s ≤ t ≤ T et tout
A ∈ Fs on a

EP (Lt Mt 1A ) = EQ (Mt 1A ) = EQ (Ms 1A ) = EP (Ls Ms 1A )

et l’on en déduit que (Lt Mt , t ∈ [0, T ]) est une P-martingale. La réciproque se démontre de
façon similaire. Si M est une martingale locale sous Q, la suite croissante de temps d’arrêt
τn → ∞ telle que (Mτn ∧t , t ∈ [0, T ]) est une (Ft )-martingale sous Q fait de (Mτn ∧t Lτn ∧t , t ∈
[0, T ]) une (Ft )-martingale sous P.
(iii) Puisque LT > 0, la mesure P est absolument continue par rapport à Q de densité
1
LT
sur FT . Pour tout t ∈ [0, T ], la variable aléatoire L1t : Ω → [0, +∞] est positive telle que
EQ (1/Lt ) = EP (Lt /Lt ) = 1. On a donc L1t < +∞ Q p.s., soit Lt > 0 Q (et P) p.s.
Soit Z ∈ L1 (Q) une variable aléatoire Ft -mesurable. Alors, pour s ≤ t, L−1 s EP (ZLt |Fs )
est Fs -mesurable et pour tout A ∈ Fs ,

EQ (Z1A ) = EP (Z1A Lt ) = EP (1A EP (ZLt | Fs )) = EQ (1A L−1


s EP (ZLt | Fs )),

donc EQ (Z|Fs ) = L−1


s EP (ZLt |Fs ) Q p.s. (ou P p.s.). Le raisonnement est similaire si Z ≥ 0
est Ft mesurable.
Montrons que pour tout t ∈ [0, T ], L−1 −1
t = EQ (LT | Ft ) Q p.s. Soit Z une variable aléatoire
−1
Ft -mesurable et bornée ; alors Z Lt est Ft mesurable et

EQ (ZL−1 −1 −1
t ) = EP (ZLt Lt ) = EP (Z) = EQ (ZLT ).

Puisque L−1
t est Ft -mesurable, L−1 −1
t = EQ (LT |Ft ) Q p.s. 2

3.2 Formule de Cameron Martin

Présentons tout d’abord l’idée principale en dimension finie. Soit X1 , . . . , Xn des variables
gaussiennes centrées réduites indépendantes, construites sur un même espace probabilisé
(Ω, F, P). Pour tout (μ1 , . . . , μn ) ∈ Rn on a
 n !  
'
n
1 2
n
EP exp μi Xi = EP [exp (μi Xi )] = exp μ ,
i=1 i=1
2 i=1 i

ce qui entraı̂ne
n
!
μ2i
EP (L) = 1 où L = exp μi Xi − .
i=1
2

Ainsi, on peut définir une nouvelle probabilité Q sur (Ω, F) en posant dQ = L dP, c’est à
dire 
Q (A) = EP (L1A ) = L(ω)dP(ω)
A

pour tout A ∈ F. Le lemme 3.1 montre que Q est bien une probabilité équivalente à P
sur (Ω, F), c’est à dire que P (A) = 0 si et seulement si Q (A) = 0 pour tout A ∈ F. La
variable L désigne la densité de Q par rapport à P.

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


56 3 Théorème de Girsanov

On cherche maintenant à savoir quelle est la loi du n-uple (X1 , . . . , Xn ) sous cette nouvelle
probabilité Q. Pour cela on écrit pour tout borélien A ∈ Rn ,
 n

μ2

  μ i X i − 2
i
Q (X1 , · · · , Xn ) ∈ A =
i=1
1{(X1 ,··· ,Xn )∈A} e dP
 n

μ2

n
μi x i − i x2
−n/2
e−
2 i
dx1 · · · dxn
i=1
= (2π) e i=1 2


A
n
−n/2 1 2
= (2π) e− 2 i=1 (xi −μi ) dx1 · · · dxn
A

et l’on en déduit que si μ = (μ1 , . . . , μn ) : sous Q, (X1 , . . . , Xn ) est un vecteur gaussien


N (μ, Id), c’est à dire que :
sous Q, (X1 , · · · , Xn ) − (μ1 , μ2 , · · · , μn ) est un vecteur gaussien N (0, Id).

La formule de Cameron-Martin obéit au même principe de changement de probabilité,


sauf que celui-ci a lieu sur l’espace des fonctions continues et donc en dimension infinie.
On se donne un Brownien standard (Bt , t ≥ 0) sur (Ω, F, P) et (FtB , t ≥ 0) sa filtration
naturelle (complétée). Pour tout m ∈ R, on sait que le processus
 
m2 t
t → Lt = exp mBt −
m
est une (FtB )-martingale positive.
2
Remarquons déjà l’analogie entre cette martingale Lm et la variable L définieplus haut. 
On fixe alors un horizon T > 0 et on construit une nouvelle probabilité Qm T sur Ω, FT
B
en
posant : Qm
T (A) = E P (L m
1
T A ) . La formule de Cameron-Martin spécifie alors la loi de B
sous QT .
m

Théorème 3.2 (Formule de Cameron-Martin) Soit B un Brownien standard et m ∈ R.


Avec les notations précédentes, le processus défini par (B̃t = Bt − mt, 0 ≤ t ≤ T ) est un
(FtB , 0 ≤ t ≤ T ) Brownien sous la probabilité QmT, .

Démonstration. Remarquons d’abord que les tribus FtB et FtB̃ sont égales pour
 tout t ∈
2
[0, T ]. Fixons λ ∈ R et considérons le processus Zt = exp λB̃t − λ t/2 . Pour tout
λ

0 ≤ s ≤ t ≤ T et tout A ∈ FsB , on a :
 

    λ2 t m2 t
EQ Ztλ 1A = EP Ztλ Lt 1A
= EP exp λB̃t − + mBt − 1A
2 2
 

λ2 t m2 t
= EP exp λBt − λmt − + mBt − 1A
2 2
 

(λ + m)2 t
= EP exp (λ + m)Bt − 1A
2
  2t
 
Puisque B est un Brownien sous P, le processus exp (λ + m)Bt − (λ+m) 2
, t ∈ [0, T ]
est une (FtB )-martingale sous P. On en déduit que pour tout A ∈ FsB ,
 

 λ  (λ + m)2 s
EQ Zt 1A = EP exp (λ + m)Bs − 1A
2
   
= EP Zsλ Ls 1A = EQ Zsλ 1A .

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


3.3 Théorème de Girsanov 57

     
On en déduit que EQ Ztλ 1A = EQ Zsλ 1A , d’où EQ Ztλ | FsB = Zsλ Q p.s. pour tout
s ≤ t ≤ T . Pour tout λ ∈ R, le processus Z λ est donc une (FtB )-martingale et le théorème
de caractérisation de Paul Lévy 1.33 permet de conclure que B̃ est un (FtB , 0 ≤ t ≤ T )-
Brownien. 2

3.3 Théorème de Girsanov

Le but de cette section est d’étendre le théorème de Cameron-Martin en translatant la


trajectoire Brownienne à l’instant t par l’intégrale d’un processus non-constant Ce théorème
est d’une très grande importance pratique.

Théorème 3.3 Soit (Bt , t ≥ 0) un Brownien standard d-dimensionnel sur (Ω, F, P), et
(FtB , t ≥ 0) sa filtration naturelle complétée. Soit T > 0, (θt , 0 ≤ t ≤ T ) un processus
d-dimensionnel appartenant à H2T et pour tout t ∈ [0, T ], soit
 t 

1 t 2
Lt = exp θs dBs − θs  ds . (3.1)
0 2 0

Alors, si EP (LT ) = 1,   T

1 2
E exp θs  ds < ∞,
2 0
le processus (Lt , 0 ≤ t ≤ T ) est une (FtB )-martingale, et

Q(dω) = LT (ω)P(dω) est une probabilité équivalente à Q

Le processus défini par


  t 
Wt = Bt − θs ds, 0 ≤ t ≤ T est un (FtB ) -mouvement brownien sous Q.
0

Démonstration. Pour dégager les idées, nous ne ferons la démonstration qu’en dimension
d = 1. Soit θ ∈ H22 et (Lt , 0 ≤ t ≤ T ) le processus défini par (3.1). Alors Lt = eXt > 0 où
Xt = 0 θs dBs − 12 0 θs2 ds est un processus d’Itô. La formule d’Itô montre que sous P,
t t

1
dLt = Lt dXt + Lt θt2 dt = Lt θt dBt .
2
On en déduit que sous P, (Lt , t ∈ [0, T ]) est une martingale locale positive, donc une sur-
martingale (cf. Exercice 1.4). On a donc pour 0 ≤ t ≤ T , Lt ≥ EP (LT |FtB ). De plus,
EP (LT ) = EP (L0 ) = 1 = EP (Lt ) pour tout t ∈ [0, T ] et (Lt , 0 ≤ t ≤ T ) est donc une
(FtB )-martingale sous P.
D’après la caractérisation de Paul Lévy (Théorème 1.33 (ii)), puisque W0 = 0, pour
montrer que W est un (FtB , 0 ≤ t ≤ T )-Brownien sous Q, il suffit de montrer que sous Q
(Wt , 0 ≤ t ≤ T ) et (Wt2 − t, 0 ≤ t ≤ T ) sont des (FtB )-martingales locales continues. En
appliquant le Lemme 3.1, cela revient à prouver que les processus (Lt Wt , 0 ≤ t ≤ T ) et
(Lt (Wt2 − t), 0 ≤ t ≤ T ) sont des (FtB )-martingales locales continues sous P.
En appliquant la formule d’Itô au produit et le fait que sous P,

dWt = dBt − θt dt,

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


58 3 Théorème de Girsanov

on obtient sous P,

d(Lt Wt ) = Lt dWt + Wt dLt + dL, W t


= Lt dBt − Lt θt dt + Wt θt Lt dBt + Lt θt dt = (1 + θt Wt )Lt dBt .

On en déduit que (Lt Wt , 0 ≤ t ≤ T ) est bien une (FtB , 0 ≤ t ≤ T )-martingale locale continue
sous P. De plus, la formule d’Itô entraı̂ne que si Yt = Wt2 − t, sous P,

1
dYt = 2Wt dWt + 2dW, W t − dt = 2Wt dBt − 2Wt θt dt + dt − dt = 2Wt dBt − 2Wt θt dt.
2
En appliquant de nouveau la formule d’Itô au produit, on déduit que sous P

d(Lt Yt ) = Lt dYt + Yt dLt + dL, Y t


= 2Lt Wt dBt − 2Lt Wt θt dt + Yt Lt θt dBt + 2Wt Lt θt dt = Lt (2Wt + Yt θt )dBt .
 
Le processus (Wt2 − t)Lt , 0 ≤ t ≤ T est donc bien une (FtB )-martingale locale continue
sous P. 2

Le lemme 3.1 et le théorème 3.3 montrent que P s’écrit en fonction de Q sous la forme
dP = L−1T dQ. En transformant l’intégrale stochastique par rapport à B en une intégrale
t
stochastique par rapport à Wt = Bt − 0 θs ds, on obtient
 t 
 t 

1 t 2 1 t 2
L−1 = exp − θs dBs + θ ds = exp − θs dWs − θ ds ,
T
0 2 0 s 0 2 0 s

où il est clair que la dernière exponentielle d’intégrale stochastique par rapport au processus
W , qui est un Brownien sous Q, est une (FtB , 0 ≤ t ≤ T )-martingale sous Q.

On utilise souvent le théorème de Girsanov de la façon suivante. On dispose d’un pro-
cessus θ ∈ H2T , on pour tout t ∈ [0, T ] note Zt = 0 θs dBs et Lt = exp Zt − 12 Z, Zt . On
t

suppose que E(LT ) = 1 et on note Q la probabilité dont la restriction à Ft est Lt pour tout
t
t ∈ [0, T ]. On a d’autre part un processus H ∈ H2loc et Mt = 0 Hs dBs une (Ft )-martingale lo-
t
cale continue sous P, de crochet M, M t = 0 Hs 2 ds. Alors le processus Nt = Mt −M, Zt
est sous Q une (Ft )-martingale locale continue de crochet N, N t = M, M t (sous P ou Q,
puisque les crochets étant la variation quadratique des processus et les probabilités P et Q
étant équivalentes, les crochets sont les mêmes sous ces deux probabilités).
En effet, pour montrer cette propriété, d’après le lemme 3.1, il suffit de vérifier que sous
P, le processus Lt Nt = Lt (Mt − M, Zt ) est une (Ft )-martingale locale, ce qui découle
facilement de la formule d’Itô.

3.4 Condition de Novikov et généralisations

Le résultat suivant sera très utile dans le chapitre suivant. Il introduit une martin-
gale locale de forme exponentielle et donne des conditions suffisantes pour que ce soit une
martingale. Cette martingale exponentielle est à la base d’un changement de probabilité
fondamental en finance.

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


3.4 Condition de Novikov et généralisations 59

t
Soit θ ∈ H2loc (FtB ) un processus cadlag, (FtB )-adapté, tel que 0 θs2 ds < +∞ p.s. pour
tout t > 0 et Z0 une constante. Par la formule d’Itô, on démontre que l’unique solution de
l’EDS  t
Zt = Z0 + θs Zs dBs (3.2)
0
est  t  t 
1
Zt = Z0 exp θs dBs − θs2 ds .
0 2 0

Le processus Z est appelé l’exponentielle de Doléans-Dade de θ  B. D’après (3.2), c’est


une martingale locale. Le critère suivant permet de savoir quand l’exponentielle de Doléans-
Dade est une martingale. Il est formulé dans un cadre multidimensionnel et on pourra lire
sa démonstration dans [6], p. 200.

Théorème 3.4 (Condition de Novikov) Supposons que B est un (Ft ) Brownien standard
de dimension d, (θt ) un processus à valeurs dans Rd , (Ft )-adapté tel que
  T

1 2
E exp θs  ds < ∞.
2 0

Si pour tout t ∈ [0, T ] on note


 d   
t
1 t
Zt (θ) = exp θsi dBsi − θs 2 ds ,
i=1 0 2 0

le processus t → Zt (θ) est une (Ft , 0 ≤ t ≤ T )-martingale uniformément intégrable.

Quand la condition de Novikov n’est pas satisfaite, Zt (θ) est une martingale locale posi-
tive, donc une surmartingale, et E(Zt (θ)) ≤ E(Zs (θ)) ≤ Z0 (θ) pour tout t ≥ s ≥ 0. Il
faut remarquer que, même si la martingale locale (Zt (θ)) est uniformément intégrable, ce
n’est pas nécessairement une martingale. Par contre, si la famille de variables aléatoires
{Zτ (θ), τ temps d’arrêt} est uniformément intégrable, alors (Zt (θ)) est une martingale uni-
formément intégrable.
On dispose de critères alternatifs à la condition de Novikov en dimension 1. On pourra
lire la démonstration dans [5].

Proposition 3.5 Soit B un Brownien standard à valeurs dans Rd , θ ∈ H2T un processus à


valeurs dans Rd tel qu’il existe des instants 0 = t0 < t1 < tN = T pour lesquels pour tout
n ∈ {1, · · · , N },  tn

1 2
EP θs  ds < +∞. (3.3)
2 tn−1
t t
θs dBs − 21 θs 2 ds
Alors si pour t ∈ [0, T ] on pose Lt = e 0 0 , on a EP (LT ) = 1 et le processus
(Lt , t ∈ [0, T ]) est une (Ft )-martingale.

Démonstration. Pour tout n ∈ {1, · · · , N }, notons θ(n)t = θt 1[tn−1 ,tn [ (t). La condition de
Novikov est satisfaite par θ(n) et le Théorème 3.4 montre que si on note
 t 

1 t 2
Lt (θ(n)) = exp θ(n)s dBs − θ(n)s  ds ,
0 2 0

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


60 3 Théorème de Girsanov

on a  
EP Ltn (θ(n))|Ftn−1 = Ltn−1 (θ(n)) = 1.
On montre par récurrence sur n ≤ N que EP (Ltn ) = 1. En effet, pour tout n ∈ {1, · · · , N }
  
EP (Ltn ) = EP Ltn−1 EP Ltn (θ(n))|Ftn−1 = EP (Ltn−1 ).

Puisque tN = T , on en déduit que EP (LT ) = 1, ce qui entraı̂ne la propriété de martingale


de (Lt ) comme on l’a vu dans le début de la démonstration du Théorème de Girsanov (le
processus (Lt ) est une martingale locale positive, donc une surmartingale, dont l’espérance
est constante). 2

Le résultat suivant généralise le théorème de Novikov 3.4 pour des coefficient de dérive
qui sont fonction du Brownien. Il suffit dans ce cas d’imposer une restriction sur la croissance
du coefficient b(t, x).

Proposition 3.6 (Beneš) Soit B un Brownien standard de dimension d, T > 0 et b :


[0, T ] × Ω → Rd une fonction borélienne telle qu’il existe une constante K pour laquelle pour
tout x ∈ Rd ,
sup b(t, x) ≤ K(1 + x).
t∈[0,T ]
 t 
t 1
Alors si Lt = exp 0 b(s, Bs )dBs − 2 0
b(s, Bs )|2 ds , on a E(LT ) = 1 et (Lt , 0 ≤ t ≤ T )
est une (Ft )-martingale.

Démonstration. Soit N et pour n ∈ {0, · · · , N }, tn = NT


. Pour tout n ∈ {1, · · · , N },
 tn  
2 2T 2
b(s, Bs ) ds ≤ 2K 1 + sup Bs  .
tn−1 N 0≤s≤T

2
 constante 2c > 0, la convexité de la fonction x → exp[c(1 + x )] entraı̂ne que
Pour toute
Yt = exp c(1 + Bt  ) est une sous martingale et pour C assez petit (tel que CT < 12 )
 2 
EP eC(1+ BT ) < +∞. L’inégalité de Doob montre alors que
    C   
C(1+sup0≤t≤T Bt 2 ) (1+ B 2) 2 2
EP e = EP sup e 2 t ≤ 4 EP eC(1+ BT ) < +∞.
0≤t≤T

La proposition 3.5 permet de conclure en choisissant des instants tn tels que Δt = tn −tn−1 =
2C < T1 . 2

t
Exemple 3.7 Le choix b(t, x) = λx et l’égalité Bt2 = 2 0 Bs dBs + t (qui découle immédia-
tement de la formule d’Itô) montrent que d’après la Proposition 3.6 le processus
2 

Bt − t λ2 t 2
t → exp λ − B ds
2 2 0 s
est une (FtB )-martingale.

Le résultat suivant généralise le précédent à des coefficients de dérive qui sont fonc-
tion d’un processus plus général. Il faut par contrôler la restriction sur la croissance et les
accroissements.

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


3.5 Exemples d’application à des calculs d’espérance 61

Proposition 3.8 (Critère de Kazamaki) Si le processus (θt ) est une martingale locale telle
1
que le processus t → e 2 θt est une sous-martingale
 uniformément
 intégrable, alors l’exponen-
t 
1 t 2
tielle de Doléans-Dade Zt (θ) = exp 0 θs dBs − 2 0 θs ds est une martingale uniformément
intégrable.

Proposition 3.9 (Critère de non explosion) Soit T > 0, θt = b(t, Bs ) où b : [0, +∞[×R →
R est une fonction telle qu’il existe une constante K telle que

|b(t, x) − b(t, y)| ≤ K|x − y| , ∀x, y ∈ R , ∀t ≥ 0,
supt≤T |b(t, 0)| ≤ K.

Alors le processus (Zt , t ∈ [0, T ]) défini par


 t  t

1 2
Zt (θ) = exp b(s, Bs )dBs − b(s, Bs ) ds
0 2 0

est une (Ft )-martingale. De façon plus générale, le processus t → Zt (θ) est une (Ft )-
martingale dès que l’EDS

dXt = dBt + b(t, Xt )dt , X0 = 0

a une unique solution faible sur tout l’intervalle [0, +∞[ (ce qu’on appelle sans explosion).

3.5 Exemples d’application à des calculs d’espérance

Le théorème de Girsanov permet de calculer simplement les espérances de fonctionnelles


du Brownien. Nous traiterons trois exemples.
1) Pour calculer
  T  T

1
EP Bt exp θs dBs − θs2 ds ,
0 2 0

pour t < T , et où 


θ est une fonction déterministe
 qui appartient à L2 ([0, T ]), introduisons la
T 
densité LT = exp 0 θs dBs − 12 0 θs2 ds , puis la probabilité Q de densité LT par rapport
T
  
t 1 t 2
à P sur FT . Alors, sous P, la propriété de martingale de Lt = exp 0 θs dBs − 2 0 θs ds
B

pour la filtration naturelle du Brownien et le théorème de Girsanov montrent que si Wt =


t
Bt − 0 θs ds,
 t
 t
EP (Bt LT ) = EP (Bt Lt ) = EQ (Bt ) = EQ Wt + θs ds = θs ds.
0 0

  t
Dans le cas particulier θ = 1, on en déduit EP Bt eBt = t e 2 (ce que l’on peut bien sûr
retrouver en utilisant directement la loi de Bt ).

2) Reprenons le calcul du call fait dans la section 2.6.2. Rappelons qu’il nous faut calculer
 
r(t−T ) &t,x +
C(t, x) = E e (ST − K) ,

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


62 3 Théorème de Girsanov

 2

avec S&Tt,x = xeσ(BT −Bt )+ r− σ2 (T −t)
. La loi de BT − Bt est égale à celle de BT −t , donc
  2

! +
r(t−T ) σBT −t + r− σ2 (T −t)
C(t, x) = EP e xe −K
 σ2

= EP xeσBT −t − 2 (T −t) 1 σBT −t +(r− σ2 )(T −t)
{xe 2 >K}
 σ2

− Ker(t−T ) P xeσBT −t +(r− 2 )(T −t) > K .

Introduisons la densité de probabilité


 T −t 

1 T −t 2 1 2
LT −t = exp σdBs − σ ds = exp σBT −t − σ (T − t) .
0 2 0 2

Alors si Q désigne la probabilité de densité LT −t par rapport à P, Ws = Bs − σs est un


(FsB )-Brownien sous Q. De plus en écrivant Bs = Ws + σs, on en déduit
⎛ ⎞

⎝ ⎠ σ2
EP xLT −t 1 σB + r− σ2 (T −t)
 = xQ σWT −t + r + (T − t) > ln(K/x) .
xe T −t ( 2 ) >K 2

L’autre terme à calculer est similaire, puisqu’il s’écrit



−r(T −t) σ2
Ke P σBT −t + r − (T − t) > ln(K/x) .
2

On en déduit immédiatement l’expression de C(t, x) trouvée dans la section 2.6.2 à l’aide


de la fonction de répartition F de la gaussienne centrée réduite et des réels d1 et d2 ,

C(t, x) = xF (d1 ) − Ke−r(T −t) F (d2 ),


 r(T −t)

1 xe 1 2 √
d1 = √ ln + σ (T − t) et d2 = d1 − σ T − t ;
σ T −t K 2
le lien entre d1 et d2 est évident.

Remarquons d’ailleurs une formule importante sur la dualité call-put. Le put dual de C
est défini pour t ∈ [0, T ] par
   
r(t−T ) t,x +
P (t, x) = E e K − S̃T .

Clairement,  
C(t, x) − P (t, x) = er(t−T ) E(S̃Tt,x ) − K = x − K e−r(T −t) .

Il est souvent plus judicieux de calculer le put (par simulation en utilisant une méthode de
Monte-Carlo car sa variance est inférieure à celle du call, ce qui améliore la précision pour
un nombre de simulations fixé), puis d’en déduire le call grâce à la formule de dualité. On
pourra trouver directement la valeur du put en appliquant le théorème de Girsanov par une
technique similaire à celle utilisée pour évaluer le call.

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


3.6 Théorème de représentation prévisible 63

Dans ce modèle, si on rapporte le prix de l’actif risqué à l’instant t à celui de l’actif sans
risque, c’est à dire si on étudie
 2

−rt σBt + b−r− σ2 t
S̄t = e St = e ,

le Théorème de Girsanov montre que si λ = b−r


σ
, à chaque instant T > 0 en choisissant la
probabilité Q de densité

λ2
LT = exp −λBT − T
2
par rapport à P, le processus (Wt = Bt + λt, 0 ≤ t ≤ T ) est une (Ft , 0 ≤ t ≤ T )-martingale
2
sous Q et pour t ≤ T on a S̄t = exp(σWt − σ2 t). Ceci entraı̂ne que sous Q, (S̄t , 0 ≤ t ≤ T )
est une (Ft , 0 ≤ t ≤ T )-martingale. On dit que cette probabilité Q est la probabilité risque
neutre.

3) Enfin, pour calculer  



λ2 T 2
I = EP Φ(BT )e− 2 0 Bs ds ,
on introduit pour t ∈ [0, T ]
 

t
λ2 t
Lt = exp −λ Bs dBs − Bs2 ds .
0 2 0

Le critère de de Beneš (Proposition 3.6) ou de non-explosion (Proposition 3.9) appliqué à


la fonction b(s, x) = −λx montre que (Lt , 0 ≤ t ≤ T ) est une (Ft )-martingale. De plus, la
formule d’Itô (Exemple 3.7) montre que 0 Bs dBs = 12 (Bt2 − t), c’est à dire que
t

Bt2 − t λ2 t 2
Lt = exp −λ − B ds .
2 2 0 s
t
De plus sous Q, Wt = Bt + λ 0 Bs ds est un Brownien, c’est à dire que sous Q,
 t
Bt = Wt − λ Bs ds
0

est un processus
t d’Ornstein-Uhlenbeck. D’après l’exercice
 12.2, sous Qla variable aléatoire
Bt = e−λt 0 eλs dBs et suit une donc loi gaussienne N 0, 2λ (1 − e−2λt ) . De plus

2

B 2 −T B −T
λ T2 λ T2
I = EP LT e Φ(BT ) = EQ Φ(BT ) ,

et cette dernière intégrale se calcule de façon explicite à l’aide de la densité de la gaussienne


BT sous Q.

3.6 Théorème de représentation prévisible

Dans toute cette section, B est un Brownien standard et (FtB ) est sa filtration naturelle
(complétée). Cette hypothèse est cruciale. Nous ne manipulerons qu’une probabilité P et
noterons E l’espérance sous P. Nous allons vérifier que dans ce cas, toute (FtB )-martingale
locale continue nulle en 0 peut être écrite comme l’intégrale stochastique d’un processus de
H2loc .

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


64 3 Théorème de Girsanov

Montrons tout d’abord une propriété de représentation des variables aléatoires FT -


mesurables de carré intégrable pour P.
Nous commençons par montrer un lemme technique sur une famille de variable aléatoires
dense dans L2 (FTB ), qui explique comment la mesurabilité par rapport à la tribu FTB est
utilisée.

Lemme 3.10 Pour tout T > 0, la famille de variables aléatoires {Ψ(Bt1 , · · · , Btn ) : 0 <
t1 < · · · tn ≤ T, ψ ∈ C0∞ } est dense dans L2 (FTB ).

Démonstration. Soit (tk , k ∈ N) la suite des éléments de Q∩[0, T ] et pour tout n ≥ 1, soit Bn
la tribu engendrée par les variables aléatoires Btk , 1 ≤ k ≤ n. La suite (Bn ) est une filtration
et la tribu B∞ = σ(Bti , i ≥ 1) est égale à FTB . De plus, pour tout X ∈ L2 (FTB ), la suite de
variables aléatoires Xn = E(X | Bn ), n ≥ 1 est une martingale qui converge vers X p.s. et
dans L2 . Par définition de Bn , chaque variable aléatoire Xn est de la forme gn (Bt1 , · · · , Btn ),
avec une fonction gn borélienne. Enfin, pour tout  > 0, la variable aléatoire gn (Bt1 , · · · , Btn )
peut être approchée dans L2 (dP) à  près par une variable aléatoire Ψn (Bt1 , · · · , Btn ) avec
une fonction Ψn de classe C ∞ à support compact. 2

Théorème 3.11 Soit Z une variable aléatoire FTB -mesurable de carré intégrable. Il existe
un unique processus (Ht , 0 ≤ t ≤ T ) appartenant à H2T et tel que
 T
Z = E(Z) + Hs dBs . (3.4)
0

Démonstration.
t L’unicité de H vient de l’unicité du processus d’Itô Zt = E(Z|FtB ) = E(Z)+
0
Hs dBs pour 0 ≤ t ≤ T (qui est une martingale si H ∈ H2T ).
Pour prouver l’existence, nous procéderons en trois étapes.
T
(i) Notons H = { 0 Hs dBs : H ∈ H2T }. C’est un sous-espace vectoriel de L2 (FTB ), ses
éléments sont d’espérance nulle et il est isométrique à l’ensemble H2T qui est fermé pour la
norme L2 ([0, T ] × Ω) et la mesure dλ ⊗ dP. H est donc un sous-espace fermé de L2 (FTB ).
T
Pour tout Z ∈ L2 (FTB ), notons 0 Hs dBs la projection orthogonale de Z − E(Z) sur H.
Alors,  T
Z = E(Z) + &
Hs dBs + Z,
0

où Z& est une variable aléatoire de carré intégrable, centrée et orthogonale à H.

(ii) Montrons que Z& est orthogonale à l’ensemble


  T  T

1 2 2
E = exp f (s)dBs − f (s) ds : f ∈ L ([0, T ]) .
0 0 2
T T
Soit f ∈ L2 ([0,
 T ]) ; alors 0
f (s)dB s estune variable aléatoire gaussienne N (0, 0
f (s)2 ds)
T
et X = exp 0 f (s)dBs − 12 0 f (s)2 ds est donc d’espérance égale à 1. Il suffit de montrer
T

que si X ∈ E, X − 1 ∈ H. Soit X ∈ E et pour tout t ∈ [0, T ], soit


 t 
1 t
ξt = f (s)dBs − f (s)2 ds , et Mt = exp(ξt ).
0 2 0

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


3.6 Théorème de représentation prévisible 65

Alors, X = MT = exp(ξT ).
La formule d’Itô montre que dMt = Mt dξt + 12 Mt f (t)2 dt = Mt f (t)dBt . On en déduit que
 T
X = MT = 1 + Mt f (t)dBt
0

et il reste donc à prouver que t → Mt f (t) ∈ H2T . Le théorème de Fubini entraı̂ne


 T
 T
2 2
E Mt f (t) dt = E(Mt2 )f (t)2 dt
0 0
 T     t 2
t 1 t 2
= E e 0 2f (s)dBs − 2 0 4f (s) ds e 0 f (s) ds f (t)2 dt
0
 T 
t 2
= e 0 f (s) ds f (t)2 dt.
0
T  
T
Si f 22 = 0
2
f (s) ds, on en déduit que E 0
Mt2 f (t)2 dt ≤ f 22 exp(f 22 ) < +∞.

(iii) Il reste à montrer que toute variable aléatoire Y orthogonale à E est nulle p.s., c’est
à dire que l’espace vectoriel engendré par E est dense dans L2 (FTB ).
Soit X ∈ L2 (FTB )tel que pourtout Y ∈ E, E(XY ) = 0. Alors, pour toute fonction f ∈
T
L2 ([0, T ]), E X exp 0 f (s)dBs = 0. Considérons une subdivision t0 = 0 < t1 < · · · <

tn ≤ T et soit f = nj=1 aj 1]tj−1 ,tj ] une fonction étagée. Pour tout choix de la subdivision et
des constantes bj = aj − aj+1 pour j < n et bn = an , on en déduit que
 n !

Φ(b) = E X exp bj Btj = 0, ∀b ∈ Rn .
j=1

Par prolongement analytique, on en déduit que Φ(b) = 0 pour tout b ∈ Cn .


Soit Ψ une fonction
 de classe C ∞ à support compact et Ψ̂ sa transformée de Fourier
définie par Ψ̂(y) = Rn Ψ(x) exp[i(x, y)]dx. La formule d’inversion de Fourier montre alors

que Ψ(x) = (2π)−n Rn Ψ̂(y) exp[−i(x, y)]dy. On en déduit en appliquant le théorème de
Fubini
  
E [XΨ(Bt1 , · · · , Btn )] = (2π) −n
Ψ̂(y)E X(ω)e−i[y1 Bt1 (ω)+···+yn Btn (ω)] dy
R
n

= (2π)−n Ψ̂(y)Φ(−iy)dy = 0.
Rn

Le lemme 3.10 termine la démonstration. 2

Le théorème suivant est très important en finance. Il permet de trouver des portefeuilles
de couverture.
Théorème 3.12 (Théorème de représentation des martingales Browniennes) Soit B un
Brownien standard, (FtB ) sa filtration naturelle, M une (FtB )-martingale locale. Alors il
existe x ∈ R et θ ∈ H2loc tels que
 t
Mt = x + θs dBs .
0

Si M est une vraie (Ft )-martingale de carré intégrable, alors θ ∈ H2 .

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


66 3 Théorème de Girsanov

Démonstration. Supposons que M est une martingale de carré intégrable et que M0 = 0.


Fixons T > 0 ; d’après le Théorème 3.11, il existe un processus (θtT , 0 ≤ t ≤ T ) ∈ H2T
T 
tel que MT = 0 θtT dBt p.s. L’unicité montre que si T < T , les processus θT et θT sont
égaux dt ⊗ dP-p.p. sur [0, T ] × Ω. On peut donc définir presque partout un processus θ en
posant Ht = HtT pour 0 ≤ t ≤ T . On en déduit que θ. 1[0,T ] (.) appartient à H2T et que
T
MT = 0 θs dBs .
Le résultat sur les (FtB )-martingales locales est admis ; on remarquera que dans ce cas,
ces martingales locales sont automatiquement continues. 2

Signalons enfin que dans certains cas, la formule de Clark-Ocone - voir [8] - donne une
représentation explicite du processus θ.

3.7 Existence de solutions faibles

Le théorème de Girsanov permet de montrer l’existence d’une solution faible à des EDS
qui n’admettent pas forcément de solution forte. C’est une généralisation de la condition de
Novikov qui permet de faire le changement de probabilité.

Proposition 3.13 Soit B un Brownien standard à valeurs dans Rd , T > 0 et b : [0, T ]×Ω →
Rd une fonction borélienne telle qu’il existe une constante K pour laquelle pour tout x ∈ Rd

sup b(t, x) ≤ K(1 + x). (3.5)


t∈[0,T ]

Alors pour tout x ∈ Rd , l’EDS


 t
Xt = x + Bt + b(s, Xs )ds , 0 ≤ t ≤ T (3.6)
0

(i) (i) (i)


), P (i) , B (i) , X (i) ),
 plus, si (Ω , F , (Ft 
admet une solution faible sur l’intervalle [0, T ]. De
T (i)
i = 1, 2 sont deux solutions faibles telles que P (i) 0 b(t, Xt )2 dt < +∞ = 1, les couples
(B (i) , X (i) ) ont la même loi sur leurs espaces respectifs.

Démonstration. Pour prouver l’existence d’une solution faible, soit (Ω, F, (Ft ), P) un espace
filtré et un Brownien B pour la filtration (Ft ). Les conditions de restriction sur la croissance
imposées à b et la Proposition 3.6 montrent que pour tout x ∈ Rd , le processus
 d   t 
t 1
Zt = exp bi (s, x + Bs )dBsi − b(s, x + Bs )2 ds , 0 ≤ t ≤ T,
i=1 0
2 0

est une vraie martingale sous P. On en déduit que la mesure Q de densité ZT par rapport
à P est une probabilité et que le processus
 t
Wt = Bt − b(s, x + Bs )ds , 0 ≤ t ≤ T,
0

est un Brownien sous Q tel que W0 = 0. Ceci revient à écrire que sous Q, le processus
t
Xt = x + Bt satisfait Xt = x + Wt + 0 b(s, Xs )ds, et que (X, W, Q) est une solution faible
de (3.6) avec la filtration de départ.
On pourra lire la démonstration de l’unicité dans [6], page 304. 2

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


3.8 Exercices 67

3.8 Exercices

Exercice 3.1 Soit B un Brownien de dimension 1, α et β des constantes positives. On veut


calculer 

2 β2 t 2
I = E −αBt − B ds .
2 0 s
1. Montrer que le processus défini par


β 2 β2 t 2
Lt = exp − (Bt − t) −
β
B ds
2 2 0 s

est une (Ft )-martingale sous P.


2. Soit Q la probabilité définie par dQ|Ft = Lβt dP|Ft . Montrer que sous la probabilité Q,
t
Bt = Wt − β 0 Bs ds où W est un Brownien.
3. En déduire que

β 2
I = EQ exp(−αBt2
+ (Bt − t)) .
2
 − 21

En utilisant l’exercice 2.2, en déduire que I = cosh(βt) + β sinh(βt) .
4. En déduire que pour tout λ ∈ R,
  t
  − 12
2

EP exp −λ Bs ds = cosh( 2λt) .
0

Exercice 3.2 Soit (ht ) et (Ht ) des processus


r(Ft)-adaptés de dimension
r r ett Bk unk (Ft )-
t k k
Brownien de dimension r. Notons Mt = h
k=1 0 s dBs et N t = k=1 0 Hs dBs . On
suppose
 que h satisfait
 la condition de Novikov et on note Q la probabilité de densité
1
exp Mt − 2 M t sur Ft . Montrer que le processus (Nt − M, N t ) est une (Ft )-martingale
sous Q.

Exercice 3.3 Soit α, β et γ des constantes réelles.


   t 
t
1. Calculer E 0 eBs ds , puis E eαBt 0 eβBs ds .
t
2. Soit A(t, γ) = 0 eBs +γs ds. En utilisant le théorème de Girsanov, montrer que le calcul
de E(A(t, γ)) se ramène au cas γ = 0. Peut-on calculer directement E(A(t, γ)) ?

Exercice 3.4 Soit (Bt ) un Brownien de dimension 1, α, β et σ des fonctions déterministes


t
bornées de R dans R. On suppose que σ ne s’annule pas et on note b(t) = 0 β(s)ds. On
note enfin (rt ) le processus solution de l’EDS

drt = σ(t) dBt + [α(t) − β(t) rt ] dt , r0 ∈ R.

1. Montrer que
 t  t

−b(t) b(u) b(u)


rt = e r0 + σ(u)e dBu + α(u)e du .
0 0

2. Calculer E(rt ) et Cov(rs , rt ) pour 0 ≤ s ≤ t.

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


68 3 Théorème de Girsanov

3. Soit θ(s) = − α(s)


σ(s)
; on suppose que θ est bornée et on note
 t  t

1 2
Lt = exp θ(s)dBs − θ(s) ds .
0 2 0
t
On note Q1 la mesure sur Ft de densité Lt par rapport à P et Wt1 = Bt − 0
θ(s)ds.
Montrer que (rt eb(t) , t ≥ 0) est une (Ft )- martingale sous Q1 .
4. Soit (Zt ) la solution de l’EDS dZt = Zt β(t) L dWt1 et Z0 = 1. Notons Q2 la probabilité
σ(t) t
sur Ft de densité Zt par rapport à P. Montrer que (rt ) est une (Ft )-martingale sous
Q2 .

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


69

4 Applications à la finance

Conventions de notations
Soit (Ω, F, P) un espace probabilisé, (Bt , 0 ≤ t ≤ T ) un Brownien standard de dimension
k, (Ft , 0 ≤ t ≤ T ) sa filtration naturelle complétée.

4.1 Modélisation d’un marché financier en temps continu

Reprenons de façon plus générale le modèle décrit dans la section 2.6.2.


4.1.1 Modélisation d’un marché à d actifs risqués et k facteurs
On considère un marché financier sur lequel les actifs sont négociés en temps continu.
Certains de ces actifs dits risqués sont aléatoires et décrits à l’aide d’un Brownien standard
k-dimensionnel B.
Le marché comprend d + 1 actifs de base (Sti , 0 ≤ i ≤ d, t ≥ 0) et de leurs produits
dérivés. On suppose qu’aucun de ces actifs ne verse de dividende, qu’il n’y a pas de coût
de transaction, que l’on peut acheter et vendre en temps continu et que les actifs sont
indéfiniment divisibles (leur valeur est un nombre réel). On suppose enfin qu’à chaque instant
la valeur de l’actif i, soit Sti , est un processus d’Itô construit à partir de B et à valeurs
p.s. strictement positives. On note St = (St0 , · · · , Std ) pour tout t ≥ 0. Tous les résultats
s’étendraient au cas de semi-martingales continues presque sûrement positives.

Exemple 4.1 Modèle de Black & Sholes Par exemple dans le modèle de Black & Sholes
de la section 2.6.2, l’actif S 0 est sans risque tel que dSt0 = rS 0 dt et S00 = 1, c’est à dire que
St0 = ert . On dispose aussi d’un actif risqué qui est un Brownien géométrique solution de
l’EDS dSt1 = σSt1 dBt + bSt1 dt. On sait que si S01 > 0, St1 > 0 p.s. pour tout t ≥ 0.
On verra dans la suite un modèle de Black & Sholes généralisé dans lequel l’actif  sans 
0 0 t
risque a un taux d’intérêt rt ∈ H1 , c’est à dire toujours avec S0 = 1, que St = exp 0 rs ds
loc

et les d actifs risqués S i , 1 ≤ i ≤ d sont des processus d’Itô généraux à valeurs stricte-
ment positives On appelle alors volatilité stochastique de l’actif S i à l’instant t le quotient
(σji (t), 1 ≤ j ≤ k) entre le coefficient de diffusion et le cours Sti et on note de même bi (t) le
rapport entre le coefficient de dérive et le cours, c’est à dire que pour tout i = 1, · · · , d,


k
dSti = σji (s)Ssi dBsj + bi (s)Ssi ds.
j=1

Définition 4.2 Un numéraire est un actif dont le cours est processus d’Itô (St ) tel que
St > 0 p.s. pour tout t.

On prend l’actif S 0 du modèle de Black & Sholes généralisé comme numéraire avec 1
0
 0, c’est à dire S0 = 1. A la date t > 0, on rapporte la valeur
comme unité monétaireà la date
 t
des actifs à St0 = exp 0 rs ds , ce qui revient à comparer leurs performances à celles de
l’actif sans risque en les comparant à 1. Un autre actif Xt vaut, dans cette nouvelle unité
 t

Xt
X̃t = 0 = Xt exp − rs ds .
St 0

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


70 4 Applications à la finance

On dispose également d’actifs contingents ou dérivés dont l’évolution des prix


dépend de celle des actifs de base S i , 0 ≤ i ≤ d. Plus précisément, on se donne à une date
T > 0 appelée maturité de l’actif sa valeur ζ qui peut dépendre de toutes les trajectoires
des actifs de base (Sti , i = 0, · · · , d, 0 ≤ t ≤ T ). La valeur de l’actif à l’instant T est donc
une variable aléatoire FT -mesurable. Pour un call européen dans le cas du modèle de Black
& Sholes, on a ζ = (ST1 − K)+ .
On cherche à dupliquer l’actif contingent ζ. On dispose d’une somme initiale qui est
à chaque instant répartie entre les divers actifs de base sans adjonction ni retrait d’argent,
de telle sorte qu’à la date T , la somme des placements faits sur ces actifs soit égale à ζ. Le
but est de trouver l’investissement initial et la façon de répartir à chaque instant la somme
dont on dispose entre les divers actifs pour qu’à la date T l’investissement global sur les
d + 1 actifs soit ζ.
4.1.2 Description des stratégies
Formalisons cette duplication par la définition suivante.

Définition 4.3 Une stratégie est un processus Θ = (θs0 , · · · , θsd ), s ∈ [0, T ]) tel que chaque
t
composante θi soit (Ft )-progressivement mesurable et 0 θsi dSsi existe pour tout i = 0, · · · , d.

Dans le cas du modèle de Black & Sholes à deux actifs à coefficients constants, puisque
les processus S 0 et S 1 sont à trajectoires continues, donc p.s. bornées sur [0, T ], il suf-
fit donc d’imposer que les  t coefficients
 θ0 ∈ H1loc et θ1 ∈ H2loc . En effet, dans ce cas les
t t
intégrales déterministes 0 θs0 ers ds, 0 θs1 bSs1 ds et l’intégrale stochastique 0 σθs1 Ss1 dBs se-
ront bien définies.
Rappelons les hypothèses faites sur le marché (décrites dans la section 2.6.2) :
– Il n’y a aucun coût de transaction pour l’achat et la vente de titres.
– On permet la vente à découvert sans limite, c’est à dire que les θti peuvent prendre des
valeurs négatives et ne sont pas minorés.
– Les actifs sont indéfiniment divisibles, c’est à dire que l’on peut acheter un vendre
une proportion arbitraire d’un titre ; les processus θi peuvent donc prendre toutes les
valeurs réelles.
– Le trading se fait en temps continu, c’est à dire que l’on peut acheter ou vendre à
chaque instant réel t ∈ [0, T ].

La valeur du portefeuille VtΘ associé à la stratégie Θ à l’instant t est


d
VtΘ = (θt , St ) = θti Sti . (4.1)
i=0

Le fait qu’on n’ajoute ni retire de l’argent est modélisé par la définition suivante :

Définition 4.4 Une stratégie Θ est autofinancée


d  t(ou le portefeuille V Θ associé est autofi-
Θ Θ
nancé) si pour tout t ∈ [0, T ], Vt = V0 + i=0 0 θs dSsi p.s.
i

Les changements de valeur du portefeuille viennent dont uniquement de la répartition des


placements entre les divers actifs de base et des changements de valeur de ces actifs.
Nous serons amenés dans la suite à changer de numéraire afin que les processus qui
modélisent le prix des actifs de base ainsi actualisés aient des propriétés de martingale. Le
résultat suivant montre que le caractère autofinancé n’est pas affecté par un tel changement.

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


4.1 Modélisation d’un marché financier en temps continu 71

Si
Proposition 4.5 Soit (Xt , t ∈ [0, T ]) un numéraire, Xtt le prix à l’instant t de l’actif ac-
tualisé après changement de numéraire. Si la stratégie Θ est autofinancée, le portefeuille

actualisé après changement de numéraire Xt t reste autofinancé.

Démonstration. Puisque X est un processus d’Itô strictement positif, Y = X1 est également


un processus d’Itô strictement positif et la formule d’Itô entraı̂ne que pour tout i = 0, · · · , d,
i

St
d = d(Sti Yt ) = Sti dYt + Yt dSti + dS i , Y t .
Xt

Si le processus V Θ est autofinancé, dVtΘ = di=0 θti dSti p.s. et V Θ est un processus d’Itô. On
en déduit en appliquant de nouveau la formule d’Itô
Θ

Vt
d = VtΘ dYt + Yt dVtΘ + dV Θ , Y t
Xt
i

d
 i i  d
St
= θt St dYt + Yt θt dSt + θt dS , Y t =
i i i i i
θt d . 2
i=0 i=0
Xt

La notion suivante est également conservée par un changement de numéraire.


Définition 4.6 Une stratégie Θ est à richesse positive si elle et autofinancée et si pour tout
t ∈ [0, T ], VtΘ ≥ 0 p.s.
Si on actualise avec comme numéraire l’actif non risqué S 0 , les prix actualisés des actifs
de base sont S̃t = (1, S̃t1 , · · · , S̃td ). Ce sont de nouveaux processus d’Itô et un portefeuille est
autofinancé si et seulement si après actualisation

d
dṼtΘ = θti dS̃ti , ∀t ∈ [0, T ].
i=1

On en déduit qu’un portefeuille autofinancé est entièrement déterminé par sa valeur initiale
V0Θ et les quantités investies sur les actifs risqués (θti , i = 1, · · · , d, t ∈ [0, T ]). En effet,
dS̃t0 = 0, Ṽ0Θ = V0Θ ,
d  t
d
Θ Θ i i 0 Θ 0
Ṽt = V0 + θs dS̃s et θt peut être déduit par Ṽt = θt + θti S̃ti .
i=1 0 i=1

Puisque après actualisation l’actif non risqué est constant, c’est une martingale (triviale).
On souhaiterait transformer les autres actifs en martingales. Le chapitre précédent a montré
que ceci était possible au prix d’un changement de probabilité qui peut annuler le terme de
dérive.
4.1.3 Absence d’opportunité d’arbitrage - Mesure martingale équivalente
Ceci amène à la définition suivante de stratégie admissible.
Définition 4.7 (i) On appelle mesure martingale équivalente une probabilité Q équivalente
à P telle que sous Q les prix actualisés S̃ i , i = 1, · · · , d sont des (Ft )-martingales.
k Plus
précisément, on suppose qu’il existe un Brownien W sous Q tel que dS̃t = j=1 Hj (t)dWtj .
i i

(ii) Soit Q une mesure martingale équivalente. On dit que la stratégie Θ est Q-admissible
si elle est autofinancée et si (ṼtΘ , 0 ≤ t ≤ T ) est une (Ft , 0 ≤ t ≤ T ) martingale sous Q.

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


72 4 Applications à la finance

La notion suivante est fondamentale ; elle traduit que le marché fonctionne correctement
et qu’il n’y a pas de free lunch , c’est à dire de moyen de gagner une somme strictement
positive à l’instant T en n’ayant rien investi au départ. C’est la notion inverse (possibilité
de free lunch ) qui est décrite dans la définition suivante :
Définition 4.8 (Opportunité d’arbitrage) Une stratégie autofinancée Θ est appelée possibi-
lité d’arbitrage si
(i) V0Θ = 0 et VTΘ ≥ 0 p.s.
(ii) P(VTΘ > 0) > 0.
Un marché sain doit avoir la propriété d’absence d’opportunité d’arbitrage, notée
AOA. Deux probabilités équivalentes ayant les mêmes ensembles négligeables, dans la défini-
tion d’opportunité d’arbitrage, on peut remplacer P par une mesure martingale équivalente
Q.
Le résultat suivant montre que l’existence d’une mesure martingale équivalente Q exclut
l’opportunité d’arbitrage quand on se restreint aux stratégies Q-admissibles ou bien à ri-
chesse positive. Dans le cas du modèle de Black & Sholes nous verrons qu’il y a équivalence
entre cette dernière propriété et AOA.

Théorème 4.9 S’il existe une mesure martingale équivalente Q, alors :


(i) il y a absence d’opportunité d’arbitrage parmi les stratégies Θ qui sont Q-admissibles.
(ii) il y a absence d’opportunité d’arbitrage parmi les stratégies Θ à richesse positive.

Démonstration.
(i) Soit Θ une stratégie admissible. Alors V0Θ = Ṽ0Θ = EQ (ṼTΘ | F0 ) = EQ (ṼTΘ ). Si ṼTΘ ≥ 0,
Q p.s. et si P(VTΘ > 0) > 0, on en déduit que P(ṼTΘ > 0) > 0, puis que Q(ṼTΘ > 0) > 0
puisque P et Q sont équivalentes. On a donc EQ (ṼTΘ ) > 0, ce qui exclut V0Θ = 0.
k j
(ii) Soit Θ une stratégie à richesse positive ; si on note dS̃ti = i
j=1 Hj (t)dWt pour
t ∈ [0, T ], où (Wt , 0 ≤ 
t ≤ T) est un Q Brownien standard de dimension k, alors pour
tout t ∈ [0, T ], dṼtΘ = di=1 kj=1 θti Hji (t)dWtj Q p.s. On en déduit que Ṽ Θ est une (Ft )-
martingale locale positive sous Q ; c’est donc une surmartingale (cf. Exercice 1.4 (i)). On
a donc pour tout t ∈ [0, T ], EQ (ṼtΘ |F0 ) ≤ Ṽ0Θ = V0Θ Q p.s. Donc si Θ est une possibilité
d’arbitrage, EQ (ṼTΘ ) ≤ 0. D’autre part, puisque ṼTΘ ≥ 0 P p.s., donc Q p.s puisque P et Q
sont équivalentes, on en déduit ṼTΘ = 0 Q p.s., donc P p.s., ce qui fournit une contradiction.
2

Il faut prendre garde à une difficulté propre au temps continu : l’existence d’une mesure
martingale équivalente n’entraı̂ne pas l’absence d’opportunité d’arbitrage sans restriction
sur les stratégies. En effet, si Z est une variable aléatoire FTB -mesurable de carré intégrable
centrée (non identiquement nulle), le théorème 3.11 montre qu’il existe H ∈ H2T (sous Q)
T
telle que Z = 0 Ht dWs . On peut en déduire dans le modèle de Black & Sholes une stratégie
autofinancée Θ = (θt0 , θt1 ) telle que Ṽ0Θ = 0 et ṼTΘ = Z.
4.1.4 Probabilité risque neutre
Dans toute cette section, on suppose qu’il existe une mesure martingale Q
équivalente à P.

Définition 4.10 On dit qu’un actif donné par sa valeur à l’instant terminal T par une
variable aléatoire FT -mesurable ζ est Q-duplicable s’il existe une stratégie Θ Q-admissible

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


4.1 Modélisation d’un marché financier en temps continu 73

telle que ζ est la valeur terminale du portefeuille associé, c’est à dire si ζ = VTΘ Q presque
sûrement. On dit alors que la stratégie Θ duplique l’actif à l’instant T , ou est duplicante .

Ceci veut dire intuitivement que le portefeuille duplique l’actif dans tous les états du
monde c’est à dire pour P (ou Q) presque tout ω.
On montrera à titre d’exercice que si un actif est duplicable à l’instant T il le reste après
changement de numéraire avec la même stratégie.
Le résultat suivant montre que la valeur du portefeuille à tout instant t ≤ T est
indépendante de la stratégie duplicante (mais peut dépendre de Q).

Théorème 4.11 Soit T > 0, ζ un actif dérivé (une variable aléatoire FT -mesurable) Q-
duplicable. Alors si Θ est une stratégie duplicante et V Θ le portefeuille associé, pour tout
instant t ∈ [0, T ], VtΘ = St0 EQ (ṼTΘ |FT ) (Q ou P p.s.) est indépendant de la stratégie dupli-
cante. On l’appelle le prix de l’option à l’instant t.

Démonstration. Pour tout t ∈ [0, T ], ṼtΘ = EQ (ṼTΘ |Ft ), c’est à dire que Q p.s.


Θ 0 ζ 
Vt = St EQ Ft ,
ST0
est indépendant de la stratégie Θ. 2

De façon évidente, si une stratégie Q-admissible Θ duplique un actif ζ ≥ 0, elle est à


richesse positive. Cependant, une stratégie à richesse positive ne détermine pas de façon
unique le prix du produit dérivé. En effet Harrison et Pliska ont montré qu’il existe une
stratégie Φ à richesse positive telle que V0Φ = 1 et VTΦ = 0 ; cette stratégie est parfois
appelés stratégie suicide. Clairement, si Θ est une stratégie qui duplique ζ, Θ + Φ duplique
également ζ.

En revenant au modèle de Black & Sholes, nous avons vu à la fin du chapitre précédent


2
que si λ = b−r
σ
, la probabilité Q de densité exp(−λBT − λ2 T ) par rapport à P telle que sous
Q (S̃t = e−rt St , t ≥ 0) est une Q-martingale et le calcul précédent montre que sous Q, si ζ
est une variable aléatoire FT -mesurable,

VtΘ = e−r(T −t) EQ (ζ|Ft ) = ert EQ (e−rT ξ|Ft ).

Sous Q, l’actualisation de l’espérance conditionnelle EQ (ζ|Ft ) se fait à l’aide du facteur


exponentiel exp(−r(T − t)), c’est à dire avec le coefficient d’actualisation r. Les coefficients
de la diffusion S ont disparu de cette formule, comme si les investisseurs étaient neutres par
rapport au risque. On appelle Q la probabilité risque neutre. La probabilité P de départ
est appelée probabilité réelle , historique ou objective .
Le problème qui subsiste est la possibilité de dupliquer un actif.

Définition 4.12 (i) On dit que le marché est complet si tout actif est duplicable.
(ii) Soit Q une mesure martingale équivalente. On dit que le marché est Q-complet si
pour toute variable aléatoire FT -mesurable ζ telle que Sζ0 ∈ L1 (Q), l’actif de valeur terminale
T
ζ est Q-duplicable.

Remarquons que par absence d’opportunité d’arbitrage, on a naturellement unicité de


la mesure martingale équivalente Q telle que le marché est Q-complet.

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


74 4 Applications à la finance

Théorème 4.13 Supposons que le marché est complet. Notons Q1 et Q2 sont deux mar-
tingales mesures équivalentes telles que le marché soit Qi -complet, i = 1, 2. Alors on a
Q1 |FT = Q2 |FT .

Démonstration. Soit A ∈ FT . Alors 1A ∈ L1 (Q) et ST0 1A est FT -mesurable ; c’est la valeur


terminale d’une stratégie Qi -admissible Θi , i = 1, 2. On en déduit
0

Θi Θi Θi ST 1A
V0 = Ṽ0 = EQi (ṼT ) = EQi = Qi (A).
ST0
D’après le Théorème 4.11, la valeur du portefeuille duplicant est indépendante de la stratégie ;
1
à l’instant 0 ceci traduit une absence d’opportunité d’arbitrage. On en déduit que V0Θ =
2
V0Θ , et donc Q1 (A) = Q2 (A). 2

4.2 Modèle de Black & Sholes généralisé

Nous généralisons tout d’abord le modèle de Black & Sholes à un seul actif risqué que
nous avons décrit dans les chapitres précédents et montrons que dans ce cas plus général il
existe également une mesure martingale équivalente Q dès qu’il y a absence d’opportunité
d’arbitrage.
De plus, nous donnons des conditions suffisantes pour que le marché soit Q-complet et
calculerons la stratégie de couverture d’une option, c’est à dire la stratégie duplicante Θ et
la valeur de l’option à chaque instant.  
loc 0 t
Soit r un processus dans H1 et St = exp 0 rs ds .
On dispose d’autre part de d actifs risqués S i , i = 1, · · · , d qui sont des processus d’Itô de
la forme
k  t  t
i i i i k
St = S0 + σj (s)Ss dBs + bi (s)S i (s)ds , (4.2)
j=1 0 0

où B est un Brownien standard de dimension k, les processus (σji (s), 0 ≤ s ≤ T ) et (bi (s), 0 ≤
s ≤ T ) sont progressivement mesurables et tels qu’il existe une constante M > 0 telle que
sup0≤t≤T (σ(t) + b(t)) ≤ M . Alors d’après l’exercice 2.4 pour tout i = 1, · · · , d,
 t  t

1 i 2
i
St = exp i
σ (s)dBs + (b (s) − σ (s) )ds
i
(4.3)
0 0 2
 k   t ! 
t 1 k
:= exp σji (s)dBsj + bi (s) − |σji (s)|2 ds .
j=1 0 0 2 j=1

De plus, l’équation (4.3) est aussi vérifiée si les S i sont des processus d’Itô (donc continus)
 H i (t)
tels que dSti = kj=1 Hki (s)dBsk +H0i (s)ds et tels que si on note σki (t) = Sk i pour i = 1, · · · , d
H i (t)  T
t

et bi (t) = S i0(t) , 0 (σ(s)2 + b(s))ds < +∞ p.s.


4.2.1 Absence d’opportunité d’arbitrage et changement de probabilité - Prime de
risque
Nous avons vu dans la section précédente que l’existence d’une mesure martingale équiva-
lente Q entraı̂ne l’absence d’opportunité d’arbitrage parmi les stratégies à richesse positive.
Montrons la réciproque dans ce modèle.

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


4.2 Modèle de Black & Sholes généralisé 75

Supposons qu’il y a absence d’opportunité d’arbitrage parmi les stratégies à richesse


positive.
Plaçons-nous d’abord dans le cas particulier k = 1 et d = 2 afin de dégager la no-
tion de prime de risque attachée à un facteur. Dans ce cas, un portefeuille autofinancé est
entièrement déterminé par sa valeur initiale V0Θ et les quantités θti , i ∈ {1, 2}, t ∈ [0, T ]
investies à chaque instant sur les deux actifs risqués. Pour tout t ∈ [0, T ], notons θt1 = σt2 St2
2 1 1
 t θit =i −σt St . La continuité1 de2 S et les propriétés de σ montrent que les intégrales
i i
et
θ dSs sont bien définies et (θt , θt ) est donc une stratégie autofinancée. Pour tout t ∈ [0, T ],
0 s
0
t
St = exp( 0 rs ds), et
 t 
dS̃ti = d e− 0 rs ds Sti = σti S̃ti dBt + (bit − rt )S̃ti dt,

ce qui entraı̂ne (grâce à la simplification des coefficients de dBt )


t
dṼtΘ = σt2 St2 dS̃t1 − σt1 St1 dS̃t2 = e− 0 rs ds
St1 St2 [σt2 (b1t − rt ) − σt1 (b2t − rt )]dt.

Ce portefeuille est donc sans risque et l’absence d’opportunité d’arbitrage montre que son
rendement est égal à rt , c’est à dire nul
 quand les prix sont actualisés par changement de
− 0t rs ds 1 2 2 1
numéraire. En effet, notons φ(t) = e St St [σt (bt − rt ) − σt1 (b2t − rt )], et supposons qu’il
existe un ensemble A ⊂ [0, T ] × Ω tel que dλ ⊗ P(A) > 0 et φ(t)(ω) = 0 sur A. Notons s(t)
le signe de φ(t) lorsque φ(t) = 0 et posons pour i = 1, 2,

ψ i (t) = s(t)θi (t) sur A et ψ i (t) = 0 sur Ac .

Alors la stratégie Ψ = (ψ1 , ψ2 ) est telle que

dṼtΨ = |φ(t)|dt surA, dṼtΨ = 0 surAc .


b1 −r b2 −r
La stratégie Ψ est une opportunité d’arbitrage et on en déduit donc que tσ1 t = tσ2 t .
t t
Ce quotient noté λt sera appelé prix du marché du risque Bt à la date t. Il quantifie
l’arbitrage qui est fait à l’instant t entre de rendement et le risque dans la constitution du
portefeuille.

Revenons au modèle général. Pour tout t ∈ [0, T ], la matrice σ(t) définit une application
linéaire aussi notée σ(t) : Rk → Rd de matrice σ(t) dans la base canonique,  c’est à dire
telle que pour tout x = (x1 , · · · , xk ) ∈ Rk et tout i = 1, · · · , d, (σ(t)x)i = kj=1 σji (t)xj . On

cherche un vecteur λt = (λ1t , · · · , λkt ) tel que pour tout i = 1, · · · , d, bi (t)−rt = kj=1 σji (t)λkt ,
c’est à dire que λjt est la prime de risque du Brownien Btj à l’instant t. En identifiant un
vecteur de Rk à la matrice colonne de ses composantes dans la base canonique, et en notant
1̄ = (1, · · · , 1) ∈ Rd , ceci revient à résoudre l’équation

b(t) − rt 1̄ = σ(t)λt .

Le théorème suivant montre l’existence du vecteur des primes de risque de marché λ.

Théorème 4.14 Supposons qu’il y a absence d’opportunité d’arbitrage parmi les stratégies
à richesse positive. Alors il existe λ : [0, T ] × Ω → Rk progressivement mesurable tel que
pour tout t ∈ [0, T ], b(t) − rt 1̄ = σ(t)λt .

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


76 4 Applications à la finance

Démonstration. Montrons que le vecteur b(t) − rt 1̄ ∈ Im (σ(t)). Nous admettrons alors que
le choix de λ peut être fait de façon progressivement mesurable.
Ceci revient à prouver que b(t) − rt 1̄ est orthogonal à tout vecteur du noyau de l’ap-
plication linéaire adjointe de σ(t) : Rk → Rd notée σ ∗ (t) : Rd → Rk , définie pour tout
y ∈ Rk et tout z ∈ Rd , (σ(t)y, z)Rd = (y, σ ∗ (t)z)Rk et associée à la matrice transposée de
σ(t). En effet, Im(σ(t) = Ker (σ ∗ (t))⊥ . L’inclusion Im (σ(t)) ⊂ Ker (σ ∗ (t))⊥ est évidente
par la définition de l’adjoint : pour tout y ∈ Rk et tout z ∈ Ker (σ ∗ (t)) ⊂ Rd , (σ(t)y, z)Rd =
(y, σ ∗ (t)z)Rk = 0. De plus les relations classiques entre dimension des noyau, image des appli-
cations linéaires et de l’orthogonal d’un sous-espace vectoriel montrent que dim Im (σ(t)) ≤
k −dim Ker (σ ∗ (t)) = dim Im (σ ∗ (t)). En échangeant les rôles de σ ∗ (t) et de σ(t) = (σ ∗ (t))∗ ,
on en déduit que dim Im (σ ∗ (t)) ≤ dim Im σ(t)), d’où dim Im σ(t)) = dim Im σ ∗ (t)) =
dim Ker(σ ∗ (t))⊥ , soit Im (σ(t)) = Ker (σ ∗ (t))⊥ d’après l’inclusion précédente.
Puisque les prix des actifs de base sont strictement positifs, pour tout vecteur x ∈ Rd le
i
processus Θ : Ω × [0, T ] → Rd défini pour i = 1, · · · , d par θti = Sx i permet de construite une
t
stratégie autofinancée. En effet la conditiont i id’autofinancement permet d’en déduire θt0 et
les conditions d’existence des intégrales 0 θs dSs sont bien satisfaites. On a donc x = (ΘS)t ,
où on définit le vecteur (ΘS)t par (ΘS)it = θti Sti .
Supposons qu’il existe un ensemble A ⊂ [0, T ] × Ω tel que (dt ⊗ dP)(A) > 0 et pour tout
(t, ω) ∈ A,  
σ(t)∗ (ΘS)t = 0 et (ΘS)t , b(t) − rt 1̄ = 0.
On construit alors une nouvelle stratégie autofinancée Φ et posant
 
Φt = 0 sur Ac , Φt = st Θt où st = signe (ΘS)∗t (b(t) − rt 1̄) sur A.

Pour presque tout (t, ω) ∈ A, pour tout j, di=1 θti Sti σji (t) = 0 et

t k 
d 
d t
dṼtΦ =e − 0 rs ds
st θti Sti σji (t) j
dB (t) + e− 0 rs ds θti st Sti (bi (t) − rt )dt
j=1 i=1 i=1
 d 
 
 
= S̃ti θti (bi (t) − rt ) dt,
 
i=1

tandis que dṼtΦ = 0 presque partout sur Ac . On en déduit une stratégie non risquée telle
T
que sur un ensemble de probabilité non nulle, 0 dṼsΦ ds > 0, ce qui revient à dire que Φ est
une opportunité d’arbitrage.
Puisque il y a absence d’opportunité d’arbitrage, tout vecteur x de Rd que l’on peut
écrire x = (ΘS)t , du noyau de σ(t)∗ est orthogonal à b(t) − rt 1̄. On en déduit que le vecteur
b(t) − rt 1̄ appartient à l’orthogonal du noyau de σ(t)∗ , c’est à dire à l’image de σ(t). 2

Le théorème suivant montre enfin que si le vecteur de primes de risque λ a des propriétés
supplémentaires, il existe une mesure martingale équivalente décrite explicitement à l’aide de
λ. Ceci généralise ce qui a été observé dans le modèle de Black & Sholes. En effet dans ce cas
la prime de risque λ est telle que σλ = b − r, c’est à dire que λ = b−r σ
et la probabilité
 risque

λ2
neutre Q a été construite à partir de la martingale exponentielle Lt = exp −λBt − 2
t .

Théorème 4.15 Supposons qu’il existe un vecteur de prime de risque λ : [0, T ] × Ω → Rk ,


c’est à dire un processus progressivement mesurable tel que b(t) − rt 1̄ = σ(t)λt et que :

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


4.2 Modèle de Black & Sholes généralisé 77

(i) λ ∈ H2loc (Rk ).   


t
(ii) Pour tout t ∈ [0, T ], si on pose Lt = exp − 0 λs dBs − 12 0 λs 2 ds on a
t

 T i 
1 T 2

E(LT ) = 1 et pour tout i = 1, · · · , d, EP LT e 0 σs (dBs +λs ds)− 2 0 σ (s) ds < +∞.
i

Alors la probabilité Q définie par dQ|FT = LT dP|FT est une mesure martingale équivalente
à P, c’est à dire que les prix actualisés (S̃ti ) sont des (Ft )-martingales sous Q.

Remarque 4.16 Les hypothèses de convergence des intégrales de la condition (ii) sont
satisfaites dès que les processus λ et σ i sont bornés, ou bien plus généralement si
 1 T 2 2

EP e 2 0 ( λ(s) + σ (s) )ds < +∞.
i

En effet, dans ce cas les deux martingales locales sont des martingales exponentielles.

Démonstration. Il suffit d’appliquer le théorème de Girsanov. La probabilité Q est équivalente


à P et le processus défini pour j = 1, · · · , k et t ∈ [0, T ] par
 t
Wtj = Btj + λjs ds
0

est une Q-martingale ; de plus sous Q,

dS̃ti = S̃ti σ i (t)dBt + S̃ti [bi (t) − rt ]dt = S̃ti σ i (t)dWt .

De plus la seconde condition d’intégrabilité montre


 que la condition de Novikov
 (Théorème

t i 
1 t 2
3.4) est satisfaite et assure que le processus exp 0 σs dWs − 2 0 σ (s) ds , t ∈ [0, T ]
i

est une Q-martingale ; ceci termine la démonstration grâce à la forme explicite de S̃ti (sous
Q) à l’aide de W montrée dans l’exercice 2.4. 2
4.2.2 Complétude du marché
On se place sous les hypothèses du Théorème 4.15 : on note Q la probabilité
de densité LT par rapport à P, telle que sous Q les processus (S̃ti , 0 ≤ t ≤ T ) sont
des (Ft , 0 ≤ t ≤ T )-martingales.
Soit ζ une variable aléatoire FT -mesurable Q intégrable après changement de numéraire.
On veut montrer que l’actif de valeur terminale ζ est duplicable. Ceci nécessite une hypothèse
de rang sur la matrice de diffusion σ. Rappelons que pour tout t, la matrice σ(t) est
associée à une application linéaire de Rk dans Rd d’adjointe σ(t)∗ : Rd → Rk dont la
matrice dans les bases canoniques est la transposée σ(t)∗ de la matrice de diffusion σ(t). L’
application linéaire σ(t)∗ est surjective si et seulement si le rang de cette matrice (qui est
aussi celui de la matrice σ(t)) est égal à k.

Théorème 4.17 Soit Q la mesure martingale équivalente du Théorème 4.15. Le marché


est Q-complet si et seulement si pour tout t ∈ [0, T ], le rang de σ(t) est Q (ou P) presque
sûrement égal à k.

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


78 4 Applications à la finance

Démonstration. Soit ζ une variable aléatoire FT -mesurable telle que Sζ0 ∈ L1 (Q). On veut
T
trouver une stratégie autofinancée Q-admissible Θ telle que VTΘ = ζ. D’après la section
précédente, si une telle stratégie existe, on a sous Q pour tout t ∈ [0, T ], d’après la propriété
de Q-martingale et d’autofinancement :

d 
ζ  t
ṼtΘ = EQ Ft = V0Θ + θsi S̃si σsi dWs .
ST0 i=1 0
  
Le processus Mt = EQ ζ Ft est une (FtW )-martingale sous Q. Le processus λ n’étant
ST0
pas déterministe, la filtration (FtW ) est incluse dans (FtB ), sans lui être égale.
D’après le Lemme 3.1 le produit (Lt Mt ) est une (FtB , 0 ≤ t ≤ T )-martingale locale sous
P. Le théorème de représentation (Théorème 3.12) entraı̂ne l’existence
 t d’un unique processus
H ∈ H2 (pour la filtration (Ft )) tel que sous P, Mt Lt = M0 + 0 Hs dBs , c’est à dire que
loc B

sous Q , d(Mt Lt ) = Ht dWt − Ht λt dt = Ht (dWt − λt dt) .


 t 
Puisque L−1 = exp 0 λs dWs − 12 0 λs 2 ds ,
t
t

sous Q , dL−1 −1
t = λt Lt dWt .

La formule d’Itô montre alors que sous Q :

dMt = d[(M L)t L−1


t ]
 
Ht
= Ht L−1
t (dWt − λt dt) + Mt Lt λt L−1
t dWt + dM L, L t = Mt λt + −1
dWt .
Lt

Si on note Kt = Mt λt + H t
, on en déduit un processus K progressivement mesurable tel
Ltt
que sous Q, Mt = M0 + 0 Ks dWs . Il reste enfin par identification de la décomposition de
Mt comme processus d’Itô à trouver θti , i = 1, · · · , d tels que pour tout t ∈ [0, T ] et tout
d
j = 1, · · · , k, Kt = i=1 θti S̃ti σji (t). Sous forme matricielle, cela revient à trouver le vecteur
j

(θti , 1 ≤ i ≤ d) tel que


⎛ ⎞ ⎛ ⎞⎛ ⎞ ⎛ ⎞
θt1 S̃t1 σ11 (t) · · · σ1d (t) θt1 S̃t1 Kt1
⎜ ⎟ ⎜ .. ⎟ ⎜ .. ⎟ = ⎜ .. ⎟ .
σ(t)∗ ⎝ ... ⎠ = ⎝ ... ..
. . ⎠⎝ . ⎠ ⎝ . ⎠
1
d d
θt S̃t σk (t) · · · σk (t)
d
θtd S̃td Ktk

Si le marché est Q-complet, cette équation doit être résolue Q p.s. pour tous les seconds
membres K (avec assez d’intégrabilité et de mesurabilité), ce qui entraı̂ne que la matrice
σ(t)∗ doit être de rang k p.s., et que σ(t) doit aussi être de rang k Q p.s.
Réciproquement, si σ(t) est Q p.s. de rang k, alors σ(t)∗ est Q p.s. surjective et l’équation
admet Q p.s. une solution θti , i = 1, · · · , d. Pour satisfaire l’autofinancement (après actua-
lisation), on en déduit θt0 = Mt − di=1 θti S̃ti Q p.s. La stratégie Θ = (θi , 0 ≤ i ≤ d) est
donc autofinancée, de valeur ṼtΘ égale à Mt à l’instant t. Puisque (ṼtΘ , 0 ≤ t ≤ T ) est une
(FtB )-martingale sous Q, la stratégie Θ est admissible et puisque Q p.s. VTΘ = MT ST0 =
EQ (ζ|FT ) = ζ, elle duplique ζ. 2

Remarquons que l’absence d’opportunité d’arbitrage et l’existence de primes de risque λ


donnent l’existence d’une mesure martingale équivalente Q (par le théorème de Girsanov)

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


4.2 Modèle de Black & Sholes généralisé 79

et la Q-complétude du marché sous des conditions sur le rang de σ(t). Le théorème 4.13
montre alors l’unicité de la mesure martingale équivalente.
La condition imposant à σ(t) d’être de rang k montre qu’on doit avoir d ≥ k, c’est à
dire qu’il y ait assez d’actifs pour dupliquer les k sources d’aléa B j , 1 ≤ j ≤ k. Remarquons
enfin que si k = d et si pour presque tout (t, ω) ∈ [0, T ] × Ω σ(t) est inversible, on a,
λt = σ(t)−1 [b(t)−rt 1̄]. Donc, si la matrice σ(t, ω) est presque sûrement bornée et si σ(t)σ(t)∗
est strictement elliptique, c’est à dire qu’il existe des constantes 0 < m < M telles que pour
tout y ∈ Rk , my2 ≤ y ∗ σ(t)σ ∗ (t)y ≤ M y2 , et si les coefficients bi (t) sont bornés presque
partout, les conditions du Théorème 4.15 sont satisfaites.
Dès que le marché est complet et qu’il y a absence d’opportunité d’arbitrage, le prix
de tout actif dérivé est déterminé de façon unique ; cet actif est redondant et son prix est
indépendant de l’attitude des investisseurs à l’égard du risque.
4.2.3 Calcul du portefeuille de couverture dans le modèle de Black & Sholes
Rappelons que dans ce modèle on dispose d’un actif sans risque St0 = exp(rt) de
taux constant
 
r > 0 et d’un actif risqué St modélisé par un Brownien géométrique St =
2
σB + b− σ t
S0 e t 2
, solution de l’EDS linéaire dSt = St (σdBt + bdt) où B est un Brownien stan-
dard unidimensionnel et σ > 0. On note (Ft ) la tribu naturelle de B. En collectant les calculs
faits précédemment et les résultats généraux montrés sur les marchés financiers, nous avons
les propriétés suivantes :
Après changement de numéraire, si S̃t = St e−rt, on a dS̃t =σ S̃t + S̃t (b − r)dt. Si on note
2
λ = b−r
σ
et Q la probabilité de densité LT = exp −λBT − λ2 par rapport à P sur FT , le
processus (Wt = Bt + λt, 0 ≤ t ≤ T ) est une (Ft , 0 ≤ t ≤ T )-martingale sous Q telle que
dS̃t = σ S̃t dWt . La probabilité Q est donc une mesure martingale équivalente, et sous Q, le
processus S̃ est la martingale exponentielle

σ2t
S̃t = S0 exp σWt − . (4.4)
2

Il y a donc absence d’opportunité d’arbitrage parmi les stratégies à richesse positive. Puisque
σ > 0, le marché est complet et la mesure martingale Q est unique. De plus, pour tout ζ ∈ FT
tel que Z ∈ L1 (Q), le prix actualisé à l’instant t de l’actif versant la somme ζ à l’instant
terminal T est e−r(T −t) EQ (ζ|Ft ). La probabilité Q est la probabilité risque neutre.
On sait qu’il est possible à chaque instant de trouver un portefeuille autofinancé d’actifs
de base (l’actif non risqué S 0 et le sous-jacent S) qui à chaque instant t ∈ [0, T ] a le même
prix que l’option. Le vendeur de l’option doit constituer ce portefeuille appelé portefeuille de
couverture de l’option. A l’instant terminal, ce portefeuille vaudra exactement ζ, la somme
que le vendeur s’est engagé à payer.
Le portefeuille est théoriquement ajusté à chaque instant, sans tenir compte des va-
riations du cours du sous-jacent S. Il correspond à des transactions faites en continu et
sans frais, adjonction ni retrait d’argent. La quantité d’actif risqué dans le portefeuille de
couverture est appelé le Delta.
En réalité, les transactions sont discrètes et les coûts de transaction limitent le nombre
d’ajustements (appelés hedges ). Le vendeur prend donc concrètement un risque. Plus
il fait de hedges, plus son portefeuille est proche de l’option, mais plus il paye de coûts de
transaction.

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


80 4 Applications à la finance

Évaluation de couverture versant la somme h(ST ) à l’instant T


Cette option ne dépend que de la valeur terminale (c’est le cas d’un call ou d’un put)
mais pas de toute la trajectoire (St , t ∈ [0, T ]).
Si h(ST ) est Q-intégrable, l’actif est duplicable par une stratégie Q-admissible. Si Wt =
Bt + λt, (Wt , t ∈ [0, T ]) est un Brownien sous Q et l’équation (4.4) montre que le prix de
l’option à l’instant t est


 −r(T −t)  σ2
EQ e h(ST )|Ft avec ST = St exp σ(WT − Wt ) + r − (T − t) .
2

La variable aléatoire St est Ft -mesurable et WT − Wt est indépendante de Ft . La propriété


de Markov montre que ce prix s’écrit V (t, St ) où
  2


−r(T −t) σY + r− σ2 (T −t)
V (t, x) = EQ e h xe où Y ∼ N (0, T − t).

On a montré dans la section 2.6.2 que la fonction V (t, x) est solution de l’équation de
Feynman-Kac
 ∂V
∂t
(t, x) + Lt V (t, x) = rV (t, x), ∀(t, x) ∈ [0, T ] × R
,
V (T, x) = h(x)

σ2 2 ∂ 2 f
où Lt f (t, x) = rx ∂f (t, x) + x ∂x2(t, x).
∂x 2  2


−rT σN (0,T )+ r− σ2 T
Le prix en 0 est V (0, S0 ) = EQ e h S0 e .
Il reste à calculer le portefeuille de couverture, c’est à dire les quantités θt0 d’actif sans
risque et Δt = θt1 d’actif risqué qui constituent à l’instant t la stratégie autofinancée Θ qui
duplique l’option. Ce portefeuille est entièrement déterminé par le prix de l’option à l’instant
0 (valeur initiale du portefeuille) et le Δ , c’est à dire le processus (Δt ). Nous avons vu
dans la section 2.6.2 que l’unicité de la décomposition d’un processus d’Itô et la condition
d’autofinancement entraı̂nent que

∂V
Δt = (t, St ). (4.5)
∂x
On voit que l’EDP parabolique satisfaite par V (t, x) ne dépend pas de b. Le delta Δt
mesure la sensibilité du prix de l’option aux variations du cours du sous-jacent St ; c’est la
part du portefeuille investi sur l’actif risqué. Cette couverture est réajustée en temps discret.
Si Δt varie beaucoup, on doit modifier souvent la composition du portefeuille et la sensibilité
du delta au cours du sous-jacent est mesurée par le gamma défini par

∂2V
Γt = (t, St ). (4.6)
∂x2
Calcul du delta Supposons que h ∈ C 2 est à croissance polynomiale ainsi que ses dérivées
d’ordre 1 et 2. Nous ne ferons les calculs explicites qu’à l’instant 0. Les formules à l’instant
t sont similaires en remplaçant T par T − t et S0 par St .
Notons  2 
−rT σWT +(r− σ2 )T
f (x, ω) = e h xe .

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


4.2 Modèle de Black & Sholes généralisé 81

On a V (0, x) = EQ (f (x, ω)). Pour calculer Δ0 , il suffit d’intervertir la dérivation par rapport
à x et l’espérance sous Q. D’après les résultats classiques de théorie de la mesure, il suffit
que pour Q-presque tout ω, l’application x → f (x, ω) soit de classe C 1 , et qu’il existe une
1
variable
 ∂f aléatoire g ∈ L (Q) telle que pour tout x0 et tout x dans un voisinage de x0 ,
 (x, ω) ≤ g(ω) pour Q presque tout ω.
∂x
Puisque h est à croissance polynomiale, si x reste borné, on majore bien
 2


2
σWT − σ2 T σWT + r− σ2 T
fx (x, ω) = e h xe

par une variable aléatoire intégrable indépendante de x dans une boule donnée. On en déduit
donc  
∂V σ2
Δ0 = (t, S0 ) = EQ eσWT − 2 T h (ST ) .
∂x
Un calcul similaire donne
∂V  2 
σWT −t − σ2 (T −t)
Δt = (t, St ) = EQ e h (ST −t ) .
∂x
Si h est de signe constant (c’est à dire h est monotone), le signe de Δ0 est celui de h .
Un nouveau changement de probabilité permet de trouver une expression légèrement plus
simple du delta.
2
Soit Q̃ la probabilité de densité exp(σWT − σ2 T ) par rapport à Q. Alors le processus défini
par W̃t = Wt − σt pour 0 ≤ t ≤ T est un (FtB , 0 ≤ t ≤ T )-Brownien sous Q̃. De plus
  σ2 
Δ0 = EQ̃ h S0 eσW̃T +(r+ 2 )T .

Calcul du gamma Un raisonnement similaire permet de dériver de nouveau sous le signe


somme, ce qui donne
∂ 2V  2 
σWT −t − σ2 (T −t)
Γ0 = (t, S0 ) = EQ e h (S T −t ) .
∂x2
  σ2 
Le second changement de probabilité montre que Γ0 = EQ̃ h S0 eσW̃T +(r+ 2 )T .
Lorsque h est convexe, le gamma est donc positif.

Prix d’un call de maturité T et d’exercice K


On applique les résultats précédents aucas où h(x) = (x − K)+ . Sous la probabilité Q,
2
S̃ est solution de l’EDS dS̃t = σ S̃t dWt + r − σ2 dt. Les calculs de la valeur du call ont
été faits dans la section 2.6.2. La formule (2.38) montre que valeur du call à l’instant t est
a x2
donné par (2.38). Pour tout x > 0 la formule (2.39) montre que si F (a) = √12π −∞ e− 2 dx,
 
C(0, x) = EQ e−rT (S̃T − K)+ = S0 F (d1 ) − Ke−rT F (d2 ),

où



1 S0 σ2
d1 = √ ln + r+ T
σ T K 2



√ 1 S0 σ2
d2 = d1 − σ T = √ ln + r− T .
σ T K 2

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


82 4 Applications à la finance

En remplaçant S0 par St et T par T − t, on vérifiera en exercice que l’on peut récrire


l’équation (2.39) sous la forme

C(0, x) = St F (d1 (t, St )) − Ke−r(T −t) F (d2 ),

avec
  

1 y σ2
d1 (t, y) = √ ln + r+ (T − t) ,
σ T −t K 2
  

√ 1 y σ2
d2 (t, y) = d1 (t, y) − σ T − t = √ ln + r− (T − t) .
σ T K 2

La fonction h(y) = (y − K)+ est dérivable en tout y = K et l’ensemble des ω tels que
σ2
xeσWT +(r− 2 )T (ω) = K est négligeable. De plus, dy-presque partout h (y) = 1]K,+∞[ (y). Le
raisonnement précédent de dérivation sous l’intégrale par rapport à Q montre qu’en utilisant
la probabilité Q̃
 σ2 
Δ0 = EQ̃ 1]K,+∞[ (S0 eσW̃T +(r+ 2 )T ,

c’est à dire, puisque W̃ est un Brownien sous Q̃,





S0 σ2
Δ0 = Q̃ σ W̃T ≤ ln + r + )T = F (d1 (0, S0 )).
K 2

Un calcul similaire montre que Δt = F (d1 (t, St )), c’est à dire que la forme du prix fournit
la composition du portefeuille de couverture :

Ct = Δt St + θt0 ert , où θt0 = −Ke−rT F (d2 (t, St )) ≤ 0.

4.2.4 Volatilité
Les formules précédentes du prix et du delta dépendent d’un paramètre du sous-jacent
S qui n’est pas directement observable : sa volatilité σ. Le coefficient de dérive b a en effet
disparu des formules de Ct et Δt .
On dispose classiquement de deux façons d’estimer σ.

Volatilité historique On cherche à estimer σ à partir des observations passées du cours.


On regarde les données (Sih , 0 ≤ i ≤ n) à des instants multiples d’un intervalle de temps
 de

base (par exemple un jour). Pour tout i = 1, · · · , n, les variables aléatoires Xi = ln S(i−1)h
Sih
  
σ2 2
sont indépendantes de même loi gaussienne N b − 2 h, σ h . L’estimateur classique de
la variance d’un n-échantillon dont on ignore
n l’espérance2 donne l’estimateur suivant, qui est
2 1 2
un estimateur sans biais de σ (car h σ2 i=1 (Xi − X̄n ) est un χn−1 ) :

1 n
1
n
(Xi − X̄n )2 où X̄n = Xi .
h (n − 1) i=1 n i=1

Souvent on prend une taille d’échantillon qui correspond au temps de vie qui reste pour
l’option.

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


4.3 Modèle de Cox-Ingersoll-Ross 83

Volatilité implicite
On observe que le prix du call est une fonction continue strictement croissante de σ. En
observant les prix de puts et calls sur le marché avec diverses dates de maturité et diverses
valeurs de l’exercice K, on recherche σ en inversant la formule.
Concrètement, il y a de nombreux actifs qui donnent des volatilités différentes. La va-
riation de K donne une forme de smile , c’est à dire que les options sur de petites
ou grandes valeurs de K sont plus chères et ont une volatilité implicite plus élevée.
Deux facteurs expliquent en partie ce phénomène : d’une part le modèle n’est pas pertinent
(surtout dans l’aspect d’une volatilité constante) et il n’y a que peu de transactions sur des
options dont les prix d’exercice sont extrêmes.
Les traders raisonnent plus en termes de volatilité et de smile de volatilité, et se servent
du modèle de Black & Sholes comme d’une traduction entre prix et volatilité implicite.
Les modèles qui permettent de prendre en compte les smile de volatilité sont ceux où la
volatilité σt est stochastique et dépend du temps. Un modèle à volatilité non constante mais
déterministe ne suffit pas.
Divers modèles sont utilisés :

Modèle de Hull & White On dispose de deux Browniens indépendants B et W . Le cours


du sous-jacent St est modélisé par l’EDS dirigée par B de coefficient de diffusion σt St et de
coefficient de dérive bt St . La volatilité σt est aléatoire et son carré Vt est solution d’une EDS
linéaire dirigée par W de coefficient de diffusion st Vt et de dérive mt Vt , ce qui conduit au
système 
dSt = St (σt dBt + bt dt),
dVt = Vt (st dWt + mt dt), où Vt = σt2 .
Dans ce cas, le prix du call peut être exprimé en fonction de celui du modèle de Black &
Sholes.
Modèle de Dupire La volatilité est une fonction σ(t, St ) avec 0 < α ≤ σ(t, St ) ≤ β. Il y a
existence et unicité de la solution de l’EDS, mais pas de formule explicite.
Modèles à sauts De nombreux modèles récents font appel à des équations différentielles
stochastiques dirigées par un processus de Lévy (à la place du Brownien B) afin de rendre
compte des discontinuités des trajectoires du prix des actifs en fonction du temps. Ces
modèles ne seront pas abordés ici.

4.3 Modèle de Cox-Ingersoll-Ross

Une classe importante de modèles stochastiques (plus récents que le modèle de Black &
Sholes) utilisés en finance est liée au processus de Bessel.
4.3.1 Processus de Bessel généraux
Nous avons introduit des processus de Bessel dans le Chapitre 2. Nous allons maintenant
définir les processus de Bessel généraux. √ "

Soit B un mouvement Brownien. En utilisant l’inégalité | x − y| ≤ |x − y|, le
théorème de Yamada-Watanabe 2.20 montre que pour δ ≥ 0 et α ≥ 0, l’équation
"
dZt = δ dt + 2 |Zt | dBt , Z0 = α ,

a une unique solution forte. Cette solution est un processus de Bessel carré de dimension δ,
que l’on désigne par BESQδ . En particulier, si α = 0 et δ = 0, la solution Z ≡ 0 est l’unique

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


84 4 Applications à la finance

solution. En utilisant le théorème de comparaison 2.19, si 0 ≤ δ ≤ δ et si ρ et ρ sont des


processus de Bessel carré de dimension δ et δ partant du même point, alors 0 ≤ ρt ≤ ρ t p.s.
Dans le cas δ > 2, le processus de Bessel carré BESQδ partant de α n’atteint jamais 0.
Si 0 < δ < 2, le processus ρ atteint 0 en un temps fini. Si δ = 0 le processus reste en 0 dès
qu’il atteint ce point.

Définition 4.18 (BESQδ ) Pour tout δ ≥ 0 et α ≥ 0, l’unique solution forte de l’EDS


 t

ρt = α + δt + 2 ρs dBs
0

est un processus de Bessel carré de dimension δ, partant de α et est noté BESQδ .


Définition 4.19 (BESδ ) Soit ρ un BESQδ partant de α. Le processus R = ρ est un

processus de Bessel de dimension δ, partant de a = α et est noté BESδ .

Définition 4.20 Le nombre ν = (δ/2) − 1 (soit δ = 2(ν + 1)) est l’indice du processus de
Bessel et un processus de Bessel d’indice ν est noté BES(ν) .

En appliquant la formule d’Itô, on voit que pour α > 0 et δ > 2, un BESδ est solution de

δ−1 t
1
Rt = α + Bt + ds . (4.7)
2 0 Rs

Les fonctions de Bessel modifiées Iν et Kν solutions de

x2 u (x) + xu (x) − (x2 + ν 2 )u(x) = 0

sont données par :


 z ν

z 2n
Iν (z) =
2 n=0
22n n! Γ(ν + n + 1)
π(I−ν (z) − Iν (z))
Kν (z) = .
2 sin πz
(ν)
Les probabilités de transition qt d’un BESQ(ν) sont


(ν) 1  y ν/2 x+y xy
qt (x, y) = exp − Iν ( ) (4.8)
2t x 2t t

(ν)
et le processus de Bessel d’indice ν a une probabilité de transition pt donnée par

(ν) y  y ν x2 + y 2  xy 
pt (x, y) = exp(− )Iν , (4.9)
t x 2t t

Les processus de Bessel sont utilisés dans le modèle suivant de Cox-Ingersoll-Ross.

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


4.3 Modèle de Cox-Ingersoll-Ross 85

4.3.2 Modèle de Cox-Ingersoll-Ross


Pour modéliser des taux, Cox-Ingersoll-Ross étudient l’équation suivante

drt = k(θ − rt )dt + σ rt dBt (4.10)

Le théorème d’existence de Yamada-Watanabe (Théorème 2.20) montre que (4.10) a une


unique solution ; c’est un processus positif pour kθ ≥ 0, mais il n’est pas possible d’en
obtenir une formule explicite. Soit rx le processus solution de (4.10) avec r0x = x.
Le changement de temps A(t) = σ 2 t/4 réduit l’étude de (4.10) au cas σ = 2. En effet, si
Zt = rσ2 t/4 , alors "
dZt = k (θ − Zt ) dt + 2 Zt dBt ,
avec k = kσ 2 /4 et où B est un mouvement Brownien.
Le processus de CIR solution de l’équation (4.10) est un BESQ changé de temps : en effet,
2

−kt σ kt
rt = e ρ (e − 1) ,
4k

où (ρ(s), s ≥ 0) est un BESQδ (α), avec δ = 4kθ


σ2
.
On peut montrer que, si T0x := inf{t ≥ 0 : rtx = 0} et 2kθ ≥ σ 2 alors P (T0x = ∞) = 1. Si
0 ≤ 2kθ < σ 2 et k > 0 alors P (T0x < ∞) = 1 et si k < 0 on a P (T0x < ∞) ∈]0, 1[. (Cela se
fait au moyen du théorème de comparaison)
Cependant, on peut calculer l’espérance de la v.a. rt au moyen de l’égalité
 t
E(rt ) = r0 + k(θt − E(rs )ds),
0

en admettant que l’intégrale stochastique est une martingale, ce qui est le cas. On calcule
sans difficultés supplémentaires l’espérance conditionnelle, en utilisant le caractère Marko-
vien :
Théorème 4.21 Soit r le processus vérifiant

drt = k(θ − rt )dt + σ rt dBt .

L’espérance conditionnelle et la variance conditionnelle sont données par

E(rt |Fs ) = rs e−k(t−s) + θ(1 − e−k(t−s) ),

σ 2 (e−k(t−s) − e−2k(t−s) ) θσ 2 (1 − e−k(t−s) )2


Var(rt |Fs ) = rs + .
k 2k
Démonstration. Par définition, on a pour s ≤ t
 t  t

rt = rs + k (θ − ru )du + σ ru dBu ,
s s

et en appliquant la formule d’Itô


 t  t  t
2 2 3/2 2
rt = rs + 2k (θ − ru )ru du + 2σ (ru ) dBu + σ ru du
s
 t  t
s
 t s

2 2
= rs + (2kθ + σ ) ru du − 2k ru du + 2σ (ru )3/2 dBu .
2
s s s

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


86 4 Applications à la finance

En admettant que les intégrales stochastiques qui interviennent dans les égalités ci-dessus
sont d’espérance nulle, on obtient, pour s = 0
 t

E(rt ) = r0 + k θt − E(ru )du ,


0

et  t  t
E(rt2 ) = r02 + (2kθ + σ ) 2
E(ru )du − 2k E(ru2 )du.
0 0
t
Soit Φ(t) = E(rt ). En résolvant l’équation Φ(t) = r0 + k(θt − 0 Φ(u)du), c’est à dire
l’équation différentielle Φ (t) = k(θ − Φ(t)) et Φ(0) = r0 , on obtient

Φ(t) = E[rt ] = θ + (r0 − θ)e−kt .

De la même façon, on introduit Ψ(t) = E(rt2 ) et en résolvant Ψ (t) = (2kθ+σ 2 )Φ(t)−2kΨ(t),


on calcule  
σ2 −kt −kt θ −kt
Var [rt ] = (1 − e ) r0 e + (1 − e ) .
k 2
L’espérance et la variance conditionnelle de r s’obtiennent grâce à la propriété de Markov :

E(rt |Fs ) = θ + (rs − θ)e−k(t−s) = rs e−k(t−s) + θ(1 − e−k(t−s) ),

σ 2 (e−k(t−s) − e−2k(t−s) ) θσ 2 (1 − e−k(t−s) )2


Var(rt |Fs ) = rs + .
k 2k
 T   2
− t ru du 
Nous allons calculer E e  Ft .
4.3.3 Calcul du prix d’un zéro-coupon
Proposition 4.22 Soit

drt = a(b − rt )dt + σ rt dBt .
Alors  T  
− 
E e t ru du
 Ft = G(t, rt ),
avec
G(t, x) = Φ(T − t) exp[−xΨ(T − t)],

2ab
2γe(γ+a) 2
s
2(eγs − 1) σ2
Ψ(s) = , Φ(s) = , γ 2 = a2 + 2σ 2 .
(γ + a)(e − 1) + 2γ
γs (γ + a)(e − 1) + 2γ
γs

Démonstration. Soit (rsx,t , s ≥ t) la solution de


"
drsx,t = a(b − rsx,t )ds + σ rsx,t dBs , rtx,t = x

et pour tout s ≥ t soit  s

Rst = exp − x,t


ru du .
t
La propriété de Markov implique qu’il existe G telle que
 s 


exp − ru duFt = G(t, rt ).
x,t
t

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


4.4 Exercices 87

Nous admettrons que G est de classe C 1,2 . La formule d’Itô appliquée à G(s, rsx,t )Rst , qui est
une martingale, montre que

G(T, rTx,t )RTt = G(t, x) + MT − Mt


 T  
∂G x,t ∂G 1 2 x,t ∂ 2 G
+ Rs −rs G(s, rs ) +
t x,t x,t
(s, rs ) + a(b − rs )
x,t x,t
(s, rs ) + σ rs x,t
(s, rs ) ds,
t ∂t ∂x 2 ∂x2

où Mt est une intégrale stochastique. Par analogie avec la formule de Feynman-Kac, en
choisissant G telle que

∂G ∂G 1 ∂2G
−yG(s, y) + (s, y) + a(b − y) (s, y) + σ 2 y 2 (s, y) = 0 (4.11)
∂s ∂y 2 ∂y

et G(T, y) = 1 pour tout y, on obtient

RTt = G(t, x) + MT − Mt ,
   
T
où M est une martingale. En particulier, lorsque t = 0 on obtient E exp − 0 rs ds =
E(RT ) = G(0, x). En se plaçant entre t et T , on obtient
  T x,t 
E e− t ru du = G(t, x).

Il reste à calculer la solution de l’équation aux dérivées partielles (4.11). Un calcul assez
long montre que
G(t, x) = Φ(T − t) exp[−xΨ(T − t)],
avec
 s  2ab2
2(e −1)γs
2γe(γ+a) 2 σ
Ψ(s) = (γ+a)(eγs −1)+2γ , Φ(s) = (γ+a)(eγs −1)+2γ
,
γ = a + 2σ 2 .
2 2

2
Si l’on note P (t, T ) le prix du zéro-coupon associé,

P (t, T ) = Φ(T − t) exp[−rt Ψ(T − t)],

on montre que
P (t, T ) = B(t, T ) (rt dt + σ(T − t, rt )dBt ) ,

avec σ(u, r) = σΨ(u) r.

4.4 Exercices

Exercice 4.1 Soit σ et b des constantes, r > 0, x ∈ R, et (St ) le Brownien géométrique


solution de l’EDS  
dSt = St σdBt + bdt , S0 = x.
1. Écrire St sous forme exponentielle.
2. On note θ = − b−r σ
. Soit Q la probabilité définie sur Ft par dQ = Lt dP où
θBt − 12 θ2 t
Lt = e . Montrer que sous Q, Wt = Bt − θt est un Brownien.

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


88 4 Applications à la finance

σ2
3. Soit P̃ la probabilité définie sur Ft par dP̃ = Zt dQ où Zt = eσWt − 2
t
. Montrer que
 
dSt = St σdB̃t + (r + σ 2 )dt ,

où B̃ est un Brownien sous P̃.  


4. Soit P0 > 0 et pour tout t ≥ 0, Pt = P0 ert . Montrer que PStt , t ≥ 0 est une martingale
 
sous Q. Montrer que St , t ≥ 0 est une martingale sous P̃.
Pt

 
t
5. Soit A et λ des constantes réelles, Ft = e−λt 0 Su du + xA et Ψt = FtSet . Écrire
rt

l’EDS satisfaite par Ψt en utilisant le Brownien B̃ sous P̃.

Exercice 4.2 Volatilité stochastique Soit B 1 et B 2 deux Browniens indépendants, Ft =


σ(Bs1 , Bs2 , s ≤ t) la filtration engendrée par B 1 et B 2 . Soit μ et η des fonctions (déterministes)
bornées de [0, +∞[ dans R, σ et γ des fonctions (déterministes) bornées de R dans [m, +∞[
avec m > 0. On note S la solution de
 
dSt = St σ(Yt )dBt1 + μ(t)dt , S0 = x ∈ R,

où (Yt ) est solution de l’EDS

dYt = γ(Yt )dBt2 + η(t)dt , Y0 = 1.

1. Soit θ un processus (Ft ) adapté borné et (Zt ) la solution de l’EDS

dZt = Zt θt dBt1 , Z0 = 1.

Écrire explicitement Zt sous forme exponentielle.


2. Soit λ et ν des processus (Ft )-adaptés, bornés et (Lt ) le processus défini par
 t   t 

1 1 t 2 2 1 t 2
Lt = exp λs dBs − λ ds + νs dBs − ν ds . (4.12)
0 2 0 s 0 2 0 s

Écrire l’EDS satisfaite par (Lt ). On note Q la probabilité définie par dQ = Lt dP sur
Ft .
t
3. Soit B̃t1 = Bt1 − 0 λs ds et (Z̃t ) la solution de l’EDS dZ̃t = Z̃t αdB̃t1 et Z̃0 = 1, où α est
une constante. Montrer que (Lt Z̃t ) est une (Ft )-martingale sous P.
t
4. Montrer que B̃t2 = Bt2 − 0 νs ds est un (Ft )-Brownien sous Q.
5. On admettra que si Q est une probabilité équivalente à P il existe λ et ν tels que la
densité de Q par rapport à P soit de la forme (4.12). Décrire l’ensemble des couples
(λ, ν) correspondant à des probabilités Q telles que le processus (St e−rt , t ≥ 0) soit
une martingale sous Q. On notera Q cet ensemble de probabilités
6. Le marché financier est-il complet ?
7. Soit X un actif duplicable au sens suivant : il existe un processus (Ft )-adapté (Vt ) tel
qu’il existe un processus (φt ) borné (Ft )-adapté pour lequel :
 
dVt = rVt dt + φt dSt − rSt dt , et VT = X.

Calcul Stochastique 2 - Annie Millet 30 octobre 2006


4.4 Exercices 89

(a) Montrer que (Vt e−rt ) est une (Ft )-martingale sous Q pour toute probabilité Q ∈
Q.
(b) On suppose que Vt = v(t, St , Yt ). Montrer que v satisfait une EDP que l’on
explicitera.

Exercice 4.3 Options power Soit r, δ, σ des constantes positives, x > 0. On modélise la
dynamique d’un actif versant des dividendes au taux δ alors que le taux spot est r sous la
probabilité risque neutre par
 
dSt = St σdBt + (r − δ)dt , S0 = x.

1. On souhaite évaluer un actif


  contingent sur S versant des dividendes, c’est à dire
−r(T −t) 
calculer EP h(ST )e Ft . En s’inspirant des formules permettant de faire le calcul
dans le cas classique, quelle est la valeur de cet actif lorsque h(x) = (xα − K)+ où
α > 0?
2. On suppose que δ = r. On note Q la probabilité qui sur Ft a pour densité Sxt par
2
rapport à P. Justifier que Q est bien une probabilité. On note Zt = xSt . Quelle est
la dynamique de (Zt , t ≥ 0) sous Q. Montrer que pour toute fonction f borélienne
bornée,  2

1 x
EP ST f = EP (f (ST )).
x ST
3. On revient au cas général. Montrer que (Sta , t ≥ 0) est une martingale pour une valeur
de a que l’on précisera. Monter que pour toute fonction f borélienne bornée,
 2

1 x
EP [f (ST )] = α EP ST f
a
.
x ST

4. On suppose que h(x) = xβ (x − K)+ . Montrer que h(ST ) est la différence de deux
payoffs correspondant à des options d’achat européennes portant sur S β+1 et S β et sur
des strikes que l’on déterminera.

Remerciements Ce cours remplace celui de Calcul Stochastique et Finance, Temps continu,


fait par Isabelle Nagot dans l’ex DEA MME de l’Université Paris 1. Il fait suite au cours
de Calcul Stochastique fait Bernard de Meyer puis par Ciprian Tudor. Je remercie ces trois
collègues de Paris 1 de m’avoir fourni leurs polycopiés.
Je tiens aussi à exprimer ma gratitude à Monique Jeanblanc et à Thomas Simon, qui
m’ont donné la toute dernière version des notes de deux cours de calcul stochastique appliqué
à la finance qu’ils ont mis au point dans des formations de M2 à l’Université d’Évry.

30 octobre 2006 Calcul Stochastique 2 - Annie Millet


90 Références

Références

[1] De Meyer, B., Calcul Stochastique, Polycopié du cours de l’ex DEA MME de l’Univer-
sité Paris 1, année 2004-2005.
[2] Friedman, A., Stochastic Differential Equations and Applications, Volume 1, Academic
Press, 1975.
[3] Jeanblanc ; M., Cours de calcul stochastique, DESS IM Evry, Septembre 2005,
http ://www.maths.univ-evry.fr/pages perso/jeanblanc/
[4] Jeanblanc, M., Simon, T., Eléments de calcul stochastique, IRBID, Septembre 2005.
[5] Jeanblanc, M., Yor, M. et Chesney, M., Mathematical Methods for financial Markets,
Springer Verlag, à paraı̂tre.
[6] Karatzas, I., Shreve, S.E., Brownian motion and Stochastic Calculus, Springer Verlag,
1991.
[7] Lamberton, D., Lapeyre., B, Introduction au calcul stochastique appliqué à la finance.,
Ellipses, Paris, 1991.
[8] Malliavin P., Stochastic Analysis, Springer, Berlin, 1997.
[9] Nagot, I., Calcul Stochastique et Finance, Temps continu, Polycopié du cours de l’ex
DEA MME de l’Université Paris 1, année 2004-2005.
[10] Revuz, A., Yor, M., Continuous Martingales and Brownian Motion, Springer, Berlin,
3th edition 1999.
[11] Rogers L. C. G. et Williams, D., Diffusions, Markov Processes, and Martingales. Volume
1 : Foundations, Wiley, Chichester, 1994.
[12] Rogers L. C. G., Williams, D., Diffusions, Markov Processes, and Martingales. Volume
2 : Itô Calculus, Wiley, Chichester, 1987.
[13] Tudor, C., Calcul Stochastique 1, Cours polycopié du Master M2 MMEF de l’Université
Paris 1, année 2005-2006, http ://pagesperso.aol.fr/cipriantudor/

Calcul Stochastique 2 - Annie Millet 30 octobre 2006

Vous aimerez peut-être aussi