Annie Millet Cal - Stoch PDF
Annie Millet Cal - Stoch PDF
Annie Millet Cal - Stoch PDF
´
à l’Economie et à la Finance
Université Paris 1
Spécialité : Modélisation et Méthodes Mathématiques
´
en Economie et Finance
Calcul Stochastique 2
Annie Millet
15
14
13
12
11
10
9
8
7
6
5
4
3
2
1
0
−1
−2
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
Table des matières
1.1 Rappels
Nous rappelons tout d’abord quelques définitions et notations du cours de Calcul Sto-
chastique 1. La filtration donne l’information dont on dispose à chaque instant t.
Convention. Dans toute la suite on se donne un espace probabilisé filtré (Ω, F, (Ft , t ≥
0), P ) et on suppose que sa filtration (Ft ) satisfait les conditions habituelles. On supposera
de plus que la tribu F0 est la complétée de la tribu triviale {∅, Ω}, ce qui entraı̂ne que les v.a.
F0 mesurables sont presque sûrement constantes. Ceci ne sera pas rappelé dans les énoncés.
Définition 1.2 Un processus stochastique (à valeurs dans Rd ) est une famille (Xt , t ≥ 0)
de variables aléatoires Xt : (Ω, F) → (Rd , Rd ).
(i) Le processus stochastique (Xt ) est (Ft )-adapté si Xt est mesurable de (Ω, Ft ) dans
(R , Rd ) pour tout instant t ≥ 0.
d
(ii) Le processus stochastique (Xt ) est progressivement mesurable (ou progressif ) si pour
tout instant t ≥ 0, l’application (s, ω) → Xs (ω) est mesurable de B([0, t])⊗Ft dans (Rd , Rd ).
(iii) Soit (Xt ) un processus stochastique. Sa filtration naturelle est (FtX , t ≥ 0) où FtX =
σ(σ(Xs , s ∈ [0, t]), N ) où N désigne les ensembles négligeables. Si le processus (Xt ) est
continu à droite, sa filtration naturelle (FtX ) satisfait les conditions habituelles.
Théorème 1.3 Soit (Xt ) un processus stochastique à valeurs dans Rd , adapté et continu à
droite. Alors (Xt ) est progressif.
Définition 1.4 Une variable aléatoire τ : Ω → [0, +∞] est un temps d’arrêt (relativement
à la filtration (Ft )), ou (Ft )-temps d’arrêt, si {τ ≤ t} ∈ Ft pour tout t ≥ 0. Si τ est un
temps d’arrêt relativement à (Ft ), on note
Fτ = {A ∈ F : A ∩ {τ ≤ t} ∈ Ft , ∀t ∈ [0, +∞[}.
Enfin si (Xt ) est un processus (Ft )-adapté, on note Xτ (ω) = Xτ (ω) (ω) ; si le processus (Xt )
est continu à droite et adapté, Xτ 1{τ <+∞} est Fτ -mesurable.
Démonstration. (i) De façon évidente, la continuité de X. et le fait que A est fermé entraı̂nent
{DA ≤ t} = {ω : inf s∈Q,s≤t d(Xs (ω), A) = 0} ∈ Ft , où d(x, A) = inf y∈A d(x, y).
(ii) Pour vérifier {TA ≤ t} ∈ Ft+ , il suffit de vérifier que {TA < t} ∈ Ft pour tout t.
De plus, si s < t et Xs (ω) ∈ A, la continuité à droite de X. (ω) et le fait que A est ouvert
entraı̂nent qu’il existe ε ∈]0, t − s[ tel que pour tout r ∈ [s, s + ε[, Xr (ω) ∈ A, d’où
Définition 1.6 Un processus réel (Ft )-adapté X = (Xt , t ≥ 0) est une (Ft )-martingale si
• E[|Xt |] < +∞ (autrement dit Xt ∈ L1 (Ω)) pour tout t ≥ 0).
• E[Xt | Fs ] = Xs pour tout s ≤ t.
Si X est une (Ft )-martingale telle que E(Xt2 ) < +∞ pour tout t ≥ 0, on dit que X est une
martingale de carré intégrable.
On peut définir une martingale sans filtration préalable, en demandant que ce soit une (FtX )-
martingale où (FtX ) est la tribu naturelle de X. Clairement, si X est une (Ft )-martingale,
c’est aussi une (FtX )-martingale.
Enfin, un processus X = (Xti , i = 1, · · · , d, t ≥ 0) à valeurs dans Rd est une (Ft )-martingale
si chacune de ses composantes (Xti , t ≥ 0), i = 1, · · · , d est une (Ft )-martingale.
Rappelons qu’une (Ft )-martingale (Xt ) par rapport à une filtration (Ft ) qui satisfait les
conditions habituelles admet une modification continue à droite et limitée à gauche (cadlag).
Toutes les martingales que nous considérerons seront donc continues à droite. Le théorème
d’arrêt s’étend aux martingales continues à droite.
Théorème 1.7 (Théorème d’arrêt) Soit M une (Ft )-martingale (continue à droite).
(i) Soit S, T des (Ft )-temps d’arrêt bornés par une constante K, i.e., tels que S ≤ T ≤ K.
Alors MT est intégrable et
E(MT |FS ) = MS p.s.
MtT = MT ∧t (1.1)
Démonstration. (i) Pour tout n ≥ 1, soit Sn (ω) = k2−n sur {S ∈ [(k − 1)2−n , k2−n [},
k ≤ K2n + 1 et Tn défini de façon similaire. Alors Sn et Tn sont des (Ft )-temps d’arrêt
qui ne prennent qu’un nombre fini de valeurs et tels que S ≤ Sn ≤ Tn , limn Sn = S et
limn Tn = T . Si A ∈ FSn , en découpant l’ensemble A suivant les
valeurs
prises par Sn et en
utilisant la propriété de martingale, on voit que A MSn dP = k A∩{Sn =k} MK dP , c’est à
dire que MSn = E(MK |FSn ). Puisque FSn ⊂ FTn , on a donc
E(MTn |FSn ) = E(E(MK |FTn )|FSn ) = MSn .
On en déduit que pour A ∈ FS ⊂ FSn , A MSn dP = A MTn dP . De plus, les suites de
temps d’arrêt (Sn , n ≥ 1) et (Tn , n ≥ 1) étant décroissantes, le calcul précédent montre que
les suites (MSn , FSn ) et (MTn , FTn ) sont des martingales descendantes, donc uniformément
intégrables. Puisque la martingale M est continue à droite, MT = limn MTn et MS =
limn MSn p.s. et dans L1 . On en déduit que pour tout A ∈ FS , A MS dP = A MT dP ,
ce qui termine la démonstration. On remarque que cette démonstration s’étend aisément au
cas où S et T sont des temps d’arrêt non bornés tels que S ≤ T si la martingale M est
uniformément intégrable, donc fermée.
(ii) Si s ≤ t, il suffit d’appliquer la partie (i) aux temps d’arrêt s ∧ T ≤ t ∧ T ≤ t,
pour déduire que Mt∧T est une (Ft∧T )-martingale. Montrons que ce processus (Ft )-adapté
intégrable est encore une (Ft )-martingale.
Soit A ∈ Fs . De façon évidente, A ∩ {T > s} ∈ Fs∧T , et puisque E(Mt∧T |Fs∧T ) = Ms∧T ,
Mt∧T dP = Ms∧T dP.
A∩{T >s} A∩{T >s}
De plus, sur {T ≤ s}, Mt∧T = MT = Ms∧T ; on en déduit A
Mt∧T dP = A
Ms∧T dP , ce qui
termine la démonstration. 2
Cette proposition justifie la définition suivante qui permet de localiser la notion de
martingale en introduisant une suite croissante de temps d’arrêt.
Définition 1.8 Un processus (Ft )-adapté et continu à droite M est une (Ft )-martingale
locale s’il existe une suite croissante (τn ) de (Ft )-temps d’arrêt telle que τn → ∞ et M τn :=
(Mt∧τn , t ≥ 0) est une (Ft )-martingale pour tout n.
Remarque 1.9 (1) Soit M une martingale locale. En remplaçant la suite de temps d’arrêt
(τn ) par (τn ∧ n) on voit que l’on peut demander que chaque martingale M τn soit uni-
formément intégrable. Pour tout n ≥ 1, soit Sn = inf{t ≥ 0 : |Mt | ≥ n}. Alors Sn est
un temps d’arrêt et si la martingale locale M est continue, on peut, en remplaçant τn par
τn ∧ n ∧ Sn , demander que la martingale M τn soit bornée.
(2) Même si M est une martingale locale intégrable, ce n’est pas nécessairement une
martingale. On pourra voir un contre-exemple dans [10], page 182.
Définition 1.10 Le processus (Bt , t ≥ 0) est un mouvement Brownien (standard) réel - ou
unidimensionnel si les propriétés (a)-(c) sont vérifiées :
a) P (B0 = 0) = 1 (le mouvement Brownien est issu de l’origine).
b) Pour 0 ≤ s ≤ t, Bt − Bs est une variable réelle de loi gaussienne, centrée de variance
(t − s), notée N (0, t − s).
c) Pour tout n et 0 ≤ t0 ≤ t1 · · · ≤ tn , les variables aléatoires Bt0 , Bt1 − Bt0 , · · · ,
Btn − Btn−1 sont indépendantes.
Rappelons que les trajectoires du Brownien B sont p.s. continues, et même Höldériennes
d’ordre α < 12 , mais p.s. qu’elles ne sont pas dérivables (ni même des fonctions de classe
1
C 2 ).
On supposera souvent que la tribu (Ft ) considérée est la tribu naturelle de B, notée (FtB ),
et satisfait donc le théorème d’arrêt 1.7. La propriété c) montre que pour tout 0 ≤ s < t,
l’accroissement Bt − Bs est indépendant de la tribu FsB = σ(σ(Bu , 0 ≤ u ≤ s), N ). Le
mouvement Brownien est donc une (FtB )-martingale. Rappelons des propriétés du Brownien
qui seront d’un usage constant, et pourront être montrées à titre d’exercice.
−1
−2
−3
−4
−5
0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0
Définition 1.12 Soit (Ω, F, (Ft , t ≥ 0), P ) un espace filtré. Pour a = 1, 2 et T ∈]0, +∞]
on note :
t
Ha (Ft ) = h progressivement mesurable tel que pour tout t ≥ 0, E |hs | ds < ∞ ,
a
0
t
Ha (Ft ) = h progressivement mesurable tel que pour tout t ≥ 0,
loc
|hs | ds < ∞ p.s. ,
a
0
T
T
Ha (Ft ) = h progressivement mesurable tel que E |hs | ds < +∞ .
a
0
t 2
En particulier soit h un processus
cadlag
(F t )-adapté ; si pour tout t > 0 on a h ds <
0 s
t
+∞ p.s., alors h ∈ H2loc , si E 0 h2s ds < ∞ pour tout t, alors h ∈ H2 (Ft ), ... Lorsque
la filtration (Ft ) est la filtration naturelle (FtB ) d’un mouvement Brownien B, on notera
simplement H1loc := H1loc (FtB ), H2loc := H2loc (FtB ), ...
La propriété suivante des intégrales stochastiques par rapport au mouvement Brownien
est fondamentale.
Rappelons la notion de variation satisfaite par les intégrales de la borne supérieure déterministes.
Définition 1.14 (i) Soit s < t et f : [s, t] → R. La fonction f est à variation bornée sur
[s, t] si V[s,t] (f ) < +∞, où
V[s,t] (f ) := sup |f (ti+1 ) − f (ti )| : {s = t0 < t1 < · · · < tn ≤ t} subdivision de [s, t] .
i
La fonction f : [0, +∞[ est à variation finie sur [0, +∞[ si elle est à variation bornée sur
tout intervalle [0, T ].
(ii) Le processus (Xt ) est à variation bornée sur [s, t] (resp. à variation finie) si ses
trajectoires sont p.s. à variation bornée sur [s, t] (resp. p.s. à variation finie).
t
De façon évidente, si b ∈ H1loc (Ft ), le processus t → It = 0 bs ds est à variation finie ; en
T
effet pour tout T ≥ 0, V[0,T ] (I) ≤ 0 |b(t)| dt. Le comportement des intégrales stochastiques
est tout autre.
Proposition 1.15 Soit (Mt ) une (Ft )-martingale locale p.s. continue à variation finie.
Alors pour tout t la variable aléatoire Mt est presque sûrement constante (égale à M0 ).
Démonstration. Puisque X0 est p.s. constante, en remplaçant Mt par Mt − M0 , on peut
supposer M0 = 0.
(i) Fixons T et supposons que (Mt ) est une martingale continue et que sa variation
V[0,T ] (M ) est (p.s.) bornée par C. Soit Δ = {t0 = 0 < t1 < · · · < tn = T } une subdivision de
i=0 |ti+1 − ti | son pas et pour 0 ≤ k ≤ n − 1 soit Xk = Mtk+1 − Mtk . Alors
[0, T ], |Δ| = supn−1
n−1
2 2
E(|MT | ) = E(|MT − M0 | ) = E(Xk2 ) + 2 E(Xi Xj ).
k=0 1≤i<j≤n−1
appliquant le Théorème de convergence dominée, on en déduit E supk |Mtk+1 − Mtk | → 0
quand |Δ| → 0. On en déduit E(|MT |2 ) = 0 ce qui entraı̂ne MT = 0 p.s.
(ii) Supposons que (Mt ) est une martingale p.s. continue. Pour tout n, soit
(avec la convention inf ∅ = +∞). La définition de V[0,t] montre que c’est un processus (Ft )-
adapté, continu. La Proposition 1.5 (i) montre que (τn ) est une suite de (Ft )-temps d’arrêt ;
de façon évidente, (τn ) est croissante et converge vers T . Le théorème d’arrêt 1.7 montre
que le processus (Mtτn ) = (Mt∧τn , t ≥ 0) est une (Ft )-martingale. De plus, par construction,
V[0,T ] (M τn ) ≤ n p.s. Soit t ∈ [0, T ] ; la partie (i) montre donc que Mt∧τn = 0 p.s. puis la
continuité p.s. de M permet, en faisant tendre n vers l’infini, d’en déduire que Mt = 0 p.s.
(iii) Soit maintenant M une martingale locale continue et soit (τn ) une suite de temps
d’arrêt qui croit vers T telle que (Mt∧τn , t ≥ 0) est une martingale continue. Pour tout
n cette martingale est à variation bornée sur [0, T ] et est donc nulle p.s. d’après (ii). On
conclut de nouveau par passage à la limite en n en utilisant la continuité p.s. de M . 2
La proposition précédente montre que le mouvement Brownien n’est p.s. pas à variation
t
bornée sur [0, T ] et que l’intégrale stochastique t → 0 σs dBs ne peut pas être définie
ω par ω et n’est pas à variation finie, sauf si elle est nulle.
La bonne notion pour les intégrales stochastiques, tout comme pour le Brownien, est
celle de variation quadratique. Pour tout processus X défini sur [0, T ], 0 ≤ t ≤ T et toute
subdivision Δ = {t0 = 0 < t1 < · · · < tk = T },
k−1
TtΔ (X) = |Xti+1 ∧t − Xti ∧t |2 .
i=0
Définition 1.16 Soit X : [0, T ] × Ω → R un processus stochastique défini sur [0, T ]. On dit
que X est de variation quadratique finie si pour tout t ∈ [0, T ],
c’est à dire que pour toute suite (Δn ) de subdivisions de [0, T ] dont le pas tend vers 0, la
suite TtΔn converge en probabilité vers une limite notée X, Xt .
Les deux résultats suivants donnent les rapports entre processus à variation bornée et à
variation quadratique finie.
Proposition 1.17 Soit X un processus continu à variation bornée sur [0, T ]. Alors X est
de variation quadratique nulle sur [0, T ].
k−1
k−1
2
|Xti+1 − Xti | ≤ |Xti+1 − Xti | sup |Xti+1 − Xti |.
0≤i<k
i=0 i=0
La continuité uniforme p.s. de X sur l’intervalle [0, T ] entraı̂ne sup0≤i≤k−1 |Xti+1 − Xti | → 0
p.s. quand |Δ| → 0. De plus p.s. k−1 i=0 |Xti+1 (ω) − Xti (ω)| ≤ V[0,T ] (X. (ω)) < +∞, ce qui
termine la démonstration.
Le processus X est à variation quadratique finie si pour tout t la famille de processus TtΔ (X)
converge en probabilité vers X, Xt quand le pas |Δ| de la subdivision sur [0, t] tend vers
0.
Le résultat suivant est fondamental. Il relie la variation quadratique à une martingale
associée au carré du processus.
Théorème 1.19 Soit M une (Ft )-martingale (resp. martingale locale) continue. Alors M
est de variation quadratique finie et sa variation quadratique M, M t est l’unique processus
croissant, adapté, continu, nul en zéro tel que
2
Mt − M, M t , t ≥ 0 est une (Ft ) martingale locale .
De plus,
pour s < t et toute suite (Δn ) de subdivisions dont le pas |Δn | tend vers 0, la suite
sups≤t Ts (M ) − M, M s converge vers 0 en probabilité.
Δn
Si de plus, M est une martingale de carré intégrable (c’est à dire que E(Mt2 ) < +∞
pour tout t), alors (Mt2 − M, M t , t ≥ 0) est une (Ft ) martingale continue telle que pour
tout couple de temps d’arrêt bornés S ≤ T ≤ C,
E(MT2 − MS2 |FS ) = E(|MT − MS |2 |FS ) = E(M, M T − M, M S |FS ).
(1) On suppose que M est une martingale bornée par C. Pour toute subdivision Δ,
s < t, notons i et k les entiers tels que ti ≤ s < ti+1 et tk ≤ t < tk+1 .
Si i < k,
E |Mti+1 − Mti |2 |Fs = E |Mti+1 − Ms |2 |Fs + |Ms − Mti |2 .
2
Avec la convention nj=n 1
xj = 0 si n1 > n2 , on en déduit
Δ
k−1
Δ 2
E Tt (M ) − Ts (M ) Fs = E |Mti+1 − Ms | + |Mtj+1 − Mtj |2 + |Mt − Mtk |2 Fs .
j=i+1
On en déduit que
E Mt2 − Ms2 |Fs = E (Mt − Ms )2 |Fs = E TtΔ (M ) − TsΔ (M )|Fs . (1.3)
Le processus (Mt2 − TtΔ (M ), t ≥ 0) est donc une martingale de carré intégrable et E(Mt2 ) =
E(TtΔ (M )) pour tout t ≥ 0.
(2) Soit M une martingale continue bornée par C. Fixons a en notons (Δn ) une suite
de subdivisions de [0, a] dont le pas tend vers 0. Montrons que la suite (TaΔn (M ), n ≥ 0)
converge dans L2 , c’est à dire est de Cauchy dans L2 .
Soit Δ et Δ deux subdivisions ; notons Δ̃ la subdivision obtenue en prenant l’union des
points de Δ et Δ . Notons
X = T Δ (M ) − T Δ (M ).
Puisque (Mt2 − TtΔ (M ) , t ≥ 0) est une martingale, X est également une martingale nulle
en 0 telle que (Xt , 0 ≤ t ≤ a) est bornée. Le calcul précédent appliqué à X au lieu de M
montre que
2 Δ Δ 2 Δ̃
E(Xa ) = E |Ta (M ) − Ta (M )| = E Ta (X) .
De plus, TaΔ̃ (X) ≤ 2 TaΔ̃ T Δ (M ) + TaΔ̃ T Δ (M ) .
Pour vérifier que la suite TaΔn (M ) est de Cauchy, il suffit donc de vérifier que
E TaΔ̃ T Δ (M )) converge vers 0 quand |Δ| + |Δ | → 0.
TsΔk+1 (M ) − TsΔk (M ) = (Msk+1 − Mtl )2 − (Msk − Mtl )2 = (Msk+1 − Msk )(Msk+1 + Msk − 2Mtl ).
On en déduit
TaΔ̃ T (M ) ≤ TaΔ̃ (M )
Δ 2
sup |Msk+1 + Msk − 2Mtl | .
k
Il suffit d’après l’inégalité de Schwarz de prouver que E(|TaΔ̃ (M )|2 ) reste bornée par une
constante, c’est à dire que
sup E(|TaΔ (M )|2 ) < +∞.
Δ
n−1
n−2
2
= |Mti+1 − Mti |4 + 2 Mti+1 − Mti TaΔ (M ) − TtΔi+1 (M ) .
i=0 i=0
L’équation (1.3) montre que E TaΔ (M )−TtΔi+1 (M )|Fti+1 = E (Ma −Mti+1 )2 |Fti+1 . Puisque
(Mti+1 − Mti )2 est Fti+1 -mesurable, on en déduit
n−1
E(|TaΔ (M )|2 ) = E(|Mti+1 − Mti |4 )
i=0
n−1
+2 E |Mti+1 − Mti |2 E TaΔ (M ) − TtΔi+1 (M )|Fti+1
i=0
n−1
n−1
4
= E(|Mti+1 − Mti | ) + 2 E |Mti+1 − Mti |2 (Ma − Mti+1 )2
i=0 i=0
2 2
≤E sup |Mtk+1 − Mtk | + 2 sup |Ma − Mtk | TaΔ (M ) .
k k
(3) Soit M une martingale continue bornée par C. Il reste à vérifier que le processus
M, M a les propriétés annoncées. Soit (Δn ) une suite de subdivisions dont le pas |Δn | tend
Δ
Soit m(k) un entier tel que pour tout m ≥ m(k), E(|TsΔm (M )−Ts m(k) (M )|2 ) ≤ 2−k . On peut
supposer que la suite m(k) est strictement croissante et, d’après le lemme de Borel Cantelli,
de la suite (T.Δn (M ), n ≥ 1) on peut donc extraire une sous-suite (T.Δm(k) (M ), k ≥ 1) qui
converge p.s. uniformément sur l’intervalle [0, a].
Par un procédé diagonal, on peut faire en sorte d’extraire une nouvelle sous-suite qui
converge uniformément sur tout intervalle [0, N ] pour tout entier N . La limite M, M est
donc p.s. continue. De plus, la limite étant indépendante de la suite de subdivisions choisie,
on peut faire en sorte que la suite de subdivisions soit telle que Δn ⊂ Δn+1 et que ∪n Δn
soit dense dans [0, +∞[.
Alors, si s < t sont des points de ∪n Δn , il existe n0 tel que s, t ∈ Δn pour tout n ≥ n0 . On
en déduit alors de façon évidente que TsΔn ≤ TtΔn pour n ≥ n0 , d’où M, M s ≤ M, M t et
que le processus M, M est croissant par continuité. Enfin, en faisant tendre n vers l’infini
dans l’équation (1.3) écrite pour la subdivision Δn et en utilisant l’intégrabilité uniforme
de la suite (TtΔn (M ), n ≥ 1) qui découle du fait que cette suite est bornée dans L2 d’après
(1.4), on déduit que M 2 − M, M est une martingale.
(4) Soit M une martingale locale continue et (Tn ) une suite de temps d’arrêt qui croı̂t
p.s. vers +∞ et telle que pour tout n le processus X(n) = M Tn défini par (1.1) est une
martingale continue bornée. La démonstration précédente montre qu’il existe un processus
croissant A(n) nul en 0 tel que pour tout n, (X(n)2t − A(n)t , t ≥ 0) est une martingale. De
plus la martingale arrêtée
est une martingale et A(n + 1)Tn est un processus croissant nul en 0. L’unicité montrée en
(1) permet de déduire que A(n + 1)Tn = A(n)Tn p.s. Ceci permet de définir sans ambiguı̈té
un processus croissant M, M t = A(n)t pour tout t ≤ Tn . L’unicité vient de l’unicité sur
tout intervalle [0, Tn ].
Fixons t > 0, ε > 0 et δ > 0. La suite de temps d’arrêt (Tn ) tend vers +∞, donc pour n
assez grand S = Tn est tel que P (S ≤ t) < δ et la martingale M S est bornée. La première
partie montre que lorsque le pas de la subdivision |Δ| tend vers 0, TtΔ (M S ) converge vers
M S , M S t en probabilité. Puisque TsΔ (M S ) = TsΔ (M ) et M S , M S s = M, M s pour
s ∈ [0, S], on en déduit que pour |Δ| assez petit
Δ Δ
P sup |Ts (M ) − M, M s | ≥ ε ≤ δ + P sup |Ts (M ) − M , M s | ≥ ε ≤ 2δ.
S S S
s≤t s≤t
(5) Supposons enfin que M est une martingale est de carré intégrable. D’après l’inégalité
de Doob,
E( sup |Ms |2 ) ≤ 2E(|Mt |2 ).
0≤s≤t
D’autre part, soit (Tn ) une suite de temps d’arrêt qui croı̂t p.s. vers +∞ et telle que pour tout
n le processus Xn = M Tn est une martingale continue bornée. Pour tout t, E(M, M t∧Tn ) =
E(|Mt∧Tn |2 ) et la suite (Mt∧Tn , n ≥ 0) est une (Ft∧Tn , n ≥ 0) martingale bornée dans L2 qui
converge dans L2 vers Mt2 . De plus, le théorème de convergence monotone montre que
Enfin la martingale discrète (Mt∧Tn , n ≥ 1) est fermée par Mt ∈ L2 et converge dans L2 vers
Mt puisque ∨n Ft∧Tn = Ft ; on a donc E(M, M t ) = E(Mt2 ) < +∞. L’inégalité de Doob
montre alors que pour tout s ≤ t,
L’exercice 1.4 (ii) montre que cette martingale locale continue uniformément intégrable est
une martingale. Il suffit d’appliquer le Théorème d’arrêt 1.7 pour conclure la démonstration.
2
Le crochet de deux martingales locales continues M et N est défini par polarisation.
Théorème 1.20 Soit M et N des (Ft )-martingales locales continues. Il existe un unique
processus continu, adapté, à variation finie M, N nul en 0 tel que (Mt Nt − M, N t , t ≥ 0)
soit une martingale locale continue. De plus pour toute suite Δn de subdivisions de [0, t] dont
le pas tend vers 0, la suite
sup (Mti+1 ∧s − Mti ∧s )(Nti+1 ∧s − Nti ∧s ) − M, N s converge vers 0 en probabilité.
s≤t
ti ∈Δn
Définition 1.21 On dit que le processus M, N est le crochet de M et N et que le processus
M, M aussi noté M est le processus croissant associé à M .
Définition 1.22 Un processus X est une semi-martingale continue s’il admet la décompo-
sition Xt = X0 + Mt + At pour tout t, où (Mt ) est une (Ft )-martingale locale continue, (At )
est un processus continu à variation finie, M0 = A0 = 0.
On déduit aisément la
Proposition 1.23 La variation quadratique d’une semi-martingale continue X = X0 +M +
A est finie et égale M, M . La décomposition de X est unique (à indistinguabilité près).
On note donc X, X = M, M et on dit que ce processus croissant est le crochet de X. De
même, si X = X0 + M + A et Y = Y0 + N + B sont des semi-martingales continues (avec
les martingales locales continues M, N et les processus à variation finie A et B) on définit
le crochet de X et Y comme
1
X, Y = M, N = X + Y , X + Y − X − Y , X − Y .
4
(Mti+1 − Mti )(Ati+1 − Ati ) ≤ sup |Mti+1 − Mti | V ar[0,t] (A).
i
i
Puisque les trajectoires de M sont p. s. continues (donc uniformément continues sur [0, t])
et que V ar[0,t] (A) < +∞ on déduit que p.s., le majorant tend vers 0 quand |Δ| → 0. 2
est un processus d’Itô ; il est à trajectoires continues. Le processus b est sa dérive, le processus
σ est le coefficient de diffusion et x est la condition initiale. L’équation (1.5) est souvent
également notée
dXt = bt dt + σt dBt ,
(1.6)
X0 = x.
t
Le Théorème 1.13 montre que Mt = 0 σs dBs est une (FtB )-martingale locale continue.
t t
Un processus d’Itô Xt = x + 0 σs dBs + 0 bs ds est donc une semi-martingale locale conti-
t
nue. On dit que t → 0 σs dBs est sa partie martingale (même si c’est seulement une
t
martingale locale) et que t → x + 0 bs ds est sa partie à variation finie . La partie mar-
tingalede X est une vraie (FtB )-martingale si le coefficient de diffusion σ est cadlag tel
t
que E 0 σs2 ds < +∞ pour tout t > 0, ou plus généralement si σ ∈ H2 (FtB ). C’est une
martingale bornée dans L2 si σ ∈ H2∞ (Ft2 ).
Les résultats de la section précédente donnent donc immédiatement quelques propriétés
importantes des processus d’Itô.
t t
Corollaire 1.25 (i) Le crochet d’un processus d’Itô Xt = x + 0 σs dBs + 0 bs ds est défini
t
par X, Xt = 0 σs2 ds pour tout t ≥ 0.
t
(ii) Plus généralement, le crochet croisé de deux processus d’Itô Xt = x + 0 σs dBs +
t t t
bs ds et Yt = y + 0 σ̄s dBs + 0 b̄s ds est celui de leurs parties martingales, soit X, Y t =
t
0
σ σ̄ ds.
0 s s t t t t
(iii) Soit (Xt = x + 0 σs dBs + 0 bs ds = x̃ + 0 σ̃s dBs + 0 b̃s ds, t ≥ 0) un processus
d’Itô, où b, b̃ ∈ H1loc (FtB ), σ, σ̃ ∈ H2loc (FtB ), x, x̃ ∈ R. Alors, x = x̃, b = b̃ ds ⊗ dP p.p. et
σ = σ̃ ds ⊗ dP p.p., c’est à dire que la décomposition de X est unique.
(iv) Soit (Xt ) un processus d’Itô qui est une (FtB )-martingale locale. Alors sa dérive b
est nulle ds ⊗ dP p.p.
Nous généralisons de même la notion de processus d’Itô. Notons M(d, r) l’ensemble des
matrices d × r à d lignes et r colonnes. On dit qu’un processus X = (Xji (t) : 1 ≤ i ≤ d, 1 ≤
j ≤ r, t ≥ 0) à valeurs dans M(d, k) appartient à H1loc (Ft ) (resp. H2loc (Ft ), H22 (Ft ), H2∞ (Ft ))
si chaque composante Xki est un processus réel qui appartient à H1loc (Ft ) (resp. H2loc (Ft ),
H22 (Ft ), H2∞ (Ft )).
où on note
⎛ ⎞ ⎞ ⎛ ⎛ ⎞ ⎞
⎛
Xt1 x1 σ11 (s) · · · σr1 (s) b1 (s)
⎜ ⎟ ⎜ ⎟ ⎜ .. ⎟ , ⎜ ⎟
Xt = ⎝ ... ⎠ , x = ⎝ ... ⎠ , σ(s) = ⎝ ... ..
. . ⎠ b(s) = ⎝ ... ⎠ .
Xtd xd σ1 (d) · · · σr (s)
d d
bd (s)
t
pour b, b̄ ∈ H1loc et σk , σ̄k ∈ H2loc . Alors le processus 0 b(s)ds est continu à variation finie,
t
tandis que le processus rk=1 0 σk (s)dBsk est une martingale locale continue comme somme
de martingales locales continues. Les processus ξ et ξ¯ sont donc des semi-martingales. Pour
trouver leurs
crochets, on remarque tout d’abord
2
que pour chaque indice k = 1, · · · , r, le
t t
processus 0 σk (s)dBsk − 0 |σk (s)|2 ds , t ≥ 0 est une (Ft )-martingale locale.
Soit k = l ; supposons d’abord que les processus σk et σl sont étagés, c’est à dire
n−1
n
σk = ξki 1]ti ,ti+1 ] et σl = ξli 1]ti ,ti+1 ] , t0 = 0 < t1 < · · · et ξki , ξlj Fti -mesurables.
i=0 i=1
Soit s < t ; sans perte de généralité, on peut supposer que les instants s et t sont ajoutés à
la liste des ti , avec s = tI et t = tn . Alors,
t t
n−1
n−1
E σk (u)dBuk σl (u)dBul Fs = E ξki ξlj [Btki+1 − Btki ][Btlj+1 − Btlj ]Fs
0 0 i=0 j=0
s s
= σk (u)dBuk σl (u)dBul .
0 0
En effet l’indépendance de Fti , Btki+1 − Btki et Btli+1 − Btli , entraı̂ne par exemple que :
si i < I ≤ j, ξki (Btkj+1 − Btkj )E(ξlj E(Btlj+1 − Btlj |Ftj )|FtI ) = 0,
si I ≤ i < j, E(ξki (Btki+1 − Btki )ξlj E(Btlj+1 − Btlj |Ftj )FtI ) = 0,
si I ≤ i = j, puisque E[(Btki+1 − Btki )(Btli+1 − Btli )|Fti ) = E[(Btki+1 − Btki )(Btli+1 − Btli )] = 0,
on en déduit E(ξki ξli E[(Btki+1 − Btki )(Btli+1 − Btli )|Fti )FtI ) = 0.
Cette propriété s’étend ensuite à des processus σk et σl de H22 (Ft ) pour lesquels on déduit
que
r t
2
r t
k 2
σk (s)dB s − |σk (s)| ds , t ≥ 0
k=1 0 k=1 0
est une (Ft )-martingale. Par localisation, on montre enfin que ce processus est une (Ft )-
martingale locale si on sait seulement que les processus σk , 1 ≤ k ≤ r appartiennent à
H2loc (Ft ).
Le crochet
r des t processus ξ et ξ¯ estdonc celui de leurs parties martingales
t
mt = k=1 0 σk (s)dBsk , et m̄t = rk=1 0 σ̄k (s)dBsk soit
t
r
¯ t = m, m̄t =
ξ , ξ σk (s)σ̄k (s)ds.
0 k=1
où σ(s) désigne la norme euclidienne dans Rr du vecteur (σ1 (s), · · · , σr (s)).
1.4.2 Formule d’Itô générale
Les résultats de la section précédente sont résumés dans la
Proposition 1.28 Soit (Bt ) un (Ft )-Brownien standard à valeurs dans Rr , (Xt ) un pro-
cessus d’Itô à valeurs dans Rd de la t forme (1.7). Alors X est à trajectoires continues. Pour
chaque i = 1, · · · , d, le processus ( 0 bi (s)ds, t ≥ 0) est continu à variation finie (c’est à dire
t
que chacune de ses composantes est à variation finie), nul en 0. Le processus 0 σ(s)dBs est
une martingale locale continue (c’est à dire que chacune de ses composantes est une mar-
tingale locale continue) nulle en 0. La décomposition est unique. Le crochet des composantes
X i et X j , 1 ≤ i, j ≤ d est
t
r
X , X t =
i j
σki (s)σkj (s)ds.
0 k=1
La formule d’Itô, montrée pour un processus d’Itô réel dans le cours de Calcul Stochas-
tique 1, se généralise immédiatement à des processus d’Itô multidimensionnels. Rappelons
la tout d’abord en dimension 1 sous sa forme la plus simple.
t t
Théorème 1.29 Soit Xt = x+ 0 σ(s)dBs + 0 b(s)ds, où x ∈ R, (Bt ) est un (Ft )-Brownien,
b ∈ H1loc , σ ∈ H2loc . Soit f : R → R une fonction de classe C 2 . Alors pour tout t ≥ 0,
t
1
f (Xt ) = f (x) + f (Xs )dXs + f (Xs )dX, Xs (1.8)
0 2
t t
1 2
= f (x) + f (Xs )σ(s)dBs + f (Xs )b(Xs ) + f (Xs )σ (s) ds.
0 0 2
t
k
d t
d
∂f i j ∂f
= f (x) + (Xs )σj dBs + (Xs )bi (s)ds
0 j=1 i=1 ∂x i 0 i=1 ∂x i
1 t
∂ 2f
d
+ (Xs )ai,j (s)ds. (1.10)
2 0 i,j=1 ∂xi ∂xj
2
∂2f
Notons ∂x2 la matrice carrée symétrique ∂xi ∂xj , 1 ≤ i, j ≤ d , (, ) le produit scalaire
∂ f
dans Rd et ∂f∂x
la matrice colonne dont les composantes sont les dérivées partielles ∂f
∂xi
. On
peut alors écrire formellement la formule d’Itô
∂f 1 ∗ ∂ 2f
df (Xt ) = (Xt ), dXt + T race σ(t)σ (t) 2 (Xt ) dt.
∂x 2 ∂x
Si la fonction f dépend aussi du temps, on a la seconde version de la formule d’Itô.
Théorème 1.31 Soit B un (Ft )-Brownien standard de dimension r, σ un processus à va-
leurs dans M(d, r) qui appartient à H2loc (F t ), b un processus
à valeurs dans Rd qui appartient
t t
à H1loc (Ft ) et x ∈ Rd . Notons Xt = x + 0 σ(s)dBs + 0 bs ds le processus d’Itô défini par les
équations (1.7) pour tout i = 1, · · · , d et soit f : [0, +∞[×Rd → R une fonction de classe
C 1,2 , c’est à dire de classe C 1 par rapport à la première variable t et de classe C 2 par rapport
à la seconde variable x. Alors si a(s) = σ(s)σ(s)∗ , on a :
t t
d
∂f ∂f
f (t, Xt ) = f (0, x) + (s, Xs )ds + (s, Xs )dXsi
0 ∂t 0 i=1 ∂x i
t
d
1 ∂ 2f
+ (s, Xs )dX i , X j s ds (1.11)
2 0 i,j=1 ∂xi ∂xj
t
r
d
∂f
= f (0, x) + (s, Xs )σki (s)dBsk
0 k=1 i=1 ∂x i
t !
∂f
d
∂f 1
d
∂ 2
f
+ (s, Xs ) + (s, Xs )bi (s) + (s, Xs )ai,j (s) ds.
0 ∂t i=1
∂x i 2 i,j=1
∂x i ∂x j
∂f ∂f 1 ∗ ∂ 2f
df (t, Xt ) = (t, Xt )dt + (t, Xt ), dXt + T race σ(t)σ (t) 2 (t, Xt ) dt.
∂t ∂x 2 ∂x
Un cas particulier très simple de cette formule est le résultat suivant qui est une formule
d’intégration par parties . On la montrera comme exercice.
Si f : [0, +∞[→ R est de classe C 1 et (Bt ) est un Brownien standard unidimensionnel,
t t
f (s)dBs = f (t)Bt − Bs f (s)ds.
0 0
T
E Xs Bs ≤ [p(2p − 1)] T
p p−1
E 2p
|Xs | ds (1.12)
0 0
On pourra montrer cette inégalité très utile dans l’exercice 1.8. Le résultat suivant renforce
la conclusion. L’une des inégalités est montrée dans l’exercice 1.8.
2p
kp E (M T ) ≤ E sup |Ms |
p
≤ Kp E (M pT ) . (1.13)
0≤s≤T
Démonstration. (i) Il faut montrer que pour 0 ≤ s < t, le vecteur aléatoire Xt − Xs suit
une loi N (0, (t − s)Id) et est indépendant de Fs .
Soit Z un vecteur gaussien de loi N (0, (t − s)Id). Puisque la fonction caractéristique
caractérise la loi, il suffit de vérifier que pour tout u ∈ Rd
u2 (t−s)
i(u,Xt −Xs )
E e |Fs = E ei(u,Z)
= e− 2 . (1.15)
En effet, supposons que (1.15) est vraie et notons Φ(x) = ei(u,x) ; pour tout A ∈ Fs
on a E[1A Φ(Xt − Xs )] = P (A)E[Φ(Z)]. On en déduit que pour toute fonction borélienne
bornée f : Rd → R et tout A ∈ Fs , on a E 1A f (Xt − Xs ) = P (A)E[f (Z)]. Ceci prouve
l’indépendance de Xt − Xs de la tribu Fs et montre également que la loi de Xt − Xs est
égale à celle de Z.
Pour prouver (1.15), fixons tout d’abord v ∈ Rd . Par hypothèse, si 0 ≤ s < t,
v2 t v2 t
E exp (Xt − Xs , v) | Fs = exp −(Xs , v) + E exp (Xt , v) − Fs
2 2
v2 (t − s)
= exp .
2
Un argument de récurrence finie (reposant sur le caractère analytique des deux membres de
(1.15) comme fonction de l’une de variables vk ∈ C, les autres composantes de v étant fixées
dans R ou C) montre que l’équation précédente s’étend du cas v ∈ Rd au cas v ∈ Cd . Cette
égalité appliquée au vecteur v dont les composantes sont vk = iuk montre (1.15).
(ii) Nous ne montrerons cette
t caractérisation que dans le cas où (Xt ) est un processus
d’Itô, c’est à dire Xt = X0 + 0 H(s)dBs avec H ∈ H2loc . Le cas général nécessite une notion
d’intégrale stochastique plus générale que celle par rapport au Brownien présentée en Calcul
t j j= 1,2· · · , d et t > 0, le crochet
j
Stochastique 1. Pourr tout rde X j à l’instant t est donné par
X , X t = t = k=1 0 |Hk (s)| ds, ce qui entraı̂ne que k=1 |Hk (s)|2 = 1 p.s. pour presque
j j
t
tout s. De plus, si j = l, pour tout t > 0, le crochet X j , X l t = 0 rk=1 Hkj (s)Hkl (s) ds = 0,
ce qui entraı̂ne que rk=1 Hkj (s)Hkl (s) = 0 p.s. pour presque tout s. On en déduit que H ∈ H22
et que (Xt , 0 ≤ t ≤ T ) est une martingale. De plus, les égalités précédentes montrent que
les vecteurs (H j (s), 1 ≤ j ≤ d) forment une famille orthonormée (donc libre) de R , ce
r
qui entraı̂ne d ≤ r. Pour tout A ∈ Fs et λ ∈ Rd , soit f (t) = E 1A exp [i(λ, Mt − Ms )] .
2
D’après la partie (i), il suffit de montrer que f (t) = P (A) exp − λ2 (t − s) . En appliquant
la formule d’Itô séparément
à la partie réelle et à la partie imaginaire de la fonction x =
1 d
(x , · · · x ) → exp i j=1 λ x , on déduit que pour s < t,
d j j
d
r t
i(λ,Mt ) i(λ,Ms )
e = e +i λ j
ei(λ,Mu ) Hkj (u)dBuk
j=1 k=1 s
d
r t
λj λl
− ei(λ,Mu ) Hkj (s)Hkl (u)du,
j,l=1 k=1
2 s
ce qui entraı̂ne
d
r
d
i(λ,Mt −Ms )
t
i(λ,Mu −Ms ) |λj |2 t
e =1+i λ j
e Hkj (u)dBuk − ei(λ,Mu −Ms ) du.
j=1 k=1 s j=1
2 s
t
Les intégrales stochastiques ( s ei(λ,Mu −Ms ) Hkj (u)dBuk , t ≥ s) sont des martingales pour tout
j = 1, · · · , d et k = 1, · · · , r, et sont indépendantes de Fs . En utilisant le théorème de Fubini,
on en déduit
t
λ2 i(λ,Mu −Ms ) λ2 t
f (t) = P (A) − E 1A e du = P (A) − f (u)du.
2 s 2 s
2
Puisque f (t) = − λ
2
f (t) pour t ≥ s et que f (s) = P (A), nous avons établi que pour tout
2
t ≥ s, f (t) = P (A) exp(− λ2 (t − s)). 2
On dit que le processus de Markov est homogène si sa fonction de transition est homogène.
Nous allons montrer que le mouvement Brownien est un processus de Markov homogène
de semi-groupe de transition Ph défini pour s ≥ 0, h > 0, x ∈ Rd et A ∈ Rd par :
1 y − x2
Ph (x, A) = P (Bs+h ∈ A|Bs = x) = d exp − dy,
(2πh) 2 A 2h
c’est à dire que Ph (x, dy) est la loi d’un vecteur gaussien N (x, hId).
Théorème 1.36 (Propriété de Markov simple) Soit (Bt ) un mouvement Brownien standard
d-dimensionnel et f : Rd → R une fonction borélienne bornée. Alors pour tout s ≤ t,
1 y − Bs 2
E[f (Bt ) | Fs ] = E[f (Bt ) | Bs ] =
B
f (y) exp − dy.
d
(2π(t − s)) 2 Rd 2(t − s)
Lemme 1.37 Soit F une tribu et G une sous-tribu de F, X : (Ω, G) → (E1 , E1 ) une
application G-mesurable et Y : (Ω, F) → (E2 , E2 ) une application F-mesurable indépendante
de G. Alors, pour toute fonction Φ : (E1 × E2 , E1 ⊗ E2 ) → (R, R) bornée,
E(Φ(X, Y )|G) = ϕ(X), où ϕ : (E1 , E1 ) → (R, R) est définie par ϕ(x) = E[Φ(x, Y )].
(t − s)u2
E(exp(i(u, Bt )|Fs ) = E(exp(i(u, Bt )|Bs ) = exp(i(u, Bs )) exp − .
2
On en déduit que le processus Xt = exp i(u, Bt ) + tu2 /2) est une (Ft )-martingale, et
d’après la remarque précédente, que (Yt = Xτ +t , t ≥ 0) est une (Gt )-martingale. Pour tout
s ≤ t, on a donc
Yt E(Yt |Gs ) Ys
E Gs = = ,
Y0 Y0 Y0
Yt
ce qui prouve que Y0 = exp(i(u, Mt ) + tu2 /2), t ≥ 0 est une (Gt )-martingale. Donc pour
s ≤ t,
1 y − Bτ 2
E[f (Bτ +t ) | Fτ ] = E[f (Bτ +t ) | Bτ ] = d f (y) exp − dy. (1.19)
(2πt) 2 Rd 2t
Démonstration. Le lemme 1.37 appliqué à X = Bτ , Y = Bτ +t − Bτ , G = Fτ (ou bien
G = σ(Xτ )), F = Ft+τ et le Corollaire 1.38 montrent que, puisque (Bτ +t − Bτ , t ≥ 0) est un
Brownien indépendant de Fτ , la propriété de Markov forte (1.19) est satisfaite. 2
1.6 Exercices
Exercice 1.1 Montrer qu’une martingale locale M arrêtée est encore une martingale locale.
Exercice 1.2 Soit (Mt ) un processus cadlag (Ft )-adapté. Montrer que c’est une (Ft )-
martingale si et seulement si pour tout temps d’arrêt borné T , MT ∈ L1 et E(MT ) = E(M0 ).
Exercice 1.3 Soit (Xt , 0 ≤ t ≤ T ) une (Ft )-surmartingale, c’est à dire que si 0 ≤ s ≤ t ≤ T ,
Xs ≥ E(Xt |Fs ), telle que E(XT ) = E(X0 ). Montrer que (Xt ) est une martingale.
Exercice 1.4 Soit (Mt ) une (Ft )-martingale locale. Monter que
(i) Si Mt est positive, c’est une surmartingale.
(ii) S’il existe Y ∈ L1 telle que |Mt | ≤ Y p.s., alors (Mt ) est une martingale.
2p p 2p
E(|MT | ) ≤ [p(2p − 1)] T p−1
E |Xs | ds .
0
3. En appliquant l’inégalité de Doob, montrer qu’il existe une constante Kp que l’on
explicitera telle que
T
2p 2p
E sup |Mt | ≤ Kp E |Xs | ds .
0≤s≤T 0
Exercice 1.9 Soit (Xt ) un processus (Ft )-adapté continu, positif tel que X0 = 0, (At ) un
processus croissant continu (Ft )-adapté tel que pour tout temps d’arrêt T , E(XT ) ≤ E(AT ).
Pour tout t ≥ 0, on note Vt = sup0≤s≤t Xs .
1. Montrer que pour tout temps d’arrêt T et tout > 0, P (VT ≥ ) ≤ 1 E(AT ). (On
pourra utiliser τε = inf{t ≥ 0 : Xt ≥ ε} et Tn = T ∧ n ∧ τε .)
2. Montrer que pour tout temps d’arrêt T , et tout δ > 0, > 0, si S = inf{t ≥ 0 : At ≥
δ}, P (VT ≥ , AT ≤ δ) ≤ P (VT ∧S ≥ ε) ≤ 1 E(δ ∧ AT ).
3. Soit F : [0, +∞[→ [0, ∞[ une fonction dérivable, strictement croissante telle que
F (0) = 0 et pour tout x > 0, u → F u(u) 1[x,+∞[ (u) ∈ L1 (λ), où λ désigne la mesure de
Lebesgue. Notons G :]0, +∞[→]0, +∞[ la fonction définie par
+∞
F (u)
G(x) = 2F (x) + x du.
x u
+∞
(a) Montrer que G (x) = F (x) + x F u(u) du.
(b) Montrer que
+∞
E(F (VT )) = P (VT ≥ u)F (u)du
0 +∞
+∞
1
≤ 2P (AT ≥ u)F (u)du + E AT 1{AT ≤u} F (u)du
0 0 u
≤ E(G(AT )).
2−p
En déduire que si p ∈]0, 1[, pour tout temps d’arrêt T , E(VTp ) ≤ 1−p
E(ApT ).
´
2 Equations différentielles stochastiques
Ces processus, qui généralisent les équations différentielles ordinaires, sont fondamentaux
en finance. Ils modélisent le prix d’actifs financiers.
Rappelons qu’une équation différentielle ordinaire (EDO) sur [0, +∞[×R est du type
yt = f (t, yt ) et y0 = y, (2.1)
où y : [0, +∞[→ R est la fonction inconnue et f : [0, +∞[×R → R est une fonction
donnée. L’étude mathématique des équations différentielles ordinaires est d’une importance
considérable pour les applications notamment en physique. En général, il est impossible de
donner une solution explicite à une EDO. On peut cependant chercher à savoir s’il existe
une solution et si elle est unique. Un critère est le :
Théorème 2.1 (Théorème de Cauchy-Lipschitz) Supposons qu’il existe une constante K >
0 telle que pour tout t ∈ [0, +∞[, x, y ∈ R :
|f (t, x) − f (t, y)| ≤ K|x − y| (condition de Lipschitz globale),
|f (t, x)| ≤ K(1 + |x|) (condition de croissance linéaire).
Alors l’EDO (2.1) a une solution unique définie sur [0, +∞[.
La condition de Lipschitz globale est assez naturelle pour que la solution soit définie sur
tout [0, +∞[. Si on considère par exemple y0 = 1 et f (t, y) = y 2 , alors on voit facilement que
l’unique solution de l’équation (2.1) correspondante est yt = 1/(1 − t), et que cette solution
explose en t = 1.
Une équation différentielle stochastique (EDS) est une perturbation de (2.1) avec un
terme aléatoire modélisant un bruit autour du phénomène déterministe décrit par (2.1).
La perturbation la plus simple est l’ajout d’un Brownien. Ceci modélise le fait que sur des
intervalles de temps disjoints, les perturbations sont la somme de très nombreuses petites
variables aléatoires indépendantes de même loi (qui, d’après le théorème central limite,
convenablement renormalisée suit une loi proche d’une loi gaussienne). 0n considère
donc l’équation dYt = f (t, Yt )dt + σdBt et Y0 = y, soit, sous forme intégrale (la seule qui ait
un sens mathématique, puisque le Brownien n’est pas dérivable) :
t
Yt = y + f (s, Ys )ds + σBt
0
pour tout t ≥ 0. On a coutume d’utiliser des majuscules pour les solutions d’EDS et des
minuscules pour les solutions d’EDO.
La trajectoire y de l’EDO (2.1) est régulière et déterministe. La présence du Brownien
entraı̂ne que pour σ petit , la trajectoire de l’EDS précédente, non dérivable, est proche
de celle de (2.1), en oscillant aléatoirement autour. Mais quand σ est grand, cette trajectoire
n’a plus rien à voir avec celle de (2.1).
La figure suivante montre les trajectoires sur [0, 2] de la solution de l’EDO
yt = −yt , et y0 = 5
−1
−2
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
Dans la suite, nous étudierons donc des Équations Différentielles Stochastiques (EDS),
dont la définition précise est la suivante.
On se donne de nouveau une filtration (Ft ) continue à droite et formée de tribus
complètes (mais on ne suppose pas nécessairement que F0 est la tribu des ensembles négligeables),
un (Ft )-Brownien B à valeurs dans Rr , une variable aléatoire ξ à valeurs dans Rd indépendante
de FsB = σ(Bs , s ≥ 0), des fonctions boréliennes
(ii) La condition globale de restriction sur la croissance sur [0, T ] s’il existe C > 0 telle
que
|ϕ(t, x)| ≤ C(1 + |x|) , ∀t ∈ [0, T ], ∀x, y ∈ Rd . (2.4)
Lorsque la fonction ϕ est définie sur [0, +∞[×Rd et que les conditions (2.3) et (2.4) sont
vérifiées sur chaque intervalle [0, T ], on dit que ϕ vérifie les conditions globales de Lipschitz
et de restriction sur la croissance.
Lemme 2.4 (Lemme de Gronwall) Soit f : [0, T ] → [0, M ] une fonction borélienne positive
bornée, a et b des constantes réelles telles que pour tout t ∈ [0, T ]
t
f (t) ≤ a + bf (s)ds.
0
f (t) ≤ a + b a + b f (u) du ds
0 0
≤ a + abt + b2 f (u) du ds
0≤u≤s≤t
u
2
≤ a + abt + b a + b f (v) dv du ds
0≤u≤s≤t 0
t s u
2 3
≤ a + abt + ab du ds + b f (v) dv du ds
0≤u≤s≤t 0 0 0
2 2 n n n+1 n+1
bt b t b t
≤ a + abt + a + ··· + a +M ,
2! n! (n + 1)!
Définition 2.5 La fonction ϕ satisfait la condition de Lipschitz locale sur [0, T ] par rapport
à la variable spatiale x si pour tout n ≥ 1 il existe Kn > 0 tel que pour tout t ∈ [0, T ] et
x, y ∈ Rd :
|ϕ(t, x) − ϕ(t, y)| ≤ Kn |x − y| pour |x| ≤ n et |y| ≤ n. (2.5)
Si ϕ est définie sur [0, +∞[ et satisfait la condition de Lipschitz locale (2.5) sur chaque
intervalle [0, T ] avec une suite de constantes Kn qui ne dépend pas de T , on dit qu’elle est
localement Lipschitzienne.
Théorème 2.6 (Théorème d’existence et d’unicité forte) Soit σ et b des coefficients qui sa-
tisfont sur [0, +∞[ les conditions globales de Lipschitz (2.3) et de restriction sur la croissance
(2.4). Alors, si B est un Brownien standard de dimension r, pour toute variable aléatoire
X0 de carré intégrable et indépendante de σ(Bs , s ≥ 0) il existe une unique solution forte de
l’EDS t t
Xt = X0 + σ(s, Xs )dBs + b(s, Xs )ds p.s. , ∀t ≥ 0. (2.6)
0 0
Cette solution forte X de (2.6), adaptée à la filtration (Ft ) où Ft est la tribu complétée de
σ(X0 , σ(Bs , 0 ≤ s ≤ t)), est continue. De plus, il existe une constante C̃(C, T ) telle que pour
tout t ≥ 0 :
Si la condition initiale X0 ∈ Lp , 2 ≤ p < +∞, il existe une constante C̄(C, T, p) telle que
Unicité Nous supposons ici seulement la condition (2.5). Soit X et X̄ des solutions fortes
(donc continues) de (2.6). Pour tout n ≥ 0, soit τn = inf{t ≥ 0 : |Xt | ≥ n}, τ̄n = inf{t ≥
0 : |X̄t | ≥ n} et Tn = τn ∧ τ̄n . Alors, Tn → ∞ p.s. De plus,
t∧Tn t∧Tn
Xt∧Tn − X̄t∧Tn = σ(s, Xs ) − σ(s, X̄s ) dBs + b(s, Xs ) − b(s, X̄s ds.
0 0
(0)
Xt = X0 , ∀t ∈ [0, T ],
t t
(n+1) (n)
Xt = X0 + σ(Xs )dBs + b(Xs(n) )ds, ∀n ≥ 0, ∀t ∈ [0, T ]. (2.9)
0 0
En utilisant la restriction sur la croissance (2.4), on en déduira que les processus X (n) sont
(n) (n)
bien définis puisque b(t, Xt ) ∈ H1T (Ft ) et σ(t, Xt ) ∈ H2T (Ft ). Puisque X0 ∈ L2 , (2.10)
est vraie pour n = 0. Supposons que (2.10) est vraie pour n et montrons que cette propriété
est vraie pour n + 1. Pour tout t ∈ [0, T ], l’inégalité de Schwarz, l’isométrie dans L2 des
intégrales stochastiques, la condition (2.4) et le théorème de Fubini entraı̂nent
t t
(n+1) 2 2 (n) 2 (n) 2
E(|Xt | ) ≤ 3 E(|X0 | ) + T E(|b(s, Xs )| )ds + E(|σ(s, Xs )| )ds
0 0
t
2 2
≤ 3 E(|X0 | ) + 3(T + 1) C 1 + E(|Xs(n) |2 ds ,
0
(ii) Montrons qu’il existe une constante K := K(T ), qui dépend seulement de C et de
T , telle que
(n)
sup sup E(|Xt |2 ) ≤ K[1 + E(|X0 |2 )]eCt . (2.11)
n≥1 t∈[0,T ]
(1)
En effet, pour tout t ∈ [0, T ], la partie (i) montre que E(|Xt |2 ) ≤ C[1 + E(|X0 |2 )], tandis
que pour tout n ≥ 1,
t
(n+1) 2 2
E(|Xt | ) ≤ C[1 + E(|X0 | )] + C E(|Xs(n) |2 )ds.
0
En itérant cette inégalité, on en déduit par récurrence sur n que pour tout n ≥ 1 et t ∈ [0, T ],
(Ct)2 (Ct)n
(n+1) 2 2
E(|Xt |) ≤ C[1 + E(|X0 | )] 1 + Ct + + ··· + ,
2! n!
ce qui termine la démonstration de (2.11).
(iii) Montrons que la suite (X (n) ) converge p.s. uniformément sur [0, T ] vers un processus
X continu, (Ft )-adapté X tel que (2.7) soit vraie. Pour tout n ≥ 1, notons
(n+1) (n)
Xt − Xt = Ant + Mtn ,
où
t t
Ant = b(s, Xs(n) ) − b(s, Xs(n−1) ) ds , Mtn = σ(s, Xs(n) ) − σ(s, Xs(n−1) ) dBs .
0 0
(n+1) (n)
Alors, E(sup0≤s≤t |Xs − Xs |2 ) ≤ 2E sup0≤s≤t |Ans |2 + 2E sup0≤s≤t |Msn |2 .
L’inégalité de Schwarz et (2.3) entraı̂nent pour tout r ∈ [0, t],
t t
n 2 (n) (n−1) 2
|At | ≤ t |b(s, Xs ) − b(s, Xs )| ds ≤ CT |Xs(n) − Xs(n−1) |2 ds
0 0
(n) (n−1)
De plus, l’inégalité (2.11) montre que le processus s → σ(s, Xs ) − σ(s, Xs ) appartient
à H2T (Ft ). En effet, (2.3) montre que
t
t
(n−1) 2
E (n)
σ(s, Xs ) − σ(s, Xs ) ds ≤ C 2
E(|Xs(n) − Xs(n−1) |2 )ds
0 0
t
≤ 2C 2 E(|Xs(n) |2 ) + E(|Xs(n−1) |2 ds < +∞.
0
L’inégalité de Doob appliquée à la martingale continue (Mtn , t ≥ 0), puis (2.3) montrent que
t
n 2
E sup |Ms | ≤ 4 E(|σ(s, Xs(n) ) − σ(s, Xs(n−1) )|2 )ds
0≤s≤t 0
t
2
≤ 4C E(|Xs(n) ) − Xs(n−1) )|2 )ds.
0
2n (4Lt)n
P (An ) ≤ 2 E sup |Xs(n+1) − Xs(n) |2 ≤ C̄ .
0≤s≤T n!
Le Lemme de Borel Cantelli permet de conclure que P (lim sup An ) = 0, c’est à dire que
(n+1) (n)
pour presque tout ω, il existe un entier N (ω) tel que sup0≤s≤T |Xs (ω) − Xs (ω)|2 ≤ 21n
(n) (0) (k+1) (k)
pour tout n ≥ N (ω). La suite Xt (ω) = Xt (ω) + n−1 k=0 Xt (ω) − Xt (ω) est donc
uniformément convergente vers la limite Xt (ω). En posant X = 0 sur l’ensemble négligeable
hors duquel la convergence est vraie, on a ainsi construit un processus X qui est (p.s.)
continu, (Ft ) adapté comme limite p.s. d’une suite de processus (Ft )-adaptés (on rappelle
que les tribus Ft sont complètes). Enfin,
n−1
(4Lt)k
n−1
≤ 2E(|X0 |2 ) + 2C̄ ≤ 2E(|X0 |2 ) + 2C̄e4LT .
k=0
k!
Le lemme de Fatou permet d’en déduire que E sup0≤t≤T |Xt |2 ≤ 2E(|X0 |2 ) + 2C̄e4LT , ce
qui prouve (2.7).
(n)
2
(iv) Montrons enfin que pour tout t ∈ [0, T ], la suite Xt converge dans L√ vers Xt , et
1
que le processus X satisfait (2.6). pour tout x > 0, la formule de Stirling n! ∼ 2πnn+ 2 e−n
k 12
montre que pour m assez grand, ∞ k=m
x
k!
≤ C(x)m−1 . Pour tout t ∈ [0, T ] et n > m,
n−1 +∞
1
(n) (m) (k+1) (k) (4Lt)k 2
Xt − Xt 2 ≤ Xt − Xt 2 ≤ C̄ →0
k=m k=m
k!
(n)
quand m → +∞. La suite Xt est donc de Cauchy dans L2 ; elle converge dans L2 vers une
variable aléatoire Yt de carré intégrable. Elle admet une sous-suite qui converge p.s. vers Yt
et on a donc Yt = Xt p.s.
De plus, (2.7) et la restriction sur la croissance montrent que les processus s → b(s, Xs )
et s → σ(s, Xs ) appartiennent respectivement à H1T (Fs ) et H2T (Fs ). Le théorème de Fubini
montre que
T T
+∞
1 2
(n) (m) 2 (4Lt)k 2
E |Xt − Xt | dt ≤ C̄ dt → 0 quand m → +∞.
0 0 k=m
k!
Exemple 2.7 (Brownien géométrique) Soit σ et b des nombres réels, S0 un nombre réel
strictement positif. Le Brownien géométrique est la solution de l’EDS
t t
St = S 0 + σSs dBs + bSs ds.
0 0
Le Théorème 2.6 montre que cette EDS a une unique solution forte, puisque les coefficients
σ(t, x) = σx et b(t, x) = bx satisfont clairement les conditions globales de Lipschitz et de
restriction sur la croissance. Pour tout t ≥ 0, notons
σ2
Xt = S0 exp σBt + b − t . (2.12)
2
2
En appliquant la formule d’Itô à la fonction f (t, x) = S0 exp[σx + (b − σ2 )t] et au Brownien
2 2
B, puisque ∂f ∂t
(t, x) = (b − σ2 )f (t, x), ∂f
∂x
(t, x) = σf (t, x), ∂∂xf2 (t, x) = σ 2 f (t, x), f (t, Bt ) = Xt
et f (0, B0 ) = S0 , on déduit que
t
t t t
σ2 1 t 2
Xt = S0 + b− Xs ds + σXs dBs + σ Xs ds = S0 + σXs dBs + bXs ds,
0 2 0 2 0 0 0
c’est à dire que X est solution de (2.12). L’unicité de la solution forte entraı̂ne que X = S.
On en déduit que St > 0 pour tout t ≥ 0 p.s. En appliquant de nouveau la formule d’Itô
à la fonction g(x) = ln(x) et à St , on voit que si on avait postulé que le processus S ne
prenait p.s. que des valeurs positives (ce que nous venons de vérifier) on aurait trouvé pour
Yt = ln(St ),
t t
Ss Ss 1 t σ 2 Ss2 σ2
Yt = Y0 + σ dBs + b ds − ds = Y0 + σBt + b − t,
0 Ss 0 Ss 2 0 Ss2 2
c’est à dire que la forme (2.12) de la solution était naturelle . L’exercice 2.4 généralisera
cette observation à une EDS linéaire plus générale. De plus, la loi de ln(St ) − ln(S0 ) est
2
gaussienne N ((b − σ2 )t, σ 2 t), c’est à dire que St suit une loi log-normale. La figure suivante
montre la simulation de trajectoires du Brownien géométrique sur [0, 1] avec σ = 0.5 (resp.
σ = 2), b = 2 et S0 = 1.
15
14
13
12
11
10
9
8
7
6
5
4
3
2
1
0
−1
−2
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
15
14
13
12
11
10
9
8
7
6
5
4
3
2
1
0
−1
−2
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
La loi de X0 est appelée la loi initiale. On n’exige plus que la filtration (Ft ) soit la plus
petite filtration qui rend mesurable B et X0 , et la solution Xt à l’instant t n’est donc plus
une fonction mesurable de la trajectoire (Bs , s ≤ t) et de X0 . Cependant, puisque B est un
(Ft )-Brownien et que X est (Ft )-adapté, Xt est indépendant de la trajectoire de B après
l’instant t, c’est à dire des accroissements (Br − Bt , r ≥ t).
Une solution forte est clairement une solution faible, mais la réciproque est fausse, comme
le montre l’exemple suivant. L’existence d’une solution faible peut en effet être montrée sous
des conditions plus générales sur les coefficients.
Exemple 2.9 (Équation de Tanaka) Notons sign(x) = 1 si x ≥ 0 et sign(x) = −1 si
x < 0. Alors l’EDS t
Xt = sign(Xs )dBs (2.14)
0
admet une solution faible, mais pas de solution forte.
Si Ω, F, (Ft ), B, X est une solution faible, le processus X est une martingale continue
t
de variation quadratique X, Xt = 0 sign(Xs )2 ds = t et d’après la caractérisation du
Brownien de P. Lévy (Théorème 1.33), X est un (Ft )-Brownien. On en déduit immédiate-
ment la construction d’une solution faible.
t Soit (Xt ) un Brownien et (Ft ) sa filtration naturelle. Pour tout t ≥ 0 soit Bt =
0
sign(Xs )dXs . Le processus (Bt ) est une (Ft )-martingale continue, de variation quadra-
tique B, Bt = t. La caractérisation du Brownien de P. Lévy montre donc que B est un
(Ft )-Brownien. De plus, dBt = sign(Xt )dXt , c’est à dire que dXt = sign(Xt )dBt .
Sur l’espace probabilisé (Ω, F, (Ft ), P ), le couple (B, X) est donc une solution faible de
(2.14). On voit d’ailleurs que sur le même espace probabilisé, (B, −X) est également une
solution faible de (2.14), qui ne peut donc avoir une unique solution trajectorielle mais
au mieux une unique solution en loi .
L’absence de solution forte sera admise.
Définition 2.10 On dit qu’il y a unicité en loi de la solution de (2.13) si deux solutions
faibles (Ω, F, (Ft ), P ), B, X et (Ω̃, F̃ , (F̃t ), P̃ ), B̃, X̃ ont la même loi, c’est à dire que
pour tout n ≥ 1 et tout 0 ≤ t1 < t2 < · · · < tn , les lois des vecteurs (Xt1 , · · · , Xtn ) et
(X̃t1 , · · · , X̃tn ) sont égales.
Le raisonnement précédent montre que pour l’équation de Tanaka (2.14), il y a unicité en
loi puisque nous avons montré que toute solution faible est un Brownien.
On remarque par ailleurs que si les coefficients σ et b satisfont les conditions (2.3)
et (2.4), le Théorème 2.6 montre l’existence et l’unicité forte de la solution de (2.6). Il
y a aussi unicité en loi de la solution forte ou de la solution faible de (2.13). En effet,
soit (Ω, F, (Ft ), P ), B, X et (Ω̃, F̃ , (F̃t ), P̃ ), B̃, X̃ deux solutions faibles et soit Y et Ỹ
deux
solutions fortes
continues
de (2.6) définies respectivement sur les espaces probabilisés
Ω, F, (Ft ), P ), B et Ω̃, F̃ , (F̃t ), P̃ ), B̃ . Le Théorème 2.6 permet de conclure que l’on a
Xt = Yt pour tout t ≥ 0 P p.s. (c’est à dire, qu’en utilisant la continuité des trajectoires
on a un ensemble négligeable construit à partir des instants rationnels en dehors duquel les
trajectoires coı̈ncident). De même X̃t = Ỹt pour tout t ≥ 0 P̃ p.s. Pour prouver l’unicité
faible, il suffit donc de prouver que les lois de X et X̃ sont égales. En reprenant les schémas
d’itération de Picard (2.9) pour X et X̃, on vérifie que pour tout n ≥ 0, les lois des processus
(n) (n)
continus (Bt , Xt ) et (B̃t , X̃t ) sont égales.
montre que pour tout s ≥ 0 et pour tout x ∈ Rd , il existe une unique solution trajectorielle
(Xts,x , t ≥ s) de l’EDS (2.6) qui part de x en l’instant s, c’est à dire définie pour t ≥ s par
t t
Xts,x =x+ σ(u, Xus,x )dBu + b(u, Xu )du. (2.15)
s s
Alors X 0,x = X(x) est la solution forte de (2.6) avec X0 = x, c’est à dire
t t
Xt (x) = x + σ(s, Xs (x))dBs + b(s, Xs (x))ds (2.16)
0 0
s,Xs (x)
Ceci montre que les processus (Xt (x), t ≥ s) et (Xt , t ≥ s) sont indistinguables par
unicité forte de l’EDS dont ils sont solution. 2
Théorème 2.12 (Propriété de Markov) Soit (Xt (x), t ≥ 0) la solution forte de l’EDS (2.6)
avec X0 = x. Alors (Xt (x), t ≥ 0) est un processus de Markov pour la filtration naturelle
(FtB ) du Brownien. Plus précisément, pour toute fonction f : Rd → R borélienne positive
(ou bornée), 0 ≤ s, t,
Lorsque les coefficients sont homogènes, c’est à dire ne dépendent pas du temps, on peut
écrire la propriété de Markov sous une forme plus précise (homogène) et on a la propriété
de Markov forte. En effet, dans ce cas, puisque le processus défini par B̃t = Bs+t − Bs
est un (Fs+t , t ≥ 0)-Brownien, on en déduit que les variables aléatoires Xs+t s,y
et Xt (y)
ont la même loi et la fonction Φt (y) utilisée dans la propriété de Markov peut s’écrire
s,y
Φt (y) = E[f (Xs+t )] = E[f (Xt (y))] = Pt f (y). De plus, on a le
Théorème 2.13 (Propriété de Markov homogène - Propriété de Markov forte)
Soit σki : Rd → R et bi : Rd → R, 1 ≤ i ≤ d, 1 ≤ k ≤ r des coefficients indépendants du
temps tels qu’il existe C > 0 pour lequel pour tout i = 1, · · · , d et k = 1, · · · , r :
|σki (x) − σki (y)| + |bi (x) − bi (y)| ≤ C|x − y|, (2.17)
Notons X(x) la solution forte de l’EDS homogène
t t
Xt = X0 + σ(Xs )dBs + b(Xs )ds (2.18)
0 0
qui correspond au cas X0 = x. C’est un processus de Markov fort homogène, c’est à dire
que pour tout (FtB )-temps d’arrêt τ fini presque sûrement et pour toute fonction borélienne
positive (ou bornée) f : Rd → R,
E[f (Xτ +t (x))|Fτ ] = E[f (Xτ +t (x))|Xτ (x)] = Pt f (Xτ (x)),
où Pt (x) = E[f (Xt (x))].
Remarquons que dans le cas homogène, la condition de Lipschitz (2.17) entraı̂ne immédia-
tement un analogue de la restriction sur la croissance
|σki (x)| + |bi (x)| ≤ C(1 + |x|). (2.19)
Dans le cas général (in-homogène), on montre de façon similaire que le processus espace-
temps est fortement Markovien, c’est à dire que si f : [0, +∞[×Rd → R est borélienne
positive, alors pour tout temps d’arrêt τ fini presque sûrement, si
Φt (s, x) = E[f (s + t, Xts,x )]
on a :
E[f (τ + t, Xτ +t (x))|Fτ ] = E[f (τ + t, Xτ +t (x))|Xτ (x)] = Φt (τ, Xτ (x)).
2.3.2 Générateur infinitésimal
Convention : Dans toute cette section, nous considérons des coefficients σ et b qui satisfont
les conditions (2.3) et (2.4) dans le cas général, ou bien les conditions du Théorème 2.13
dans le cas homogène et que la condition initiale X0 est constante.
Notons C n,p ([0, +∞[×Rd ) l’ensemble des fonctions u : [0, +∞[×Rd → R de classe C n par
rapport à la variable t ∈ [0, ∞[ et de classe C p par rapport à la variable x ∈ Rd .
La formule d’Itô montre donc que si f : [0, +∞[×Rd → R est de classe C 1,2 et si X est
solution de (2.6), alors
∂f ∂f
df (t, Xt ) = σ(t, Xt ) (t, Xt )dBt + (t, Xt ) + At f (t, Xt ) dt. (2.22)
∂x ∂t
On en déduit le
Théorème 2.16 Soit σ et b des coefficients qui satisfont les conditions globales de Lipschitz
(2.3) et de restriction sur la croissance (2.4), X0 ∈ Rd et X la solution forte de (2.6).
Pour toute fonction f : [0, +∞[×Rd → R appartenant à C 1,2 et telle que ∂x ∂f
i
est bornée
pour tout i = 1, · · · , d, le processus (Mt ) défini par
t
∂f
Mt = f (t, Xt ) − + As (s, Xs ) ds (2.23)
0 ∂s
est une (FtB )-martingale et pour tout temps d’arrêt τ p.s. borné, la formule de Dynkin est
vraie : τ
∂f
E[f (τ, Xτ )] = f (0, X0 ) + E + As (s, Xs )ds .
0 ∂s
Démonstration. La propriété de martingale de M est une conséquence immédiate de (2.22),
du Théorème 1.13, de la propriété (2.7) et de la restriction sur la croissance de σ, qui
montrent que le processus s → σ(s, Xs ) ∂f ∂x
(s, Xs ) ∈ H2 .
Le Théorème d’arrêt 1.7 montre alors que si τ est p.s. borné, M0 = E(Mτ ) puisque
la tribu F0B est la tribu complétée de la tribu triviale. Les dérivées partielles de f par
rapport à x étant bornées, on en déduit que |f (s, Xs ) − f (s, X0 )| est majorée par une
combinaison linéaire des composantes Xsi , et d’après (2.7), pour tout K > 0, la variable
aléatoire sups≤K |f (s, Xs ) − f (s, X0 )| est de carré intégrable. De plus, par continuité de f ,
sups≤K |f (s, X0 )| < +∞. Pour tout temps d’arrêt borné, la variable aléatoire f (τ, Xτ ) est
donc intégrable, ce qui termine la démonstration. 2
Grâce à la propriété (2.8), on peut affaiblir les hypothèses sur le contrôle des dérivées par-
∂f
tielles de f dans les théorèmes précédents. En effet, si ∂x i
(t, x) est à croissance polynomiale
en x uniformément en t, c’est à dire s’il existe un exposant ai > 0 tel que
∂f
sup (t, x) ≤ C(1 + |x|ai ),
t ∂xi
alors la restriction sur la croissance des coefficients σki (t, x) et le fait que la condition initiale
soit constante (donc dans tous les espaces Lp , 1 ≤ p < +∞) entraı̂nent que pour tout k, il
existe une constante C et un exposant bi,k > 0 tels que pour tout t > 0
t 2
∂f i 2
E (s, Xs ) σk (s, Xs ) ds ≤ C 1 + sup E(|Xs | i,k ) < +∞.
b
0 ∂xi 0≤s≤t
∂f
Une croissance polynomiale de toutes les dérivées partielles ∂x i
(t, x) permet donc de conclure
que les intégrales stochastiques dans la formule d’Itô de f (t, Xt ) sont des martingales conti-
nues (de carré intégrable).
En appliquant le théorème 2.16 avec d = r = 1, on déduit immédiatement que si f ∈ C 1,2
a une dérivée partielle ∂f
∂x
bornée (ou à croissance polynomiale) et si
2
∂f ∂f ∂f 1 2∂ f
(t, x) + At f (t, x) = (t, x) + b(t, x) (t, x) + σ(t, x) (t, x) = 0,
∂t ∂t ∂x 2 ∂x2
alors f (t, Xt ) est une vraie (FtB )- martingale
De même, si
∂f
(t, x) + At f (t, x) = rf (t, x),
∂t
alors le processus e−rt f (t, Xt ) est une (FtB )-martingale. Le coefficient r est appelé coefficient
d’actualisation. En particulier, si f (T, x) = h(x), on a f (t, Xt ) = er(t−T ) E[h(XT )|FtB ]. Ceci
sera fort utile en finance, comme on le verra dans les chapitres suivants. On peut généraliser
cette propriété de martingale pour un coefficient d’actualisation non constant.
Théorème 2.17 Soit σ et b des fonctions qui satisfont les conditions globales de Lipschitz
et de restriction sur la croissance (2.3) et (2.4), B un mouvement Brownien standard de
dimension r, Xt la solution de l’équation différentielle stochastique :
t t
Xt = x + σ(s, Xs ) dBs + b(s, Xs ) ds (2.24)
0 0
et At son générateur infinitésimal. Alors pour toute fonction continue minorée ρ : [0, T ] ×
Rd → [m, +∞[ et toute fonction f : [0, T ] × Rd → Rd de classe C 1 et t et de classe C 2 en x
∂f
telle que les dérivées partielles ∂x i
de f sont à croissance polynomiale, le processus
t
Mtρ (f ) = e− 0 ρ(s,Xs ) ds f (t, Xt ) − f (0, X0 )
t
− 0s ρ(u,Xu ) du ∂f
− e + As f − ρ f (s, Xs ) ds
0 ∂s
est une martingale pour la filtration FtB ).
− 0s ρ(u,Xu ) du ∂f
+ e + As f − ρ f (s, Xs ) ds
0 ∂s
d
r t s ∂f
+ e− 0 ρ(u,Xu ) du (s, Xs ) σki (s, Xs ) dBsk .
i=1 k=1 0
∂x i
La fonction
t ρétant
s minorée, on montre alors comme dans le théorème précédent que les pro-
cessus 0 exp − 0 ρ(u, Xu ) du ∂x ∂f
i
(s, X i k
s ) σk (s, Xs ) dBs sont des martingales, ce qui conclut
la démonstration. 2
Dans le cas de diffusions homogènes, l’opérateur différentiel défini par (2.20) est bien le
générateur infinitésimal du processus de Markov homogène.
Théorème 2.18 Le générateur infinitésimal A de la diffusion homogène X(x) solution de
(2.18) avec la condition initiale x est bien son générateur en tant que processus de Markov
homogène, c’est à dire que pour toute fonction f de classe C 2 dont les dérivées partielles
d’ordre 1 et 2 sont bornées,
1 1
Af (x) = lim [Ph f (x) − f (x)] = lim [E(f (Xh (x)) − f (x)].
t→0 t t→0 t
Les trajectoires de X étant presque sûrement continues, celles de Af (Xs ) le sont également.
t
On en déduit que t → 0 Af (Xs (x))ds est P presque sûrement dérivable en 0 et que sa
dérivée vaut Af (X0 (x)) = Af (x).
De plus, les dérivées partielles de f étant bornées par K > 0, la restriction sur la
croissance des coefficients montre que
|Af (x)| ≤ K |bi (x)| + K|σki (x)σkj (x)| ≤ C(1 + |x|2 ).
i i,j,k
Supposons que b1 (x) ≥ b2 (x) pour tout x ∈ R. Alors Xt1 ≥ Xt2 p.s. pour tout t ≥ 0.
Dans la pratique, le théorème d’existence et d’unicité de solutions d’EDS sous les condi-
tions usuelles sur les coefficients (conditions globales de Lipschitz et de restriction sur la
croissance) est parfois insuffisant pour ce qui concerne le coefficient de diffusion. On peut
notablement améliorer ce théorème dans le cas réel.
où ρ :]0, +∞[→]0, +∞[ est une fonction borélienne telle que
ε
dz
2
= +∞
0 ρ (z)
pour tout ε > 0. Alors si X0 = x ∈ R, l’équation (2.6) admet une unique solution forte.
Une classe très importante d’EDS dont l’existence et l’unicité sont montrées en appli-
quant le théorème précédent est la suivante :
t"
Xt = x + 2 Xs dBs + δ t (2.25)
0
√ √ "
où B est un Brownien réel et x, δ > 0. En effet, | x −√ y| ≤ |x − y| et le théorème
de Yamada-Watanabe appliqué avec la fonction ρ(x) = x montre que (2.25) admet une
unique solution forte. De plus, on peut montrer que cette solution est toujours positive et
définie sur [0, +∞[. Cependant,
√ le théorème d’existence 2.6 n’aurait pas permis d’obtenir ce
résultat, car σ(x) = x n’est pas lipschitzienne en zéro. Le processus X est un processus
de Bessel carré de dimension δ.
1
i i
n
1
dβt = (Bt , dBt ) = B dB , β0 = 0,
Xt ||Bt || i=1 t t
est une martingale continue de carré intégrable et la formule d’Itô montre que (βt2 − t, t ≥ 0)
est une martingale. La caractérisation de Paul Lévy entraı̂ne que β est un mouvement
brownien. L’égalité d(Xt2 ) = 2(Bt , dBt ) + ndt s’écrit
d(Xt2 ) = 2Xt dβt + n dt .
Ainsi, en posant Vt = Xt2 on obtient que V est solution d’une EDS du type (2.25)
"
dVt = 2 Vt dβt + n dt ,
où β est un mouvement brownien. Puisque Xt > 0 p.s., une nouvelle application de la
formule d’Itô montre que
n − 1 dt
dXt = dβt +
2 Xt
où β est un mouvement Brownien.
On dit que X est un processus de Bessel (BES) de dimension n, et que V est un processus
de Bessel carré (BESQ). Les processus de Bessel seront généralisés et utilisés en Finance
dans le modèle de Cox-Ingersoll-Ross décrit dans le dernier chapitre.
dont les dérivées partielles sont à croissance polynomiale, c’est à dire telles qu’il existe des
constantes C > 0 et des entiers k tels que chaque dérivée partielle v de u satisfasse l’inégalité
|v(t, x)| ≤ C (1 + |x|k ). On note Kp (Rd ) l’ensemble des fonctions u : Rd → R de classe C p
par rapport à la variable x ∈ Rd dont les dérivées partielles sont à croissance polynomiale.
L’exemple le plus simple d’EDP parabolique liée à un processus stochastique est l’équation
de la chaleur en dimension 1, c’est à dire
∂u σ2 ∂ 2u
(t, x) = (t, x) , (t, x) ∈]0, +∞[×R , (2.26)
∂t 2 ∂x2
où σ > 0 et où la condition initiale u(0, x) = f (x) est donnée par une fonction f : R → R
borélienne à croissance polynomiale. Pour t > 0, notons p(t; x, .) la densité de x + σ Bt où
(Bt , t ≥ 0) est un mouvement Brownien standard à valeurs réelles, c’est à dire la fonction
1 (x−y)2
p(t; x, y) = √ e− 2 σ2 t .
σ 2πt
∂p σ2 ∂ 2 p
Un calcul facile montre que ∂t
= 2 ∂x2
.
Notons
u(t, x) = E f (x + σ Bt )
+∞
pour tout t ≥ 0 ; alors u(0, x) = f (x). De plus, pour t > 0, u(t, x) = −∞ p(t; x, y) f (y) dy
et la croissance polynomiale de f entraı̂ne que l’on peut appliquer le théorème de dérivation
sous le signe intégral. Pour tout couple d’entiers positifs m et n on a donc
+∞ n+m
∂ n+m ∂
m n
u(t, x) = m n
p(t; x, y) f (y) dy ;
∂t ∂x −∞ ∂t ∂x
2 2
la fonction définie par u(t, x) = E[f (x+σ Bt )] satisfait donc l’EDP ∂u
∂t
(t, x) = σ2 ∂∂xu2 (t, x) sur
]0, +∞[×R et appartient à K1,2 ([ε, +∞[×R) pour tout ε > 0. Reste à vérifier le comporte-
ment asymptotique de u(t, y) quand (t, y) → (0, x). De nouveau, puisque f est à croissance
polynomiale, si cette fonction est de plus continue, le théorème de convergence dominée
entraı̂ne que pour tout x ∈ R,
lim u(t, y) = f (x) .
(t,y)→(0,x)
On peut aussi considérer le problème similaire à celui de l’équation (2.26) sur l’intervalle
de temps [0, T ] en renversant le temps et imposant une condition finale donnée par une
fonction f continue :
∂v 2 ∂2v
(t, x) + σ2 ∂x 2 (t, x) = 0 pour (t, x) ∈ [0, T [×R ,
∂t (2.27)
v(T, x) = f (x) pour x ∈ R ,
Définition 2.23 Soit At le générateur infinitésimal défini sur K1,2 ([0, T ] × Rd ) par (2.21).
Soit m un nombre réel, f : Rd → R, g : [0, T ] × Rd → Rd et ρ : [0, T ] × Rd → [m, +∞[
des fonctions continues. La fonction v ∈ K1,2 ([0, T [×Rd ) satisfait le problème de Cauchy
d’opérateur At , de potentiel ρ, de Lagrangien g et de condition terminale f si c’est une
fonction continue sur [0, T ] × Rd et si
∂v
∂t
(t, x) + At v(t, x) − ρ(t, x) v(t, x) + g(t, x) = 0 pour (t, x) ∈ [0, T [×Rd ,
(2.31)
v(T, x) = f (x) pour x ∈ Rd .
Étudions d’abord le cas g = 0, c’est à dire seulement l’existence d’un coefficient d’actua-
lisation aléatoire ρ.
De plus, si (Xt = Xt0,x , t ∈ [0, T ]) est la diffusion solution de (2.2), alors pour tout t ∈ [0, T ],
T
− t ρ(s,Xs ) ds
v(t, Xt ) = E e f (XT )Ft . (2.33)
Démonstration. La formule d’Itô montre que si v résout le problème de Cauchy (2.31) avec
g = 0, le processus :
s
ρ(u,Xut,x ) du
Mst,x = e− t v(s, Xst,x ) , s ∈ [t, T ]
est une (Ft )-martingale, ce qui entraı̂ne que Mtt,x = E MTt,x | Ft . La propriété de martingale
de (Ms0,x , s ∈ [0, T ]) et la condition terminale v(T, x) = f (x) montrent alors (2.33).
Remarquons que de même, la condition terminale entraı̂ne que
T
t,x
v(t, x) = v(t, Xtt,x ) = E e− t ρ(u,Xu ) du f (XTt,x ) Ft .
Pour prouver (2.32), fixons (t, x) ∈ [0, T [×Rd et notons τn = inf{s ≥ t , |Xst,x | ≥ n}. La for-
mule d’Itô et le théorème d’arrêt pour les martingales entraı̂nent que v(t, x) = E(MTt,x∧τn ) =
2 i
i=1 Tn , avec :
− tτn ρ(s,Xst,x ) ds
Tn1 (t, x) = E v(τn , Xτt,xn
) e 1{τn ≤T } ,
2 t,x − 0T ρ(s,Xst,x ) ds
Tn (t, x) = E v(T, XT ) e 1{τn >T } .
Choisissant p > K nous obtenons Tn1 (t, x) → 0 quand n → +∞. Le théorème de convergence
dominée entraı̂ne que lorsque n → +∞,
2 − 0T ρ(s,Xst,x ) ds
Tn (t, x) → E f (XT ) e
t,x
,
Nous verrons dans l’exercice 2.6 que le problème de Cauchy (2.31) admet comme solution
!
T T s
ρ(s,Xst,x ) ds ρ(u,Xut,x ) du
v(t, x) = E f (XTt,x )e− t + g(s, Xst,x ) e− t ds . (2.34)
t
Ces liens entre diffusions et EDP peuvent être vus de deux façons.
D’une part en petite dimension on peut utiliser des méthodes numériques d’EDP (dif-
férences finies ou éléments finis) afin de résoudre numériquement l’EDP (il faut encore des
conditions pour qu’elle ait une solution unique) et en déduire une information sur l’espérance
d’une fonction du processus.
Mais les méthodes numériques, efficaces en petite dimension, deviennent très difficiles
à implémenter en grande dimension. Par contre, les méthodes de Monte-Carlo ou de quasi
Monte Carlo permettent d’approximer l’espérance d’une variable aléatoire ou d’un processus
en une famille finie d’instants t et d’états x. On peut se servir de l’interprétation de la solution
v(t, x) de l’EDP (sous réserve qu’elle soit unique) comme une espérance pour écrire cette
fonction au point (t, x) à l’aide de l’espérance d’une diffusion. Par un schéma d’Euler de pas
T /n, on sait approximer la trajectoire de la diffusion par celle d’un processus très simple et
très rapide à simuler. La vitesse de convergence forte ,√qui donne une majoration de la
norme uniforme de la différence des trajectoires, est en 1/ n. Si on s’intéresse seulement à
l’espérance d’une fonction de la diffusion en un instant T , la vitesse de convergence faible
du schéma est en 1/n. L’espérance de la fonction du processus approximant à l’instant T
est elle-même approximée par une moyenne d’après la loi forte des grands nombres. Le
théorème de la limite centrale montre alors que si on dispose de N réalisations, la vitesse
de convergence de la moyenne vers l’espérance est en √1N . Simuler une approximation de
la diffusion par un schéma d’Euler est très simple et l’inconvénient est plutôt le nombre de
simulations qu’il faut utiliser pour avoir une approximation raisonnable . Cette méthode
est donc lente , mais insensible à la dimension .
Nous présentons ici deux exemples d’EDS importants en finance. Le modèle de Black &
Sholes sera présenté de façon beaucoup plus approfondie dans le dernier chapitre.
2.6.1 Problème de Sturm-Liouville - Temps d’occupation
Nous venons de voir comment les diffusions permettent de résoudre explicitement cer-
taines EDP. Les mêmes techniques peuvent être aussi employées pour l’étude de certaines
EDO du deuxième ordre. On s’intéresse par exemple au problème suivant, dit de Sturm-
Liouville :
f
(α + k)f = + g (2.35)
2
où α > 0, k : R → R+ est une fonction continue et g : R → R une fonction continue telle
que : √
|g(x + y)|e−|y| 2α dy < +∞
R
t
t s
− α+k(x+Bs )ds − α+k(x+Bu )du 1
f (x + Bt ) e 0 − f (x) − e 0 f (x + Bs ) − α − k(x + Bs ) ds
0 2
est une (FtB )-martingale. On en déduit que si f est une solution bornée de (2.35),
t t s
− α+k(x+Bs )ds − α+k(x+Bu )du
E f (x + Bt ) e 0 − f (x) = −E e 0 g(x + Bs )ds .
0
t
pour toute fonction g et donc par inversion la loi du couple Bt , 0 k(Bs )ds .
Ce couple est très important en Finance, puisqu’il permet de pricer certaines options
exotiques avec temps d’occupation. La formule de Feynman-Kac permet aussi de calculer la
densité de la variable aléatoire
t
+
At = 1[0,∞[ (Bs ) ds
0
qui représente le temps d’occupation de [0, +∞[ par le Brownien. En effet, si on pose k(x) =
β1[0,+∞[ (x) et g(x) = 1, en approximant k par une suite de fonctions continues on en déduit
que pour α, β > 0 la fonction
∞ t
f (x) = E exp −αt − β 1[0,∞) (x + Bs )ds dt
0 0
ce qui entraı̂ne ∞ +
1
e−αt E e−βAt dt = f (0) = " .
0 α(α + β)
√
Puisque Γ( 12 ) = π, le théorème de Fubini et un changement de variables montrent que
∞
+∞ +∞
t
−βu 1 e−(α+β)u 1 e−α(t−u)
e −αt
du √e dt = √ √ du √ √ dt
0 0
π u(t−u) π 0 u π u t−u
1 1
=√ √ .
α+β α
Puisque la transformée
t −βu de Laplace caractérise la loi, on en déduit que pour tout β > 0,
−βA+ √
E[e t ]= 0e 1
du, puis que la densité de A+t est la fonction h définie par
π u(t−u)
1
h(u) = " 1]0,t[ (u).
π u(t − u)
La fonction de répartition de cette loi est définie pour tout θ ∈]0, t[ par :
%
θ
du θ/t
ds 2 θ
P A+
t ≤θ = " = " = Arcsin .
0 π u(t − u) 0 π s(1 − s) π t
La loi de A+
t est appelée loi de l’arcsinus. On remarque enfin que pour θ ∈]0, t[,
P A+ t ≤ θ = P tA+1 ≤ θ ,
dSt = σ St dBt + b St dt ,
(2σ)2
2 2 2bt+σ 2 t 2σBt − 2 t 2
E(St ) = S0 e E e = S02 e2bt+σ t ,
2
ce qui entraı̂ne que V ar(St ) = S02 e2bt eσ t − 1 . Le coefficient σ est appelé la volatilité et
mesure la sensibilité à l’aléa, c’est à dire le risque de l’actif. C’est lui qui permet de quantifier
les écarts entre St et son espérance. On remarque facilement en utilisant l’expression explicite
de St quepour tout δ >0 qui modélise un intervalle de temps (par exemple un jour), la
S(j+1)δ
suite ln Sjδ , j ≥ 0 est une suite indépendante équidistribuée de variables aléatoires
σ2 2
gaussiennes N (b − 2 )δ ,, σ δ et il est donc facile de tester la validité du modèle sur des
données réelles. On constate d’ailleurs que ce modèle rend mal compte de la réalité. Un
S(j+1)δ S(j+1)δ −Sjδ
développement limité de ln(1 + u) permet d’approximer ln Sjδ , par Sjδ
afin de
tester le caractère i.i.d. gaussien des rendements successifs observés.
Pour qu’un investisseur ayant une aversion au risque préfère un actif risqué à un actif
sans risque, il faut bien sûr que son rendement espéré b soit supérieur à r et la différence
b − r est une prime de risque . Plus la volatilité σ est grande, plus l’actif est risqué et
dans ce cas, plus la valeur de b doit être grande pour que l’investisseur préfère St à l’actif
sans risque St0 .
On fixe un horizon T > 0 et on souhaite donner le prix d’un actif financier qui versera
h(ST ) à la date T . Le cas d’un call Européen de maturité T et de strike K correspond au
cas h(x) = (x − K)+ .
On procède par duplication (hedging) : on forme un portefeuille qui comprend αt parts
de l’actif sans risque St0 (le montant de la richesse investie dans cet actif à la date t est donc
αt ert ) et de Δt parts de l’actif risqué St .
On suppose que le marché est sans friction, c’est à dire qu’il n’y a pas de coût de
transaction (d’achat ou de vente des actifs), que l’on peut vendre à découvert (c’est à dire
que les coefficients αt et Δt peuvent être négatifs), que les actifs sont indéfiniment divisibles
(αt et Δt sont à valeurs réelles) et que le trading se fait en continu (c’est à dire que αt et
Δt peuvent varier à chaque instant t).
On veut trouver un portefeuille auto-finançant (c’est à dire ne nécessitant pas de
mise de fonds autre qu’à la date 0), qui ne verse pas de dividende (duquel on ne retire pas
soit
dVt = αt rSt0 dt + Δt [bSt dt + σSt dBt ] = σΔt St dBt + rVt + Δt St (b − r) dt.
La valeur initiale du portefeuille sera la valeur de l’actif financier. On suppose que la
valeur Vt du portefeuille à la date t est une fonction déterministe du temps et de la valeur
de l’actif risqué, soit Vt = V (t, St ). En utilisant la formule d’Itô, on calcule
∂V ∂V σ 2 St2 ∂ 2 V ∂V
dVt = (t, St ) + b St (t, St ) + (t, St ) dt + σSt (t, St ) dBt .
∂t ∂x 2 ∂x2 ∂x
∂V ∂V
σΔt St = σSt (t, St ) soit Δt = (t, St ) ,
∂x ∂x
ce qui entraı̂ne alors en identifiant les parties à variation finie
∂V ∂V σ 2 St2 ∂ 2 V
rSt (t, St ) + (t, St ) + (t, St ) − rV (t, St ) = 0 ,
∂x ∂t 2 ∂x2
avec pour condition terminale V (T, ST ) = h(ST ). Comme St est une variable aléatoire
qui peut prendre toutes les valeurs de ]0, +∞[, on en déduit que V satisfait l’EDP sur
[0, +∞[×[0, +∞[ :
∂V ∂V σ 2 x2 ∂ 2 V
rx (t, x) + (t, x) + (t, x) − rV (t, x) = 0 , (2.37)
∂x ∂t 2 ∂x2
avec pour condition terminale V (T, x) = h(x). On notera que le coefficient b a disparu.
Nous allons résoudre cette EDP dans le cas d’un call européen, c’est à dire pour une
condition terminale h(x) = (x − K)+ , avec σ > 0. On note C la valeur du portefeuille dans
ce cas particulier, Les détails des calculs sont laissés en exercice (cf. Exercice 2.5). Nous
verrons au chapitre suivant une façon plus rapide et moins technique de les retrouver.
Les résultats précédents entraı̂nent que C satisfait l’équation (2.37)
∂C ∂C σ 2 x2 ∂ 2 C
(t, x) + rx (t, x) + (t, x) = rC(t, x) ,
∂t ∂x 2 ∂x2
avec C(T, x) = (x − K)+ . La formule de Feynman-Kac (2.32) appliquée à la fonction f (x) =
(x − K)+ et à ρ(s, x) = r montre que la valeur du call européen à l’instant t, est donnée par
r(t−T ) &t,x +
C(t, x) = E e (ST − K) , (2.38)
avec
2
S&Tt,x = xeσ(BT −Bt )+ r− σ2 (T −t)
la fonction de répartition d’une loi gaussienne N (0, 1). La solution de l’équation (2.38) est
donnée par la formule suivante de Black & Sholes
1 r(T −t)
1 2 √
d1 = √ ln xe /K + σ (T − t) et d2 = d1 − σ T − t. (2.39)
σ T −t 2
La quantité
∂C &
Δt = (t, St ) = F (d1 ),
∂x
qui représente le nombre de parts de l’actif sous-jacent utilisées pour répliquer l’option s’ap-
pelle le Delta de l’option et représente aussi la sensibilité du prix de l’option par rapport au
prix du sous-jacent. Le couple (C(t, St ) − Δt St , Δt ) représente le portefeuille de couverture.
2
avec la notation S&t = xMt ert et où Mt = SS0t = x eσBt − 2 t pour t ≥ 0 est une martingale. En
& σ
t
dérivant par rapport à x sous l’espérance, on retrouve
∂C
(0, x) = E MT 1{xMT erT ≥K} = F (d1 ),
∂x
2.7 Exercices
Exercice 2.1 Le but de cet exercice est de proposer deux généralisations du Lemme de
Gronwall.
(i) Soit f : [0, T ] → R une fonction continue. Supposons qu’il existe une constante b > 0
et une fonction a : [0, T ] → R positive intégrable telle que pour tout t ∈ [0, T ],
t
0 ≤ f (t) ≤ a(t) + b f (s)ds. (2.41)
0
t
Alors f (t) ≤ a(t) + b 0 a(s)eb(t−s) ds pour tout t ∈ [0, T ].
(ii) Soit f : [0, T ] → R une fonction borélienne bornée. Supposons qu’il existe une
constante
t a > 0 et une fonction intégrable ] → R telle que 0 ≤ f (t) ≤
t positive b : [0, TH(t)
a + 0 b(s)f (s)ds. Montrer que si H(t) = 0 b(s)ds, f (t) ≤ ae pour tout t ∈ [0, T ].
−bt
Yt = e X0 − bσ bs
e Bs ds + σBt .
0
−bt bs
Xt = e X0 + σ e dBs .
0
2
3. Montrer que pour tout t, la loi de Xt est gaussienne N X0 e−bt , σ2b (1 −2bt
−e ) . Pour
tout s < t, calculer Cov(Xs , Xt ).
Cette EDS a été étudiée pour modéliser l’évolution des taux d’intérêt d’un marché financier
et est appelée mean-reversing car si a et b sont positifs, le processus Yt tend vers b (en
un sens à préciser).
1. Montrer que Xt = Yt − b est solution de l’équation de Langevin.
2. On suppose que X0 est une constante. En déduire une expression explicite de Yt , puis
la loi de E(Yt ) et Cov(Ys , Yt ) pour 0 ≤ s ≤ t.
3. On suppose que X0 suit une loi gaussienne N (m, σ02 ) et est indépendante de (Bt ). Re-
prendre la question précédente et calculer la loi du vecteur (Ys , Yt ) pour
0 ≤ s < t, l’espérance de Yt et la covariance de Ys et Yt . Si Y0 > 0, Le processus
Yt garde-t-il des valeurs positives
?
T
Pour 0 ≤ t ≤ T , calculer E exp t Yu du FtB .
Exercice 2.4 Soit (Bt ) un (Ft )-Brownien standard de dimension r, (σk (s), s ≥ 0) et
(b(s), s ≥ 0) des processus réels progressivement mesurables définis pour k = 1, · · · , r,
et M une constante réelle telle que sup0≤t≤T (σ(s)2 + |b(s)|) ≤ M p.s. Pour tout X0 ∈ R
on veut résoudre explicitement l’EDS linéaire suivante (à coefficients non constants)
t t
Xt = X0 + σ(s)Xs dBs + b(s)Xs ds. (2.42)
0 0
1. On suppose qu’il existe une constante réelle M telle que sup (σ(s)2 + |b(s)|) ≤ M
0≤t≤T
p.s. En reprenant la démonstration du Théorème 2.6 montrer que (2.42) a une unique
solution telle que sup0≤t≤T E(|Xt |2 ) < +∞. Sous quelles conditions supplémentaires
ce processus satisfait-il la propriété de Markov ?
2. On suppose que (St ) est un processus d’Itô (continu) à valeurs strictement positives
H (t)
tels que si dSt = kj=1 Hk (s)dBsk +H0 (s)ds et si on note σj (t) = Sj i pour j = 1, · · · , k
(t) T t
3. On suppose que les hypothèses de l’une des questions précédentes sont satisfaites. Soit
t t
1 2
Yt = exp − σ(s)dBs + −b(s) + σ(s) ds .
0 0 2
Calculer dYt puis d(Xt Yt ) et en déduire que
t t
1 2
Xt = X0 exp σ(s)dBs + b(s) − σ(s) ds . (2.43)
0 0 2
Exercice 2.5 Le but de cet exercice est de donner une première méthode pour trouver
l’équation (2.39) du modèle de Black & Sholes.
1. Montrer que la solution de l’équation de Black & Sholes (2.37) est
∂C ∂C σ 2 x2 ∂ 2 C
(t, x) + rx (t, x) + (t, x) = rC(t, x)
∂t ∂x 2 ∂x2
avec C(T, x) = (x − K)+ .
2. Montrer que la valeur du call européen à l’instant t, est donnée par (2.38)
r(t−T ) &t,x +
C(t, x) = E e (ST − K) ,
2
où S&Tt,x = xeσ(BT −Bt )+ r− σ2 (T −t)
.
√ 2
3. Montrer que que si G ∼ N (0, 1), α = σ T − t > 0 et β = r − σ2 (T − t),
E e−r(T −t) (S&Tt,x − K)+ = xe−r(T −t) E eα G+β 1{α G+β≥ln(K/x)}
−Ke−r(T −t) P (α G + β ≥ ln(K/x)) .
x 2
4. Notons F (x) = √12π −∞ e−u /2 du la fonction de répartition d’une variable aléatoire
G gaussienne N (0, 1). Montrer que pour tout α > 0, β ∈ R, K > 0 et x > 0,
ln(x/K) + β
P α G + β ≥ ln(K/x) = F
α
et
α2 ln(x/K) + β
E eαG+β 1{αG+β>ln(K/x)} = eβ+ 2 F α+
α
5. Montrer la formule (2.39).
y − βy = b , y(0) = x. (2.45)
(b) Écrire Xt2 comme processus d’Itô en utilisant la formule d’Itô pour la solution
Xt de (2.44). Montrer que l’intégrale stochastique est une martingale de carré
intégrable.
(c) En déduire que si on note m(t) la solution de (2.45), M (t) est la solution de
l’EDO
y − (2β + α2 )y = 2(b + aα)m + a2 , y(0) = x2 .
Résoudre cette EDO.
Montrer que ce processus est bien défini et calculer Y, Zt . En déduire que la solution
(Xt ) de (2.44) peut s’écrire Xt = Yt Zt .
βt −βs
Xt = e x+a e dBs .
0
(On pourra soit utiliser l’exercice précédent, soit poser Yt = e−βt Xt et résoudre
l’équation vérifiée par Y .)
2. Montrer que pour tout choix d’instants t1 < t2 < · · · < td , le vecteur ξ = (Xt1 , · · · Xtd )
est gaussien. Calculer E(ξ) et la matrice de covariance de ξ.
t
3. Pour tout t ≥ 0, on note It = 0 Xs ds. Montrer que pour tout choix d’instants
t1 < t2 < · · · < td , le vecteur (It1 , · · · Itd ) est gaussien. Calculer E(eIt ) pour tout t ≥ 0.
4. Calculer E(Xt |Fs ) et V ar(Xt |Fs ) pour tout 0 < s < t.
5. Soit (Xt ) la solution de (2.46) et φ une fonction de classe C 2 . Écrire la formule d’Itô
x 2
pour Zt = φ(Xt ). En déduire que si φ(x) = 0 exp −β ay2 dy,
t
Bs2
Zt = a exp −β 2 dBs .
0 a
6. Fixons λ ∈ R. Calculer
2
Φ(t, y) = E eλXt .
2
Pour t > 0 fixé, étudier la (Ft )-martingale E(eλXt |Fs ), 0 ≤ s ≤ t . Montrer que Φ
est solution d’une équation aux dérivées partielles que l’on explicitera. Soit Ψ(t, x) =
ln(Φ(t, x)). Montrer que
Ψ(t, x) = x2 a(t) + b(t) avec a (t) = −a(t)(2β + a2 a(t)), et b (t) = −a2 a(t).
a α2 a
Xt = x + exp − t + αBt − .
α 2 α
3 Théorème de Girsanov
Avec la formule d’Itô, le théorème de Girsanov est l’outil fondamental du calcul stochas-
tique. Il décrit comment changer de façon absolument continue la loi de certains processus.
Plus précisément, on considère un processus (Xt , t ≥ 0) défini sur un espace probabilisé
filtré (Ω, F, (Ft ), P ), dont la loi sous P peut être délicate à étudier. On perturbe la
probabilité P en la multipliant par une (Ft )-martingale exponentielle. On obtient alors une
nouvelle probabilité Q, sous laquelle le processus X suit une autre loi, plus simple à étudier.
On étudie cette loi sous la probabilité Q et on revient à la probabilité P avec la martingale
exponentielle. Les applications de cette méthode sont multiples, aussi bien en finance que
pour l’étude du mouvement brownien.
Convention Dans tout ce chapitre, nous serons amenés à utiliser simultanément plusieurs
probabilités sur un espace mesurable (Ω, F). Si P désigne une telle probabilité, nous note-
rons EP (X) = XdP l’espérance d’une variable aléatoire positive ou P-intégrable X, et de
même EP (X | G) l’espérance conditionnelle de X par rapport à la sous-tribu G de F sous la
probabilité P.
Soit (Ω, F, P) un espace probabilisé et L une v.a. F-mesurable positive telle que EP (L) =
1, c’est à dire d’espérance 1 sous P. On définit une nouvelle probabilité Q sur F de densité
L par rapport à P en posant Q(A) = EP (L1A ) pour tout A ∈ F ; on note dQ = L dP.
Alors une variable aléatoire X est Q intégrable si et seulement si LX est P-intégrable ; si
X est positive ou Q-intégrable, EQ (X) = EP (LX). De plus, Q est absolument continue par
rapport à P, c’est à dire que pour tout A ∈ F, P(A) = 0 entraı̂ne Q(A) = 0. Si L > 0 P
p.s., alors P est absolument continue par rapport à Q, ce qui entraı̂ne que les probabilités P
et Q sont équivalentes, et la probabilité P a pour densité L1 par rapport à Q.
Lemme 3.1 Soit (Ω, F, (Ft ), P) un espace probabilisé filtré, T > 0. Soit LT une variable
aléatoire FT -mesurable positive ou nulle telle que EP (LT ) = 1. Pour tout t ∈ [0, T ], soit
Lt = EP (LT | Ft ).
(i) Pour tout t < T , si on note dQ|Ft (resp. dP|Ft ) la restriction de Q (resp. P) à Ft ,
on a
dQ|Ft = Lt dP|Ft .
(ii) Soit (Mt , t ≥ 0) un processus. C’est une (Ft , t ∈ [0, T ])-martingale (resp. une (Ft , t ∈
[0, T ])-martingale locale) sous Q si et seulement si le processus (Lt Mt , t ∈ [0, T ]) est une
(Ft , t ∈ [0, T ])-martingale (resp. une (Ft , t ∈ [0, T ])-martingale locale) sous P.
(iii) Si LT > 0 P p.s., les probabilités P et Q sont équivalentes, pour tout t ∈ [0, T ],
Lt > 0 P (ou Q) presque sûrement, ( L1t , 0 ≤ t ≤ T ) est une (Ft , 0 ≤ t ≤ T ) martingale
sous Q et si Z est Ft mesurable et positive ou bien Q-intégrable, pour tout s ∈ [0, t],
EP (ZLt | Fs ) EP (ZLt | Fs )
EQ (Z | Fs ) = = .
Ls EP (Lt | Fs )
Démonstration. La filtration (Ft , t ∈ [0, T ]) étant fixée, les martingales considérées (sous les
probabilités P ou Q) le seront toujours par rapport à cette filtration sans que ce soit précisé.
(i) Pour tout t < T et tout A ∈ Ft on a
Q(A) = EP (EP [LT | Ft ] 1A ) = EP (Lt 1A ) .
(ii) Supposons que (Mt , t ∈ [0, T ]) est une Q-martingale. Pour tout s ≤ t ≤ T et tout
A ∈ Fs on a
et l’on en déduit que (Lt Mt , t ∈ [0, T ]) est une P-martingale. La réciproque se démontre de
façon similaire. Si M est une martingale locale sous Q, la suite croissante de temps d’arrêt
τn → ∞ telle que (Mτn ∧t , t ∈ [0, T ]) est une (Ft )-martingale sous Q fait de (Mτn ∧t Lτn ∧t , t ∈
[0, T ]) une (Ft )-martingale sous P.
(iii) Puisque LT > 0, la mesure P est absolument continue par rapport à Q de densité
1
LT
sur FT . Pour tout t ∈ [0, T ], la variable aléatoire L1t : Ω → [0, +∞] est positive telle que
EQ (1/Lt ) = EP (Lt /Lt ) = 1. On a donc L1t < +∞ Q p.s., soit Lt > 0 Q (et P) p.s.
Soit Z ∈ L1 (Q) une variable aléatoire Ft -mesurable. Alors, pour s ≤ t, L−1 s EP (ZLt |Fs )
est Fs -mesurable et pour tout A ∈ Fs ,
EQ (ZL−1 −1 −1
t ) = EP (ZLt Lt ) = EP (Z) = EQ (ZLT ).
Puisque L−1
t est Ft -mesurable, L−1 −1
t = EQ (LT |Ft ) Q p.s. 2
Présentons tout d’abord l’idée principale en dimension finie. Soit X1 , . . . , Xn des variables
gaussiennes centrées réduites indépendantes, construites sur un même espace probabilisé
(Ω, F, P). Pour tout (μ1 , . . . , μn ) ∈ Rn on a
n !
'
n
1
2
n
EP exp μi Xi = EP [exp (μi Xi )] = exp μ ,
i=1 i=1
2 i=1 i
ce qui entraı̂ne
n
!
μ2i
EP (L) = 1 où L = exp μi Xi − .
i=1
2
Ainsi, on peut définir une nouvelle probabilité Q sur (Ω, F) en posant dQ = L dP, c’est à
dire
Q (A) = EP (L1A ) = L(ω)dP(ω)
A
pour tout A ∈ F. Le lemme 3.1 montre que Q est bien une probabilité équivalente à P
sur (Ω, F), c’est à dire que P (A) = 0 si et seulement si Q (A) = 0 pour tout A ∈ F. La
variable L désigne la densité de Q par rapport à P.
On cherche maintenant à savoir quelle est la loi du n-uple (X1 , . . . , Xn ) sous cette nouvelle
probabilité Q. Pour cela on écrit pour tout borélien A ∈ Rn ,
n
μ2
μ i X i − 2
i
Q (X1 , · · · , Xn ) ∈ A =
i=1
1{(X1 ,··· ,Xn )∈A} e dP
n
μ2
n
μi x i − i x2
−n/2
e−
2 i
dx1 · · · dxn
i=1
= (2π) e i=1 2
A
n
−n/2 1 2
= (2π) e− 2 i=1 (xi −μi ) dx1 · · · dxn
A
Démonstration. Remarquons d’abord que les tribus FtB et FtB̃ sont égales pour
tout t ∈
2
[0, T ]. Fixons λ ∈ R et considérons le processus Zt = exp λB̃t − λ t/2 . Pour tout
λ
0 ≤ s ≤ t ≤ T et tout A ∈ FsB , on a :
λ2 t m2 t
EQ Ztλ 1A = EP Ztλ Lt 1A
= EP exp λB̃t − + mBt − 1A
2 2
λ2 t m2 t
= EP exp λBt − λmt − + mBt − 1A
2 2
(λ + m)2 t
= EP exp (λ + m)Bt − 1A
2
2t
Puisque B est un Brownien sous P, le processus exp (λ + m)Bt − (λ+m) 2
, t ∈ [0, T ]
est une (FtB )-martingale sous P. On en déduit que pour tout A ∈ FsB ,
λ (λ + m)2 s
EQ Zt 1A = EP exp (λ + m)Bs − 1A
2
= EP Zsλ Ls 1A = EQ Zsλ 1A .
On en déduit que EQ Ztλ 1A = EQ Zsλ 1A , d’où EQ Ztλ | FsB = Zsλ Q p.s. pour tout
s ≤ t ≤ T . Pour tout λ ∈ R, le processus Z λ est donc une (FtB )-martingale et le théorème
de caractérisation de Paul Lévy 1.33 permet de conclure que B̃ est un (FtB , 0 ≤ t ≤ T )-
Brownien. 2
Théorème 3.3 Soit (Bt , t ≥ 0) un Brownien standard d-dimensionnel sur (Ω, F, P), et
(FtB , t ≥ 0) sa filtration naturelle complétée. Soit T > 0, (θt , 0 ≤ t ≤ T ) un processus
d-dimensionnel appartenant à H2T et pour tout t ∈ [0, T ], soit
t
1 t 2
Lt = exp θs dBs − θs ds . (3.1)
0 2 0
Alors, si EP (LT ) = 1, T
1 2
E exp θs ds < ∞,
2 0
le processus (Lt , 0 ≤ t ≤ T ) est une (FtB )-martingale, et
Démonstration. Pour dégager les idées, nous ne ferons la démonstration qu’en dimension
d = 1. Soit θ ∈ H22 et (Lt , 0 ≤ t ≤ T ) le processus défini par (3.1). Alors Lt = eXt > 0 où
Xt = 0 θs dBs − 12 0 θs2 ds est un processus d’Itô. La formule d’Itô montre que sous P,
t t
1
dLt = Lt dXt + Lt θt2 dt = Lt θt dBt .
2
On en déduit que sous P, (Lt , t ∈ [0, T ]) est une martingale locale positive, donc une sur-
martingale (cf. Exercice 1.4). On a donc pour 0 ≤ t ≤ T , Lt ≥ EP (LT |FtB ). De plus,
EP (LT ) = EP (L0 ) = 1 = EP (Lt ) pour tout t ∈ [0, T ] et (Lt , 0 ≤ t ≤ T ) est donc une
(FtB )-martingale sous P.
D’après la caractérisation de Paul Lévy (Théorème 1.33 (ii)), puisque W0 = 0, pour
montrer que W est un (FtB , 0 ≤ t ≤ T )-Brownien sous Q, il suffit de montrer que sous Q
(Wt , 0 ≤ t ≤ T ) et (Wt2 − t, 0 ≤ t ≤ T ) sont des (FtB )-martingales locales continues. En
appliquant le Lemme 3.1, cela revient à prouver que les processus (Lt Wt , 0 ≤ t ≤ T ) et
(Lt (Wt2 − t), 0 ≤ t ≤ T ) sont des (FtB )-martingales locales continues sous P.
En appliquant la formule d’Itô au produit et le fait que sous P,
on obtient sous P,
On en déduit que (Lt Wt , 0 ≤ t ≤ T ) est bien une (FtB , 0 ≤ t ≤ T )-martingale locale continue
sous P. De plus, la formule d’Itô entraı̂ne que si Yt = Wt2 − t, sous P,
1
dYt = 2Wt dWt + 2dW, W t − dt = 2Wt dBt − 2Wt θt dt + dt − dt = 2Wt dBt − 2Wt θt dt.
2
En appliquant de nouveau la formule d’Itô au produit, on déduit que sous P
Le lemme 3.1 et le théorème 3.3 montrent que P s’écrit en fonction de Q sous la forme
dP = L−1T dQ. En transformant l’intégrale stochastique par rapport à B en une intégrale
t
stochastique par rapport à Wt = Bt − 0 θs ds, on obtient
t
t
1 t 2 1 t 2
L−1 = exp − θs dBs + θ ds = exp − θs dWs − θ ds ,
T
0 2 0 s 0 2 0 s
où il est clair que la dernière exponentielle d’intégrale stochastique par rapport au processus
W , qui est un Brownien sous Q, est une (FtB , 0 ≤ t ≤ T )-martingale sous Q.
On utilise souvent le théorème de Girsanov de la façon suivante. On dispose d’un pro-
cessus θ ∈ H2T , on pour tout t ∈ [0, T ] note Zt = 0 θs dBs et Lt = exp Zt − 12 Z, Zt . On
t
suppose que E(LT ) = 1 et on note Q la probabilité dont la restriction à Ft est Lt pour tout
t
t ∈ [0, T ]. On a d’autre part un processus H ∈ H2loc et Mt = 0 Hs dBs une (Ft )-martingale lo-
t
cale continue sous P, de crochet M, M t = 0 Hs 2 ds. Alors le processus Nt = Mt −M, Zt
est sous Q une (Ft )-martingale locale continue de crochet N, N t = M, M t (sous P ou Q,
puisque les crochets étant la variation quadratique des processus et les probabilités P et Q
étant équivalentes, les crochets sont les mêmes sous ces deux probabilités).
En effet, pour montrer cette propriété, d’après le lemme 3.1, il suffit de vérifier que sous
P, le processus Lt Nt = Lt (Mt − M, Zt ) est une (Ft )-martingale locale, ce qui découle
facilement de la formule d’Itô.
Le résultat suivant sera très utile dans le chapitre suivant. Il introduit une martin-
gale locale de forme exponentielle et donne des conditions suffisantes pour que ce soit une
martingale. Cette martingale exponentielle est à la base d’un changement de probabilité
fondamental en finance.
t
Soit θ ∈ H2loc (FtB ) un processus cadlag, (FtB )-adapté, tel que 0 θs2 ds < +∞ p.s. pour
tout t > 0 et Z0 une constante. Par la formule d’Itô, on démontre que l’unique solution de
l’EDS t
Zt = Z0 + θs Zs dBs (3.2)
0
est t t
1
Zt = Z0 exp θs dBs − θs2 ds .
0 2 0
Théorème 3.4 (Condition de Novikov) Supposons que B est un (Ft ) Brownien standard
de dimension d, (θt ) un processus à valeurs dans Rd , (Ft )-adapté tel que
T
1 2
E exp θs ds < ∞.
2 0
Quand la condition de Novikov n’est pas satisfaite, Zt (θ) est une martingale locale posi-
tive, donc une surmartingale, et E(Zt (θ)) ≤ E(Zs (θ)) ≤ Z0 (θ) pour tout t ≥ s ≥ 0. Il
faut remarquer que, même si la martingale locale (Zt (θ)) est uniformément intégrable, ce
n’est pas nécessairement une martingale. Par contre, si la famille de variables aléatoires
{Zτ (θ), τ temps d’arrêt} est uniformément intégrable, alors (Zt (θ)) est une martingale uni-
formément intégrable.
On dispose de critères alternatifs à la condition de Novikov en dimension 1. On pourra
lire la démonstration dans [5].
1 2
EP θs ds < +∞. (3.3)
2 tn−1
t t
θs dBs − 21 θs 2 ds
Alors si pour t ∈ [0, T ] on pose Lt = e 0 0 , on a EP (LT ) = 1 et le processus
(Lt , t ∈ [0, T ]) est une (Ft )-martingale.
Démonstration. Pour tout n ∈ {1, · · · , N }, notons θ(n)t = θt 1[tn−1 ,tn [ (t). La condition de
Novikov est satisfaite par θ(n) et le Théorème 3.4 montre que si on note
t
1 t 2
Lt (θ(n)) = exp θ(n)s dBs − θ(n)s ds ,
0 2 0
on a
EP Ltn (θ(n))|Ftn−1 = Ltn−1 (θ(n)) = 1.
On montre par récurrence sur n ≤ N que EP (Ltn ) = 1. En effet, pour tout n ∈ {1, · · · , N }
EP (Ltn ) = EP Ltn−1 EP Ltn (θ(n))|Ftn−1 = EP (Ltn−1 ).
Le résultat suivant généralise le théorème de Novikov 3.4 pour des coefficient de dérive
qui sont fonction du Brownien. Il suffit dans ce cas d’imposer une restriction sur la croissance
du coefficient b(t, x).
2
constante 2c > 0, la convexité de la fonction x → exp[c(1 + x )] entraı̂ne que
Pour toute
Yt = exp c(1 + Bt ) est une sous martingale et pour C assez petit (tel que CT < 12 )
2
EP eC(1+BT ) < +∞. L’inégalité de Doob montre alors que
C
C(1+sup0≤t≤T Bt 2 ) (1+B2) 2 2
EP e = EP sup e 2 t ≤ 4 EP eC(1+BT ) < +∞.
0≤t≤T
La proposition 3.5 permet de conclure en choisissant des instants tn tels que Δt = tn −tn−1 =
2C < T1 . 2
t
Exemple 3.7 Le choix b(t, x) = λx et l’égalité Bt2 = 2 0 Bs dBs + t (qui découle immédia-
tement de la formule d’Itô) montrent que d’après la Proposition 3.6 le processus
2
Bt − t λ2 t 2
t → exp λ − B ds
2 2 0 s
est une (FtB )-martingale.
Le résultat suivant généralise le précédent à des coefficients de dérive qui sont fonc-
tion d’un processus plus général. Il faut par contrôler la restriction sur la croissance et les
accroissements.
Proposition 3.8 (Critère de Kazamaki) Si le processus (θt ) est une martingale locale telle
1
que le processus t → e 2 θt est une sous-martingale
uniformément
intégrable, alors l’exponen-
t
1 t 2
tielle de Doléans-Dade Zt (θ) = exp 0 θs dBs − 2 0 θs ds est une martingale uniformément
intégrable.
Proposition 3.9 (Critère de non explosion) Soit T > 0, θt = b(t, Bs ) où b : [0, +∞[×R →
R est une fonction telle qu’il existe une constante K telle que
|b(t, x) − b(t, y)| ≤ K|x − y| , ∀x, y ∈ R , ∀t ≥ 0,
supt≤T |b(t, 0)| ≤ K.
1 2
Zt (θ) = exp b(s, Bs )dBs − b(s, Bs ) ds
0 2 0
est une (Ft )-martingale. De façon plus générale, le processus t → Zt (θ) est une (Ft )-
martingale dès que l’EDS
a une unique solution faible sur tout l’intervalle [0, +∞[ (ce qu’on appelle sans explosion).
t
Dans le cas particulier θ = 1, on en déduit EP Bt eBt = t e 2 (ce que l’on peut bien sûr
retrouver en utilisant directement la loi de Bt ).
2) Reprenons le calcul du call fait dans la section 2.6.2. Rappelons qu’il nous faut calculer
r(t−T ) &t,x +
C(t, x) = E e (ST − K) ,
2
avec S&Tt,x = xeσ(BT −Bt )+ r− σ2 (T −t)
. La loi de BT − Bt est égale à celle de BT −t , donc
2
! +
r(t−T ) σBT −t + r− σ2 (T −t)
C(t, x) = EP e xe −K
σ2
= EP xeσBT −t − 2 (T −t) 1 σBT −t +(r− σ2 )(T −t)
{xe 2 >K}
σ2
− Ker(t−T ) P xeσBT −t +(r− 2 )(T −t) > K .
1 T −t 2 1 2
LT −t = exp σdBs − σ ds = exp σBT −t − σ (T − t) .
0 2 0 2
⎝ ⎠ σ2
EP xLT −t 1 σB + r− σ2 (T −t)
= xQ σWT −t + r + (T − t) > ln(K/x) .
xe T −t ( 2 ) >K 2
−r(T −t) σ2
Ke P σBT −t + r − (T − t) > ln(K/x) .
2
Remarquons d’ailleurs une formule importante sur la dualité call-put. Le put dual de C
est défini pour t ∈ [0, T ] par
r(t−T ) t,x +
P (t, x) = E e K − S̃T .
Clairement,
C(t, x) − P (t, x) = er(t−T ) E(S̃Tt,x ) − K = x − K e−r(T −t) .
Il est souvent plus judicieux de calculer le put (par simulation en utilisant une méthode de
Monte-Carlo car sa variance est inférieure à celle du call, ce qui améliore la précision pour
un nombre de simulations fixé), puis d’en déduire le call grâce à la formule de dualité. On
pourra trouver directement la valeur du put en appliquant le théorème de Girsanov par une
technique similaire à celle utilisée pour évaluer le call.
Dans ce modèle, si on rapporte le prix de l’actif risqué à l’instant t à celui de l’actif sans
risque, c’est à dire si on étudie
2
−rt σBt + b−r− σ2 t
S̄t = e St = e ,
λ2
LT = exp −λBT − T
2
par rapport à P, le processus (Wt = Bt + λt, 0 ≤ t ≤ T ) est une (Ft , 0 ≤ t ≤ T )-martingale
2
sous Q et pour t ≤ T on a S̄t = exp(σWt − σ2 t). Ceci entraı̂ne que sous Q, (S̄t , 0 ≤ t ≤ T )
est une (Ft , 0 ≤ t ≤ T )-martingale. On dit que cette probabilité Q est la probabilité risque
neutre.
t
λ2 t
Lt = exp −λ Bs dBs − Bs2 ds .
0 2 0
Bt2 − t λ2 t 2
Lt = exp −λ − B ds .
2 2 0 s
t
De plus sous Q, Wt = Bt + λ 0 Bs ds est un Brownien, c’est à dire que sous Q,
t
Bt = Wt − λ Bs ds
0
est un processus
t d’Ornstein-Uhlenbeck. D’après l’exercice
12.2, sous Qla variable aléatoire
Bt = e−λt 0 eλs dBs et suit une donc loi gaussienne N 0, 2λ (1 − e−2λt ) . De plus
2
B 2 −T B −T
λ T2 λ T2
I = EP LT e Φ(BT ) = EQ Φ(BT ) ,
Dans toute cette section, B est un Brownien standard et (FtB ) est sa filtration naturelle
(complétée). Cette hypothèse est cruciale. Nous ne manipulerons qu’une probabilité P et
noterons E l’espérance sous P. Nous allons vérifier que dans ce cas, toute (FtB )-martingale
locale continue nulle en 0 peut être écrite comme l’intégrale stochastique d’un processus de
H2loc .
Lemme 3.10 Pour tout T > 0, la famille de variables aléatoires {Ψ(Bt1 , · · · , Btn ) : 0 <
t1 < · · · tn ≤ T, ψ ∈ C0∞ } est dense dans L2 (FTB ).
Démonstration. Soit (tk , k ∈ N) la suite des éléments de Q∩[0, T ] et pour tout n ≥ 1, soit Bn
la tribu engendrée par les variables aléatoires Btk , 1 ≤ k ≤ n. La suite (Bn ) est une filtration
et la tribu B∞ = σ(Bti , i ≥ 1) est égale à FTB . De plus, pour tout X ∈ L2 (FTB ), la suite de
variables aléatoires Xn = E(X | Bn ), n ≥ 1 est une martingale qui converge vers X p.s. et
dans L2 . Par définition de Bn , chaque variable aléatoire Xn est de la forme gn (Bt1 , · · · , Btn ),
avec une fonction gn borélienne. Enfin, pour tout > 0, la variable aléatoire gn (Bt1 , · · · , Btn )
peut être approchée dans L2 (dP) à près par une variable aléatoire Ψn (Bt1 , · · · , Btn ) avec
une fonction Ψn de classe C ∞ à support compact. 2
Théorème 3.11 Soit Z une variable aléatoire FTB -mesurable de carré intégrable. Il existe
un unique processus (Ht , 0 ≤ t ≤ T ) appartenant à H2T et tel que
T
Z = E(Z) + Hs dBs . (3.4)
0
Démonstration.
t L’unicité de H vient de l’unicité du processus d’Itô Zt = E(Z|FtB ) = E(Z)+
0
Hs dBs pour 0 ≤ t ≤ T (qui est une martingale si H ∈ H2T ).
Pour prouver l’existence, nous procéderons en trois étapes.
T
(i) Notons H = { 0 Hs dBs : H ∈ H2T }. C’est un sous-espace vectoriel de L2 (FTB ), ses
éléments sont d’espérance nulle et il est isométrique à l’ensemble H2T qui est fermé pour la
norme L2 ([0, T ] × Ω) et la mesure dλ ⊗ dP. H est donc un sous-espace fermé de L2 (FTB ).
T
Pour tout Z ∈ L2 (FTB ), notons 0 Hs dBs la projection orthogonale de Z − E(Z) sur H.
Alors, T
Z = E(Z) + &
Hs dBs + Z,
0
où Z& est une variable aléatoire de carré intégrable, centrée et orthogonale à H.
Alors, X = MT = exp(ξT ).
La formule d’Itô montre que dMt = Mt dξt + 12 Mt f (t)2 dt = Mt f (t)dBt . On en déduit que
T
X = MT = 1 + Mt f (t)dBt
0
(iii) Il reste à montrer que toute variable aléatoire Y orthogonale à E est nulle p.s., c’est
à dire que l’espace vectoriel engendré par E est dense dans L2 (FTB ).
Soit X ∈ L2 (FTB )tel que pourtout Y ∈ E, E(XY ) = 0. Alors, pour toute fonction f ∈
T
L2 ([0, T ]), E X exp 0 f (s)dBs = 0. Considérons une subdivision t0 = 0 < t1 < · · · <
tn ≤ T et soit f = nj=1 aj 1]tj−1 ,tj ] une fonction étagée. Pour tout choix de la subdivision et
des constantes bj = aj − aj+1 pour j < n et bn = an , on en déduit que
n !
Φ(b) = E X exp bj Btj = 0, ∀b ∈ Rn .
j=1
= (2π)−n Ψ̂(y)Φ(−iy)dy = 0.
Rn
Le théorème suivant est très important en finance. Il permet de trouver des portefeuilles
de couverture.
Théorème 3.12 (Théorème de représentation des martingales Browniennes) Soit B un
Brownien standard, (FtB ) sa filtration naturelle, M une (FtB )-martingale locale. Alors il
existe x ∈ R et θ ∈ H2loc tels que
t
Mt = x + θs dBs .
0
Signalons enfin que dans certains cas, la formule de Clark-Ocone - voir [8] - donne une
représentation explicite du processus θ.
Le théorème de Girsanov permet de montrer l’existence d’une solution faible à des EDS
qui n’admettent pas forcément de solution forte. C’est une généralisation de la condition de
Novikov qui permet de faire le changement de probabilité.
Proposition 3.13 Soit B un Brownien standard à valeurs dans Rd , T > 0 et b : [0, T ]×Ω →
Rd une fonction borélienne telle qu’il existe une constante K pour laquelle pour tout x ∈ Rd
Démonstration. Pour prouver l’existence d’une solution faible, soit (Ω, F, (Ft ), P) un espace
filtré et un Brownien B pour la filtration (Ft ). Les conditions de restriction sur la croissance
imposées à b et la Proposition 3.6 montrent que pour tout x ∈ Rd , le processus
d t
t 1
Zt = exp bi (s, x + Bs )dBsi − b(s, x + Bs )2 ds , 0 ≤ t ≤ T,
i=1 0
2 0
est une vraie martingale sous P. On en déduit que la mesure Q de densité ZT par rapport
à P est une probabilité et que le processus
t
Wt = Bt − b(s, x + Bs )ds , 0 ≤ t ≤ T,
0
est un Brownien sous Q tel que W0 = 0. Ceci revient à écrire que sous Q, le processus
t
Xt = x + Bt satisfait Xt = x + Wt + 0 b(s, Xs )ds, et que (X, W, Q) est une solution faible
de (3.6) avec la filtration de départ.
On pourra lire la démonstration de l’unicité dans [6], page 304. 2
3.8 Exercices
2 β2 t 2
I = E −αBt − B ds .
2 0 s
1. Montrer que le processus défini par
β 2 β2 t 2
Lt = exp − (Bt − t) −
β
B ds
2 2 0 s
β 2
I = EQ exp(−αBt2
+ (Bt − t)) .
2
− 21
2α
En utilisant l’exercice 2.2, en déduire que I = cosh(βt) + β sinh(βt) .
4. En déduire que pour tout λ ∈ R,
t
− 12
2
√
EP exp −λ Bs ds = cosh( 2λt) .
0
1. Montrer que
t t
1 2
Lt = exp θ(s)dBs − θ(s) ds .
0 2 0
t
On note Q1 la mesure sur Ft de densité Lt par rapport à P et Wt1 = Bt − 0
θ(s)ds.
Montrer que (rt eb(t) , t ≥ 0) est une (Ft )- martingale sous Q1 .
4. Soit (Zt ) la solution de l’EDS dZt = Zt β(t) L dWt1 et Z0 = 1. Notons Q2 la probabilité
σ(t) t
sur Ft de densité Zt par rapport à P. Montrer que (rt ) est une (Ft )-martingale sous
Q2 .
4 Applications à la finance
Conventions de notations
Soit (Ω, F, P) un espace probabilisé, (Bt , 0 ≤ t ≤ T ) un Brownien standard de dimension
k, (Ft , 0 ≤ t ≤ T ) sa filtration naturelle complétée.
Exemple 4.1 Modèle de Black & Sholes Par exemple dans le modèle de Black & Sholes
de la section 2.6.2, l’actif S 0 est sans risque tel que dSt0 = rS 0 dt et S00 = 1, c’est à dire que
St0 = ert . On dispose aussi d’un actif risqué qui est un Brownien géométrique solution de
l’EDS dSt1 = σSt1 dBt + bSt1 dt. On sait que si S01 > 0, St1 > 0 p.s. pour tout t ≥ 0.
On verra dans la suite un modèle de Black & Sholes généralisé dans lequel l’actif sans
0 0 t
risque a un taux d’intérêt rt ∈ H1 , c’est à dire toujours avec S0 = 1, que St = exp 0 rs ds
loc
et les d actifs risqués S i , 1 ≤ i ≤ d sont des processus d’Itô généraux à valeurs stricte-
ment positives On appelle alors volatilité stochastique de l’actif S i à l’instant t le quotient
(σji (t), 1 ≤ j ≤ k) entre le coefficient de diffusion et le cours Sti et on note de même bi (t) le
rapport entre le coefficient de dérive et le cours, c’est à dire que pour tout i = 1, · · · , d,
k
dSti = σji (s)Ssi dBsj + bi (s)Ssi ds.
j=1
Définition 4.2 Un numéraire est un actif dont le cours est processus d’Itô (St ) tel que
St > 0 p.s. pour tout t.
On prend l’actif S 0 du modèle de Black & Sholes généralisé comme numéraire avec 1
0
0, c’est à dire S0 = 1. A la date t > 0, on rapporte la valeur
comme unité monétaireà la date
t
des actifs à St0 = exp 0 rs ds , ce qui revient à comparer leurs performances à celles de
l’actif sans risque en les comparant à 1. Un autre actif Xt vaut, dans cette nouvelle unité
t
Xt
X̃t = 0 = Xt exp − rs ds .
St 0
Dans le cas du modèle de Black & Sholes à deux actifs à coefficients constants, puisque
les processus S 0 et S 1 sont à trajectoires continues, donc p.s. bornées sur [0, T ], il suf-
fit donc d’imposer que les t coefficients
θ0 ∈ H1loc et θ1 ∈ H2loc . En effet, dans ce cas les
t t
intégrales déterministes 0 θs0 ers ds, 0 θs1 bSs1 ds et l’intégrale stochastique 0 σθs1 Ss1 dBs se-
ront bien définies.
Rappelons les hypothèses faites sur le marché (décrites dans la section 2.6.2) :
– Il n’y a aucun coût de transaction pour l’achat et la vente de titres.
– On permet la vente à découvert sans limite, c’est à dire que les θti peuvent prendre des
valeurs négatives et ne sont pas minorés.
– Les actifs sont indéfiniment divisibles, c’est à dire que l’on peut acheter un vendre
une proportion arbitraire d’un titre ; les processus θi peuvent donc prendre toutes les
valeurs réelles.
– Le trading se fait en temps continu, c’est à dire que l’on peut acheter ou vendre à
chaque instant réel t ∈ [0, T ].
d
VtΘ = (θt , St ) = θti Sti . (4.1)
i=0
Le fait qu’on n’ajoute ni retire de l’argent est modélisé par la définition suivante :
Si
Proposition 4.5 Soit (Xt , t ∈ [0, T ]) un numéraire, Xtt le prix à l’instant t de l’actif ac-
tualisé après changement de numéraire. Si la stratégie Θ est autofinancée, le portefeuille
VΘ
actualisé après changement de numéraire Xt t reste autofinancé.
St
d = d(Sti Yt ) = Sti dYt + Yt dSti + dS i , Y t .
Xt
Si le processus V Θ est autofinancé, dVtΘ = di=0 θti dSti p.s. et V Θ est un processus d’Itô. On
en déduit en appliquant de nouveau la formule d’Itô
Θ
Vt
d = VtΘ dYt + Yt dVtΘ + dV Θ , Y t
Xt
i
d
i i
d
St
= θt St dYt + Yt θt dSt + θt dS , Y t =
i i i i i
θt d . 2
i=0 i=0
Xt
On en déduit qu’un portefeuille autofinancé est entièrement déterminé par sa valeur initiale
V0Θ et les quantités investies sur les actifs risqués (θti , i = 1, · · · , d, t ∈ [0, T ]). En effet,
dS̃t0 = 0, Ṽ0Θ = V0Θ ,
d t
d
Θ Θ i i 0 Θ 0
Ṽt = V0 + θs dS̃s et θt peut être déduit par Ṽt = θt + θti S̃ti .
i=1 0 i=1
Puisque après actualisation l’actif non risqué est constant, c’est une martingale (triviale).
On souhaiterait transformer les autres actifs en martingales. Le chapitre précédent a montré
que ceci était possible au prix d’un changement de probabilité qui peut annuler le terme de
dérive.
4.1.3 Absence d’opportunité d’arbitrage - Mesure martingale équivalente
Ceci amène à la définition suivante de stratégie admissible.
Définition 4.7 (i) On appelle mesure martingale équivalente une probabilité Q équivalente
à P telle que sous Q les prix actualisés S̃ i , i = 1, · · · , d sont des (Ft )-martingales.
k Plus
précisément, on suppose qu’il existe un Brownien W sous Q tel que dS̃t = j=1 Hj (t)dWtj .
i i
(ii) Soit Q une mesure martingale équivalente. On dit que la stratégie Θ est Q-admissible
si elle est autofinancée et si (ṼtΘ , 0 ≤ t ≤ T ) est une (Ft , 0 ≤ t ≤ T ) martingale sous Q.
La notion suivante est fondamentale ; elle traduit que le marché fonctionne correctement
et qu’il n’y a pas de free lunch , c’est à dire de moyen de gagner une somme strictement
positive à l’instant T en n’ayant rien investi au départ. C’est la notion inverse (possibilité
de free lunch ) qui est décrite dans la définition suivante :
Définition 4.8 (Opportunité d’arbitrage) Une stratégie autofinancée Θ est appelée possibi-
lité d’arbitrage si
(i) V0Θ = 0 et VTΘ ≥ 0 p.s.
(ii) P(VTΘ > 0) > 0.
Un marché sain doit avoir la propriété d’absence d’opportunité d’arbitrage, notée
AOA. Deux probabilités équivalentes ayant les mêmes ensembles négligeables, dans la défini-
tion d’opportunité d’arbitrage, on peut remplacer P par une mesure martingale équivalente
Q.
Le résultat suivant montre que l’existence d’une mesure martingale équivalente Q exclut
l’opportunité d’arbitrage quand on se restreint aux stratégies Q-admissibles ou bien à ri-
chesse positive. Dans le cas du modèle de Black & Sholes nous verrons qu’il y a équivalence
entre cette dernière propriété et AOA.
Démonstration.
(i) Soit Θ une stratégie admissible. Alors V0Θ = Ṽ0Θ = EQ (ṼTΘ | F0 ) = EQ (ṼTΘ ). Si ṼTΘ ≥ 0,
Q p.s. et si P(VTΘ > 0) > 0, on en déduit que P(ṼTΘ > 0) > 0, puis que Q(ṼTΘ > 0) > 0
puisque P et Q sont équivalentes. On a donc EQ (ṼTΘ ) > 0, ce qui exclut V0Θ = 0.
k j
(ii) Soit Θ une stratégie à richesse positive ; si on note dS̃ti = i
j=1 Hj (t)dWt pour
t ∈ [0, T ], où (Wt , 0 ≤
t ≤ T) est un Q Brownien standard de dimension k, alors pour
tout t ∈ [0, T ], dṼtΘ = di=1 kj=1 θti Hji (t)dWtj Q p.s. On en déduit que Ṽ Θ est une (Ft )-
martingale locale positive sous Q ; c’est donc une surmartingale (cf. Exercice 1.4 (i)). On
a donc pour tout t ∈ [0, T ], EQ (ṼtΘ |F0 ) ≤ Ṽ0Θ = V0Θ Q p.s. Donc si Θ est une possibilité
d’arbitrage, EQ (ṼTΘ ) ≤ 0. D’autre part, puisque ṼTΘ ≥ 0 P p.s., donc Q p.s puisque P et Q
sont équivalentes, on en déduit ṼTΘ = 0 Q p.s., donc P p.s., ce qui fournit une contradiction.
2
Il faut prendre garde à une difficulté propre au temps continu : l’existence d’une mesure
martingale équivalente n’entraı̂ne pas l’absence d’opportunité d’arbitrage sans restriction
sur les stratégies. En effet, si Z est une variable aléatoire FTB -mesurable de carré intégrable
centrée (non identiquement nulle), le théorème 3.11 montre qu’il existe H ∈ H2T (sous Q)
T
telle que Z = 0 Ht dWs . On peut en déduire dans le modèle de Black & Sholes une stratégie
autofinancée Θ = (θt0 , θt1 ) telle que Ṽ0Θ = 0 et ṼTΘ = Z.
4.1.4 Probabilité risque neutre
Dans toute cette section, on suppose qu’il existe une mesure martingale Q
équivalente à P.
Définition 4.10 On dit qu’un actif donné par sa valeur à l’instant terminal T par une
variable aléatoire FT -mesurable ζ est Q-duplicable s’il existe une stratégie Θ Q-admissible
telle que ζ est la valeur terminale du portefeuille associé, c’est à dire si ζ = VTΘ Q presque
sûrement. On dit alors que la stratégie Θ duplique l’actif à l’instant T , ou est duplicante .
Ceci veut dire intuitivement que le portefeuille duplique l’actif dans tous les états du
monde c’est à dire pour P (ou Q) presque tout ω.
On montrera à titre d’exercice que si un actif est duplicable à l’instant T il le reste après
changement de numéraire avec la même stratégie.
Le résultat suivant montre que la valeur du portefeuille à tout instant t ≤ T est
indépendante de la stratégie duplicante (mais peut dépendre de Q).
Théorème 4.11 Soit T > 0, ζ un actif dérivé (une variable aléatoire FT -mesurable) Q-
duplicable. Alors si Θ est une stratégie duplicante et V Θ le portefeuille associé, pour tout
instant t ∈ [0, T ], VtΘ = St0 EQ (ṼTΘ |FT ) (Q ou P p.s.) est indépendant de la stratégie dupli-
cante. On l’appelle le prix de l’option à l’instant t.
Démonstration. Pour tout t ∈ [0, T ], ṼtΘ = EQ (ṼTΘ |Ft ), c’est à dire que Q p.s.
Θ 0 ζ
Vt = St EQ Ft ,
ST0
est indépendant de la stratégie Θ. 2
Définition 4.12 (i) On dit que le marché est complet si tout actif est duplicable.
(ii) Soit Q une mesure martingale équivalente. On dit que le marché est Q-complet si
pour toute variable aléatoire FT -mesurable ζ telle que Sζ0 ∈ L1 (Q), l’actif de valeur terminale
T
ζ est Q-duplicable.
Théorème 4.13 Supposons que le marché est complet. Notons Q1 et Q2 sont deux mar-
tingales mesures équivalentes telles que le marché soit Qi -complet, i = 1, 2. Alors on a
Q1 |FT = Q2 |FT .
Θi Θi Θi ST 1A
V0 = Ṽ0 = EQi (ṼT ) = EQi = Qi (A).
ST0
D’après le Théorème 4.11, la valeur du portefeuille duplicant est indépendante de la stratégie ;
1
à l’instant 0 ceci traduit une absence d’opportunité d’arbitrage. On en déduit que V0Θ =
2
V0Θ , et donc Q1 (A) = Q2 (A). 2
Nous généralisons tout d’abord le modèle de Black & Sholes à un seul actif risqué que
nous avons décrit dans les chapitres précédents et montrons que dans ce cas plus général il
existe également une mesure martingale équivalente Q dès qu’il y a absence d’opportunité
d’arbitrage.
De plus, nous donnons des conditions suffisantes pour que le marché soit Q-complet et
calculerons la stratégie de couverture d’une option, c’est à dire la stratégie duplicante Θ et
la valeur de l’option à chaque instant.
loc 0 t
Soit r un processus dans H1 et St = exp 0 rs ds .
On dispose d’autre part de d actifs risqués S i , i = 1, · · · , d qui sont des processus d’Itô de
la forme
k t t
i i i i k
St = S0 + σj (s)Ss dBs + bi (s)S i (s)ds , (4.2)
j=1 0 0
où B est un Brownien standard de dimension k, les processus (σji (s), 0 ≤ s ≤ T ) et (bi (s), 0 ≤
s ≤ T ) sont progressivement mesurables et tels qu’il existe une constante M > 0 telle que
sup0≤t≤T (σ(t) + b(t)) ≤ M . Alors d’après l’exercice 2.4 pour tout i = 1, · · · , d,
t t
1 i 2
i
St = exp i
σ (s)dBs + (b (s) − σ (s) )ds
i
(4.3)
0 0 2
k t !
t 1
k
:= exp σji (s)dBsj + bi (s) − |σji (s)|2 ds .
j=1 0 0 2 j=1
De plus, l’équation (4.3) est aussi vérifiée si les S i sont des processus d’Itô (donc continus)
H i (t)
tels que dSti = kj=1 Hki (s)dBsk +H0i (s)ds et tels que si on note σki (t) = Sk i pour i = 1, · · · , d
H i (t) T
t
Ce portefeuille est donc sans risque et l’absence d’opportunité d’arbitrage montre que son
rendement est égal à rt , c’est à dire nul
quand les prix sont actualisés par changement de
− 0t rs ds 1 2 2 1
numéraire. En effet, notons φ(t) = e St St [σt (bt − rt ) − σt1 (b2t − rt )], et supposons qu’il
existe un ensemble A ⊂ [0, T ] × Ω tel que dλ ⊗ P(A) > 0 et φ(t)(ω) = 0 sur A. Notons s(t)
le signe de φ(t) lorsque φ(t) = 0 et posons pour i = 1, 2,
Revenons au modèle général. Pour tout t ∈ [0, T ], la matrice σ(t) définit une application
linéaire aussi notée σ(t) : Rk → Rd de matrice σ(t) dans la base canonique, c’est à dire
telle que pour tout x = (x1 , · · · , xk ) ∈ Rk et tout i = 1, · · · , d, (σ(t)x)i = kj=1 σji (t)xj . On
cherche un vecteur λt = (λ1t , · · · , λkt ) tel que pour tout i = 1, · · · , d, bi (t)−rt = kj=1 σji (t)λkt ,
c’est à dire que λjt est la prime de risque du Brownien Btj à l’instant t. En identifiant un
vecteur de Rk à la matrice colonne de ses composantes dans la base canonique, et en notant
1̄ = (1, · · · , 1) ∈ Rd , ceci revient à résoudre l’équation
b(t) − rt 1̄ = σ(t)λt .
Théorème 4.14 Supposons qu’il y a absence d’opportunité d’arbitrage parmi les stratégies
à richesse positive. Alors il existe λ : [0, T ] × Ω → Rk progressivement mesurable tel que
pour tout t ∈ [0, T ], b(t) − rt 1̄ = σ(t)λt .
Démonstration. Montrons que le vecteur b(t) − rt 1̄ ∈ Im (σ(t)). Nous admettrons alors que
le choix de λ peut être fait de façon progressivement mesurable.
Ceci revient à prouver que b(t) − rt 1̄ est orthogonal à tout vecteur du noyau de l’ap-
plication linéaire adjointe de σ(t) : Rk → Rd notée σ ∗ (t) : Rd → Rk , définie pour tout
y ∈ Rk et tout z ∈ Rd , (σ(t)y, z)Rd = (y, σ ∗ (t)z)Rk et associée à la matrice transposée de
σ(t). En effet, Im(σ(t) = Ker (σ ∗ (t))⊥ . L’inclusion Im (σ(t)) ⊂ Ker (σ ∗ (t))⊥ est évidente
par la définition de l’adjoint : pour tout y ∈ Rk et tout z ∈ Ker (σ ∗ (t)) ⊂ Rd , (σ(t)y, z)Rd =
(y, σ ∗ (t)z)Rk = 0. De plus les relations classiques entre dimension des noyau, image des appli-
cations linéaires et de l’orthogonal d’un sous-espace vectoriel montrent que dim Im (σ(t)) ≤
k −dim Ker (σ ∗ (t)) = dim Im (σ ∗ (t)). En échangeant les rôles de σ ∗ (t) et de σ(t) = (σ ∗ (t))∗ ,
on en déduit que dim Im (σ ∗ (t)) ≤ dim Im σ(t)), d’où dim Im σ(t)) = dim Im σ ∗ (t)) =
dim Ker(σ ∗ (t))⊥ , soit Im (σ(t)) = Ker (σ ∗ (t))⊥ d’après l’inclusion précédente.
Puisque les prix des actifs de base sont strictement positifs, pour tout vecteur x ∈ Rd le
i
processus Θ : Ω × [0, T ] → Rd défini pour i = 1, · · · , d par θti = Sx i permet de construite une
t
stratégie autofinancée. En effet la conditiont i id’autofinancement permet d’en déduire θt0 et
les conditions d’existence des intégrales 0 θs dSs sont bien satisfaites. On a donc x = (ΘS)t ,
où on définit le vecteur (ΘS)t par (ΘS)it = θti Sti .
Supposons qu’il existe un ensemble A ⊂ [0, T ] × Ω tel que (dt ⊗ dP)(A) > 0 et pour tout
(t, ω) ∈ A,
σ(t)∗ (ΘS)t = 0 et (ΘS)t , b(t) − rt 1̄ = 0.
On construit alors une nouvelle stratégie autofinancée Φ et posant
Φt = 0 sur Ac , Φt = st Θt où st = signe (ΘS)∗t (b(t) − rt 1̄) sur A.
Pour presque tout (t, ω) ∈ A, pour tout j, di=1 θti Sti σji (t) = 0 et
t k
d
d t
dṼtΦ =e − 0 rs ds
st θti Sti σji (t) j
dB (t) + e− 0 rs ds θti st Sti (bi (t) − rt )dt
j=1 i=1 i=1
d
= S̃ti θti (bi (t) − rt ) dt,
i=1
tandis que dṼtΦ = 0 presque partout sur Ac . On en déduit une stratégie non risquée telle
T
que sur un ensemble de probabilité non nulle, 0 dṼsΦ ds > 0, ce qui revient à dire que Φ est
une opportunité d’arbitrage.
Puisque il y a absence d’opportunité d’arbitrage, tout vecteur x de Rd que l’on peut
écrire x = (ΘS)t , du noyau de σ(t)∗ est orthogonal à b(t) − rt 1̄. On en déduit que le vecteur
b(t) − rt 1̄ appartient à l’orthogonal du noyau de σ(t)∗ , c’est à dire à l’image de σ(t). 2
Le théorème suivant montre enfin que si le vecteur de primes de risque λ a des propriétés
supplémentaires, il existe une mesure martingale équivalente décrite explicitement à l’aide de
λ. Ceci généralise ce qui a été observé dans le modèle de Black & Sholes. En effet dans ce cas
la prime de risque λ est telle que σλ = b − r, c’est à dire que λ = b−r σ
et la probabilité
risque
λ2
neutre Q a été construite à partir de la martingale exponentielle Lt = exp −λBt − 2
t .
T i
1 T 2
E(LT ) = 1 et pour tout i = 1, · · · , d, EP LT e 0 σs (dBs +λs ds)− 2 0 σ (s) ds < +∞.
i
Alors la probabilité Q définie par dQ|FT = LT dP|FT est une mesure martingale équivalente
à P, c’est à dire que les prix actualisés (S̃ti ) sont des (Ft )-martingales sous Q.
Remarque 4.16 Les hypothèses de convergence des intégrales de la condition (ii) sont
satisfaites dès que les processus λ et σ i sont bornés, ou bien plus généralement si
1 T 2 2
EP e 2 0 (λ(s) +σ (s) )ds < +∞.
i
En effet, dans ce cas les deux martingales locales sont des martingales exponentielles.
est une Q-martingale ; ceci termine la démonstration grâce à la forme explicite de S̃ti (sous
Q) à l’aide de W montrée dans l’exercice 2.4. 2
4.2.2 Complétude du marché
On se place sous les hypothèses du Théorème 4.15 : on note Q la probabilité
de densité LT par rapport à P, telle que sous Q les processus (S̃ti , 0 ≤ t ≤ T ) sont
des (Ft , 0 ≤ t ≤ T )-martingales.
Soit ζ une variable aléatoire FT -mesurable Q intégrable après changement de numéraire.
On veut montrer que l’actif de valeur terminale ζ est duplicable. Ceci nécessite une hypothèse
de rang sur la matrice de diffusion σ. Rappelons que pour tout t, la matrice σ(t) est
associée à une application linéaire de Rk dans Rd d’adjointe σ(t)∗ : Rd → Rk dont la
matrice dans les bases canoniques est la transposée σ(t)∗ de la matrice de diffusion σ(t). L’
application linéaire σ(t)∗ est surjective si et seulement si le rang de cette matrice (qui est
aussi celui de la matrice σ(t)) est égal à k.
Démonstration. Soit ζ une variable aléatoire FT -mesurable telle que Sζ0 ∈ L1 (Q). On veut
T
trouver une stratégie autofinancée Q-admissible Θ telle que VTΘ = ζ. D’après la section
précédente, si une telle stratégie existe, on a sous Q pour tout t ∈ [0, T ], d’après la propriété
de Q-martingale et d’autofinancement :
d
ζ
t
ṼtΘ = EQ Ft = V0Θ + θsi S̃si σsi dWs .
ST0 i=1 0
Le processus Mt = EQ ζ Ft est une (FtW )-martingale sous Q. Le processus λ n’étant
ST0
pas déterministe, la filtration (FtW ) est incluse dans (FtB ), sans lui être égale.
D’après le Lemme 3.1 le produit (Lt Mt ) est une (FtB , 0 ≤ t ≤ T )-martingale locale sous
P. Le théorème de représentation (Théorème 3.12) entraı̂ne l’existence
t d’un unique processus
H ∈ H2 (pour la filtration (Ft )) tel que sous P, Mt Lt = M0 + 0 Hs dBs , c’est à dire que
loc B
sous Q , dL−1 −1
t = λt Lt dWt .
Si on note Kt = Mt λt + H t
, on en déduit un processus K progressivement mesurable tel
Ltt
que sous Q, Mt = M0 + 0 Ks dWs . Il reste enfin par identification de la décomposition de
Mt comme processus d’Itô à trouver θti , i = 1, · · · , d tels que pour tout t ∈ [0, T ] et tout
d
j = 1, · · · , k, Kt = i=1 θti S̃ti σji (t). Sous forme matricielle, cela revient à trouver le vecteur
j
Si le marché est Q-complet, cette équation doit être résolue Q p.s. pour tous les seconds
membres K (avec assez d’intégrabilité et de mesurabilité), ce qui entraı̂ne que la matrice
σ(t)∗ doit être de rang k p.s., et que σ(t) doit aussi être de rang k Q p.s.
Réciproquement, si σ(t) est Q p.s. de rang k, alors σ(t)∗ est Q p.s. surjective et l’équation
admet Q p.s. une solution θti , i = 1, · · · , d. Pour satisfaire l’autofinancement (après actua-
lisation), on en déduit θt0 = Mt − di=1 θti S̃ti Q p.s. La stratégie Θ = (θi , 0 ≤ i ≤ d) est
donc autofinancée, de valeur ṼtΘ égale à Mt à l’instant t. Puisque (ṼtΘ , 0 ≤ t ≤ T ) est une
(FtB )-martingale sous Q, la stratégie Θ est admissible et puisque Q p.s. VTΘ = MT ST0 =
EQ (ζ|FT ) = ζ, elle duplique ζ. 2
et la Q-complétude du marché sous des conditions sur le rang de σ(t). Le théorème 4.13
montre alors l’unicité de la mesure martingale équivalente.
La condition imposant à σ(t) d’être de rang k montre qu’on doit avoir d ≥ k, c’est à
dire qu’il y ait assez d’actifs pour dupliquer les k sources d’aléa B j , 1 ≤ j ≤ k. Remarquons
enfin que si k = d et si pour presque tout (t, ω) ∈ [0, T ] × Ω σ(t) est inversible, on a,
λt = σ(t)−1 [b(t)−rt 1̄]. Donc, si la matrice σ(t, ω) est presque sûrement bornée et si σ(t)σ(t)∗
est strictement elliptique, c’est à dire qu’il existe des constantes 0 < m < M telles que pour
tout y ∈ Rk , my2 ≤ y ∗ σ(t)σ ∗ (t)y ≤ M y2 , et si les coefficients bi (t) sont bornés presque
partout, les conditions du Théorème 4.15 sont satisfaites.
Dès que le marché est complet et qu’il y a absence d’opportunité d’arbitrage, le prix
de tout actif dérivé est déterminé de façon unique ; cet actif est redondant et son prix est
indépendant de l’attitude des investisseurs à l’égard du risque.
4.2.3 Calcul du portefeuille de couverture dans le modèle de Black & Sholes
Rappelons que dans ce modèle on dispose d’un actif sans risque St0 = exp(rt) de
taux constant
r > 0 et d’un actif risqué St modélisé par un Brownien géométrique St =
2
σB + b− σ t
S0 e t 2
, solution de l’EDS linéaire dSt = St (σdBt + bdt) où B est un Brownien stan-
dard unidimensionnel et σ > 0. On note (Ft ) la tribu naturelle de B. En collectant les calculs
faits précédemment et les résultats généraux montrés sur les marchés financiers, nous avons
les propriétés suivantes :
Après changement de numéraire, si S̃t = St e−rt, on a dS̃t =σ S̃t + S̃t (b − r)dt. Si on note
2
λ = b−r
σ
et Q la probabilité de densité LT = exp −λBT − λ2 par rapport à P sur FT , le
processus (Wt = Bt + λt, 0 ≤ t ≤ T ) est une (Ft , 0 ≤ t ≤ T )-martingale sous Q telle que
dS̃t = σ S̃t dWt . La probabilité Q est donc une mesure martingale équivalente, et sous Q, le
processus S̃ est la martingale exponentielle
σ2t
S̃t = S0 exp σWt − . (4.4)
2
Il y a donc absence d’opportunité d’arbitrage parmi les stratégies à richesse positive. Puisque
σ > 0, le marché est complet et la mesure martingale Q est unique. De plus, pour tout ζ ∈ FT
tel que Z ∈ L1 (Q), le prix actualisé à l’instant t de l’actif versant la somme ζ à l’instant
terminal T est e−r(T −t) EQ (ζ|Ft ). La probabilité Q est la probabilité risque neutre.
On sait qu’il est possible à chaque instant de trouver un portefeuille autofinancé d’actifs
de base (l’actif non risqué S 0 et le sous-jacent S) qui à chaque instant t ∈ [0, T ] a le même
prix que l’option. Le vendeur de l’option doit constituer ce portefeuille appelé portefeuille de
couverture de l’option. A l’instant terminal, ce portefeuille vaudra exactement ζ, la somme
que le vendeur s’est engagé à payer.
Le portefeuille est théoriquement ajusté à chaque instant, sans tenir compte des va-
riations du cours du sous-jacent S. Il correspond à des transactions faites en continu et
sans frais, adjonction ni retrait d’argent. La quantité d’actif risqué dans le portefeuille de
couverture est appelé le Delta.
En réalité, les transactions sont discrètes et les coûts de transaction limitent le nombre
d’ajustements (appelés hedges ). Le vendeur prend donc concrètement un risque. Plus
il fait de hedges, plus son portefeuille est proche de l’option, mais plus il paye de coûts de
transaction.
On a montré dans la section 2.6.2 que la fonction V (t, x) est solution de l’équation de
Feynman-Kac
∂V
∂t
(t, x) + Lt V (t, x) = rV (t, x), ∀(t, x) ∈ [0, T ] × R
,
V (T, x) = h(x)
σ2 2 ∂ 2 f
où Lt f (t, x) = rx ∂f (t, x) + x ∂x2(t, x).
∂x 2 2
−rT σN (0,T )+ r− σ2 T
Le prix en 0 est V (0, S0 ) = EQ e h S0 e .
Il reste à calculer le portefeuille de couverture, c’est à dire les quantités θt0 d’actif sans
risque et Δt = θt1 d’actif risqué qui constituent à l’instant t la stratégie autofinancée Θ qui
duplique l’option. Ce portefeuille est entièrement déterminé par le prix de l’option à l’instant
0 (valeur initiale du portefeuille) et le Δ , c’est à dire le processus (Δt ). Nous avons vu
dans la section 2.6.2 que l’unicité de la décomposition d’un processus d’Itô et la condition
d’autofinancement entraı̂nent que
∂V
Δt = (t, St ). (4.5)
∂x
On voit que l’EDP parabolique satisfaite par V (t, x) ne dépend pas de b. Le delta Δt
mesure la sensibilité du prix de l’option aux variations du cours du sous-jacent St ; c’est la
part du portefeuille investi sur l’actif risqué. Cette couverture est réajustée en temps discret.
Si Δt varie beaucoup, on doit modifier souvent la composition du portefeuille et la sensibilité
du delta au cours du sous-jacent est mesurée par le gamma défini par
∂2V
Γt = (t, St ). (4.6)
∂x2
Calcul du delta Supposons que h ∈ C 2 est à croissance polynomiale ainsi que ses dérivées
d’ordre 1 et 2. Nous ne ferons les calculs explicites qu’à l’instant 0. Les formules à l’instant
t sont similaires en remplaçant T par T − t et S0 par St .
Notons 2
−rT σWT +(r− σ2 )T
f (x, ω) = e h xe .
On a V (0, x) = EQ (f (x, ω)). Pour calculer Δ0 , il suffit d’intervertir la dérivation par rapport
à x et l’espérance sous Q. D’après les résultats classiques de théorie de la mesure, il suffit
que pour Q-presque tout ω, l’application x → f (x, ω) soit de classe C 1 , et qu’il existe une
1
variable
∂f aléatoire g ∈ L (Q) telle que pour tout x0 et tout x dans un voisinage de x0 ,
(x, ω) ≤ g(ω) pour Q presque tout ω.
∂x
Puisque h est à croissance polynomiale, si x reste borné, on majore bien
2
2
σWT − σ2 T σWT + r− σ2 T
fx (x, ω) = e h xe
par une variable aléatoire intégrable indépendante de x dans une boule donnée. On en déduit
donc
∂V σ2
Δ0 = (t, S0 ) = EQ eσWT − 2 T h (ST ) .
∂x
Un calcul similaire donne
∂V 2
σWT −t − σ2 (T −t)
Δt = (t, St ) = EQ e h (ST −t ) .
∂x
Si h est de signe constant (c’est à dire h est monotone), le signe de Δ0 est celui de h .
Un nouveau changement de probabilité permet de trouver une expression légèrement plus
simple du delta.
2
Soit Q̃ la probabilité de densité exp(σWT − σ2 T ) par rapport à Q. Alors le processus défini
par W̃t = Wt − σt pour 0 ≤ t ≤ T est un (FtB , 0 ≤ t ≤ T )-Brownien sous Q̃. De plus
σ2
Δ0 = EQ̃ h S0 eσW̃T +(r+ 2 )T .
où
1 S0 σ2
d1 = √ ln + r+ T
σ T K 2
√ 1 S0 σ2
d2 = d1 − σ T = √ ln + r− T .
σ T K 2
avec
1 y σ2
d1 (t, y) = √ ln + r+ (T − t) ,
σ T −t K 2
√ 1 y σ2
d2 (t, y) = d1 (t, y) − σ T − t = √ ln + r− (T − t) .
σ T K 2
La fonction h(y) = (y − K)+ est dérivable en tout y = K et l’ensemble des ω tels que
σ2
xeσWT +(r− 2 )T (ω) = K est négligeable. De plus, dy-presque partout h (y) = 1]K,+∞[ (y). Le
raisonnement précédent de dérivation sous l’intégrale par rapport à Q montre qu’en utilisant
la probabilité Q̃
σ2
Δ0 = EQ̃ 1]K,+∞[ (S0 eσW̃T +(r+ 2 )T ,
S0 σ2
Δ0 = Q̃ σ W̃T ≤ ln + r + )T = F (d1 (0, S0 )).
K 2
Un calcul similaire montre que Δt = F (d1 (t, St )), c’est à dire que la forme du prix fournit
la composition du portefeuille de couverture :
4.2.4 Volatilité
Les formules précédentes du prix et du delta dépendent d’un paramètre du sous-jacent
S qui n’est pas directement observable : sa volatilité σ. Le coefficient de dérive b a en effet
disparu des formules de Ct et Δt .
On dispose classiquement de deux façons d’estimer σ.
1
n
1
n
(Xi − X̄n )2 où X̄n = Xi .
h (n − 1) i=1 n i=1
Souvent on prend une taille d’échantillon qui correspond au temps de vie qui reste pour
l’option.
Volatilité implicite
On observe que le prix du call est une fonction continue strictement croissante de σ. En
observant les prix de puts et calls sur le marché avec diverses dates de maturité et diverses
valeurs de l’exercice K, on recherche σ en inversant la formule.
Concrètement, il y a de nombreux actifs qui donnent des volatilités différentes. La va-
riation de K donne une forme de smile , c’est à dire que les options sur de petites
ou grandes valeurs de K sont plus chères et ont une volatilité implicite plus élevée.
Deux facteurs expliquent en partie ce phénomène : d’une part le modèle n’est pas pertinent
(surtout dans l’aspect d’une volatilité constante) et il n’y a que peu de transactions sur des
options dont les prix d’exercice sont extrêmes.
Les traders raisonnent plus en termes de volatilité et de smile de volatilité, et se servent
du modèle de Black & Sholes comme d’une traduction entre prix et volatilité implicite.
Les modèles qui permettent de prendre en compte les smile de volatilité sont ceux où la
volatilité σt est stochastique et dépend du temps. Un modèle à volatilité non constante mais
déterministe ne suffit pas.
Divers modèles sont utilisés :
Une classe importante de modèles stochastiques (plus récents que le modèle de Black &
Sholes) utilisés en finance est liée au processus de Bessel.
4.3.1 Processus de Bessel généraux
Nous avons introduit des processus de Bessel dans le Chapitre 2. Nous allons maintenant
définir les processus de Bessel généraux. √ "
√
Soit B un mouvement Brownien. En utilisant l’inégalité | x − y| ≤ |x − y|, le
théorème de Yamada-Watanabe 2.20 montre que pour δ ≥ 0 et α ≥ 0, l’équation
"
dZt = δ dt + 2 |Zt | dBt , Z0 = α ,
a une unique solution forte. Cette solution est un processus de Bessel carré de dimension δ,
que l’on désigne par BESQδ . En particulier, si α = 0 et δ = 0, la solution Z ≡ 0 est l’unique
√
Définition 4.19 (BESδ ) Soit ρ un BESQδ partant de α. Le processus R = ρ est un
√
processus de Bessel de dimension δ, partant de a = α et est noté BESδ .
Définition 4.20 Le nombre ν = (δ/2) − 1 (soit δ = 2(ν + 1)) est l’indice du processus de
Bessel et un processus de Bessel d’indice ν est noté BES(ν) .
En appliquant la formule d’Itô, on voit que pour α > 0 et δ > 2, un BESδ est solution de
δ−1 t
1
Rt = α + Bt + ds . (4.7)
2 0 Rs
(ν)
et le processus de Bessel d’indice ν a une probabilité de transition pt donnée par
(ν) y y ν x2 + y 2 xy
pt (x, y) = exp(− )Iν , (4.9)
t x 2t t
−kt σ kt
rt = e ρ (e − 1) ,
4k
en admettant que l’intégrale stochastique est une martingale, ce qui est le cas. On calcule
sans difficultés supplémentaires l’espérance conditionnelle, en utilisant le caractère Marko-
vien :
Théorème 4.21 Soit r le processus vérifiant
√
drt = k(θ − rt )dt + σ rt dBt .
2 2
= rs + (2kθ + σ ) ru du − 2k ru du + 2σ (ru )3/2 dBu .
2
s s s
En admettant que les intégrales stochastiques qui interviennent dans les égalités ci-dessus
sont d’espérance nulle, on obtient, pour s = 0
t
et t t
E(rt2 ) = r02 + (2kθ + σ ) 2
E(ru )du − 2k E(ru2 )du.
0 0
t
Soit Φ(t) = E(rt ). En résolvant l’équation Φ(t) = r0 + k(θt − 0 Φ(u)du), c’est à dire
l’équation différentielle Φ (t) = k(θ − Φ(t)) et Φ(0) = r0 , on obtient
exp − ru duFt = G(t, rt ).
x,t
t
Nous admettrons que G est de classe C 1,2 . La formule d’Itô appliquée à G(s, rsx,t )Rst , qui est
une martingale, montre que
où Mt est une intégrale stochastique. Par analogie avec la formule de Feynman-Kac, en
choisissant G telle que
∂G ∂G 1 ∂2G
−yG(s, y) + (s, y) + a(b − y) (s, y) + σ 2 y 2 (s, y) = 0 (4.11)
∂s ∂y 2 ∂y
RTt = G(t, x) + MT − Mt ,
T
où M est une martingale. En particulier, lorsque t = 0 on obtient E exp − 0 rs ds =
E(RT ) = G(0, x). En se plaçant entre t et T , on obtient
T x,t
E e− t ru du = G(t, x).
Il reste à calculer la solution de l’équation aux dérivées partielles (4.11). Un calcul assez
long montre que
G(t, x) = Φ(T − t) exp[−xΨ(T − t)],
avec
s 2ab2
2(e −1)γs
2γe(γ+a) 2 σ
Ψ(s) = (γ+a)(eγs −1)+2γ , Φ(s) = (γ+a)(eγs −1)+2γ
,
γ = a + 2σ 2 .
2 2
2
Si l’on note P (t, T ) le prix du zéro-coupon associé,
on montre que
P (t, T ) = B(t, T ) (rt dt + σ(T − t, rt )dBt ) ,
√
avec σ(u, r) = σΨ(u) r.
4.4 Exercices
σ2
3. Soit P̃ la probabilité définie sur Ft par dP̃ = Zt dQ où Zt = eσWt − 2
t
. Montrer que
dSt = St σdB̃t + (r + σ 2 )dt ,
t
5. Soit A et λ des constantes réelles, Ft = e−λt 0 Su du + xA et Ψt = FtSet . Écrire
rt
dZt = Zt θt dBt1 , Z0 = 1.
1 1 t 2 2 1 t 2
Lt = exp λs dBs − λ ds + νs dBs − ν ds . (4.12)
0 2 0 s 0 2 0 s
Écrire l’EDS satisfaite par (Lt ). On note Q la probabilité définie par dQ = Lt dP sur
Ft .
t
3. Soit B̃t1 = Bt1 − 0 λs ds et (Z̃t ) la solution de l’EDS dZ̃t = Z̃t αdB̃t1 et Z̃0 = 1, où α est
une constante. Montrer que (Lt Z̃t ) est une (Ft )-martingale sous P.
t
4. Montrer que B̃t2 = Bt2 − 0 νs ds est un (Ft )-Brownien sous Q.
5. On admettra que si Q est une probabilité équivalente à P il existe λ et ν tels que la
densité de Q par rapport à P soit de la forme (4.12). Décrire l’ensemble des couples
(λ, ν) correspondant à des probabilités Q telles que le processus (St e−rt , t ≥ 0) soit
une martingale sous Q. On notera Q cet ensemble de probabilités
6. Le marché financier est-il complet ?
7. Soit X un actif duplicable au sens suivant : il existe un processus (Ft )-adapté (Vt ) tel
qu’il existe un processus (φt ) borné (Ft )-adapté pour lequel :
dVt = rVt dt + φt dSt − rSt dt , et VT = X.
(a) Montrer que (Vt e−rt ) est une (Ft )-martingale sous Q pour toute probabilité Q ∈
Q.
(b) On suppose que Vt = v(t, St , Yt ). Montrer que v satisfait une EDP que l’on
explicitera.
Exercice 4.3 Options power Soit r, δ, σ des constantes positives, x > 0. On modélise la
dynamique d’un actif versant des dividendes au taux δ alors que le taux spot est r sous la
probabilité risque neutre par
dSt = St σdBt + (r − δ)dt , S0 = x.
4. On suppose que h(x) = xβ (x − K)+ . Montrer que h(ST ) est la différence de deux
payoffs correspondant à des options d’achat européennes portant sur S β+1 et S β et sur
des strikes que l’on déterminera.
Références
[1] De Meyer, B., Calcul Stochastique, Polycopié du cours de l’ex DEA MME de l’Univer-
sité Paris 1, année 2004-2005.
[2] Friedman, A., Stochastic Differential Equations and Applications, Volume 1, Academic
Press, 1975.
[3] Jeanblanc ; M., Cours de calcul stochastique, DESS IM Evry, Septembre 2005,
http ://www.maths.univ-evry.fr/pages perso/jeanblanc/
[4] Jeanblanc, M., Simon, T., Eléments de calcul stochastique, IRBID, Septembre 2005.
[5] Jeanblanc, M., Yor, M. et Chesney, M., Mathematical Methods for financial Markets,
Springer Verlag, à paraı̂tre.
[6] Karatzas, I., Shreve, S.E., Brownian motion and Stochastic Calculus, Springer Verlag,
1991.
[7] Lamberton, D., Lapeyre., B, Introduction au calcul stochastique appliqué à la finance.,
Ellipses, Paris, 1991.
[8] Malliavin P., Stochastic Analysis, Springer, Berlin, 1997.
[9] Nagot, I., Calcul Stochastique et Finance, Temps continu, Polycopié du cours de l’ex
DEA MME de l’Université Paris 1, année 2004-2005.
[10] Revuz, A., Yor, M., Continuous Martingales and Brownian Motion, Springer, Berlin,
3th edition 1999.
[11] Rogers L. C. G. et Williams, D., Diffusions, Markov Processes, and Martingales. Volume
1 : Foundations, Wiley, Chichester, 1994.
[12] Rogers L. C. G., Williams, D., Diffusions, Markov Processes, and Martingales. Volume
2 : Itô Calculus, Wiley, Chichester, 1987.
[13] Tudor, C., Calcul Stochastique 1, Cours polycopié du Master M2 MMEF de l’Université
Paris 1, année 2005-2006, http ://pagesperso.aol.fr/cipriantudor/