[go: up one dir, main page]

Academia.eduAcademia.edu
1 Gestion des risques et risque de crédit Vivien BRUNEL This version: January 28, 2009 2 Chapter 1 Les risques dans la banque 1.1 Activités d’une banque On distingue essentiellement deux types de banques : les banques commerciales et les banques d’investissement. Les banques commerciales travaillent avec leurs clients, particuliers, professionnels, PME et grandes entreprises dont elles collectent les dépôts et à qui elles accordent des prêts. Les banques commerciales sont séparées en général en deux catégories, selon le type de clientèle : la banque de détail est en charge des particuliers et PME, la banque d’affaires est en charge des grandes entreprises. D’autre part, les banques d’investissement travaillent sur les marchés financiers qu’elles intermédient et sont en charge des émissions en primaire de titres sur les marchés pour le compte de leur clients, les fusions-acquisitions, le trading de produits dérivés... Il existe une spécificité aux États-Unis depuis la crise de 1929. Adopté à l’apogée de la crise en 1933, le Glass-Steagall Act visait à interdire la répétition de ce qui, à l’époque, était perçu dans l’opinion comme l’une des causes de la bulle boursière : la spéculation sur les actions par les banques de détail. Cette loi a donc séparé les banques commerciales des banques d’investissement, mais est peu à peu tombée en désuétude pour disparaı̂tre en 1999 suite à la création de Citigroup. Citigroup est un exemple de banque dite universelle, comme il en existe beaucoup en Europe. Les banques universelles rassemblent au sein d’un même groupe des activités de banque commerciale, de banque de réseau, mais aussi de gestion d’actifs, de services financiers aux investisseurs, de services financiers spécialisés (crédits à la consommation, assurance...). Pour bien comprendre la nature des risques de la banque, et la façon dont elle va les gérer, il faut connaı̂tre ses interlocuteurs. Ceux-ci sont de trois types : • Créanciers : l’activité de base de la banque est de prêter de l’argent à ses clients afin qu’ils puissent financer leur activité ou leurs projets. Les créanciers de la banque sont donc des particuliers, des entreprises, ou des états. • Marchés financiers : l’accès privilégié de la banque aux marchés est d’autant plus important que 3 4 CHAPTER 1. LES RISQUES DANS LA BANQUE cela permet à la banque de gérer une partie des risques engendrés par son activité de financement. • Régulateur, autorité de tutelle : l’activité bancaire est très réglementée, d’une part en France par l’AMF (Autorité des Marchés Financiers), d’autre part par la commission bancaire qui impose aux banques de mettre des fonds propres en couverture du risque qu’elle prennent. Il existe donc un paradoxe au niveau des banques : si une réglementation intervient sur le niveau de risque des banques, les déposants sont plus confiants et la banque y trouve son intérêt. 1.2 Définition des risques, typologie des risques Le risque est lié à la notion d’incertitude (variabilité des gains ou pertes) mais également au fait qu’il a des conséquences négatives : on parle rarement du risque de gagner ! Ces deux aspects de la notion de risque sont contenus dans les mesures de risque habituellement utilisées. La variabilité des gains est mesurée par la volatilité, alors que les conséquences négatives d’un risque sont mesurées par la VaR (Value at Risk). De façon générale, un risque est un événement qui peut affecter la chronique des flux à recevoir par un établissement financier (son compte de résultat, sa valeur actuelle nette, ses états financiers). On distingue toutefois les risques portant sur un débiteur spécifique des risques du système tout entier, portant sur l’ensemble des banques. On parle respectivement de risque spécifique et de risque systémique, ce dernier étant une perturbation qui affecte gravement le fonctionnement du système, c’est-à-dire ses acteurs (banques, institutions financières), ses mécanismes de fonctionnement (systèmes de compensation, de règlement,...) et ses mécanismes réglementaires. Ce risque systémique est susceptible d’engendrer des faillites en chaı̂ne au sein du système bancaire. Les risques portant sur les banques sont de deux types : il y a les risques financiers et les risques non financiers. Les risques financiers sont les risques liés aux variations de prix des actifs financiers (actions, obligations, taux de change). On distingue : • Risque de liquidité : Il s’agit du risque le plus important pour un établissement bancaire qui se matérialise en général par une course au guichet des épargnants pour retirer leur épargne suite à une rumeur de non solvabilité par exemple. • Risque de crédit : c’est le risque ”historique” de la banque dont les métiers de base sont le prêt et le financement. Une banque qui prête à un état risqué ou à une entreprise risquée prend le risque de ne pas récupérer l’intégralité du principal de son prêt. Ce risque est lié à la qualité de signature de l’emprunteur. Le risque de crédit se subdivise en 4 catégories : le risque de défaut du client, le risque de dégradation de la qualité de sa signature (risque de transition de rating), le risque de marché sur la qualité de sa signature (ou risque de spread) et le risque de contrepartie sur les contrats dérivés avec une contrepartie risquée. • Risque de taux d’intérêt : la hausse de la volatilité des taux d’intérêts survenue à partir des années 70 a permis l’essor de la gestion actif-passif. Les dépôts collectés (qui sont des engagements à court 1.3. MESURE ET CONTRÔLE DU RISQUE 5 terme de la banque vis-à-vis des déposants) sont placés à moyen et long termes, faisant courir à la banque un risque de taux d’intérêt important compte tenu des sommes mises en jeu. • Risque de change : un établissement international a des activités dans différents pays et publie un bilan dans une seule devise. Son résultat est donc sujet aux fluctuations des taux de change. • Risque de marché : outre que les banques sont des investisseurs pour compte propre, leurs activités d’intermédiation sur les marchés financiers engendrent des risques liés aux fluctuations des marchés (taux d’intérêts, taux de change, crédit, actions matières premières). • Options cachées : ce risque est surtout important en banque commerciale. Un des exemples les plus courants est celui lié à l’option de remboursement anticipé détenue par de nombreux particuliers qui s’endettent auprès des banques pour acquérir leur résidence principale. En effet, lorsqu’un client rembourse de façon anticipée son crédit, la banque doit renoncer à toucher les flux d’intérêts qui étaient prévus dans le futur, ce qui constitue un manque à gagner. Par ailleurs, des produits d’épargne très courants tels que le PEL par exemple contiennent de nombreuses options de taux d’intérêt, qui ne seront en général pas exercées de façon optimale, ce qui rend leur couverture d’autant plus difficile à calibrer. Les risques non financiers comprennent entre autres : • Risque de marges (ou de volume) : de nombreuses activités bancaires ont des revenus proportionnels au volume d’activité. C’est par exemple le cas des asset managers (rémunération proportionnelle aux encours gérés). Dans ce cas, si les levées d’encours sont faibles, les rémunérations futures seront faibles. • Risques réglementaires et légaux. • Risque opérationnel : fraude, bug informatique, incendie des locaux... Les grands sinistres bancaires sont souvent dus au risque opérationnel (Barings, SG). Selon le document consultatif du comité de Bâle, les risques opérationnels se définissent comme les risques de pertes directes ou indirectes résultant de l’inadaptation ou de la défaillance de procédures, de personnes ou de syst‘emes ou résultant d’événements extérieurs (”the risk of direct or indirect loss resulting from inadequate or failed internal processes, people and systems or from external events”). Cette définition a été critiquée, car il est relativement difficile de calculer certaines pertes indirectes. 1.3 Mesure et contrôle du risque La mesure et le contrôle des risques sont réalisés à plusieurs niveaux dans la banque et sont en général organisés par le département des risques et la direction financière (pour ce qui concerne le risque de taux et de change). Pour le risque de crédit, les décisions d’octroi de crédit sont prises selon une intervention des différents niveaux hiérarchiques au sein de la direction des risques, et selon l’importance du dossier. 6 CHAPTER 1. LES RISQUES DANS LA BANQUE Pour les risques de marché, des équipes sont détachées sur place dans les salles de marché, dans les sociétés de gestion, au contact des équipes commerciales, de structuration et de trading. Au niveau global de la banque, la gestion des risques est pilotée via une allocation optimale des fonds propres. Cette allocation prend en compte le couple rentabilité / risque de chaque transaction originée par la banque. Une réglementation bancaire, négociée à un niveau supranational et adaptée dans chaque pays par les autorités de tutelle, impose un niveau minimal de fonds propres (fonds propres réglementaires) pour les banques. Chapter 2 La gestion du risque de crédit 2.1 Modélisation d’un prêt bancaire La banque, en tant qu’intermédiaire financier, est au cœur du système de financement de l’économie ; tout le monde fait appel à sa banque pour accéder au marché de la dette : particuliers, professionnels, entreprises, collectivités, états, tous demandent à leur banque de financer leur effet de levier afin d’obtenir aujourd’hui des fonds pour acquérir un bien ou un actif qu’il n’ont pas les moyens de financer par leurs seuls fonds propres. Ce qui rend un portefeuille bancaire particulièrement risqué est que le portage des prêts sur le bilan de la banque est associé à une grande incertitude sur les remboursements futurs. Cette incertitude vient avant tout du risque intrinsèque de chaque client et de chaque prêt qui ont une maturité généralement très longue. Les banques ont développé des méthodes d’analyse du risque de leurs clients (détermination de la probabilité de défaut), des prêts individuels (determination du recouvrement et de l’exposition au moment du défaut) et de leur portefeuille de crédit (modélisation des dépendances des défauts). La modélisation du rendement d’un prêt est beaucoup plus complexe que celui d’autres types de classes d’actifs à cause de l’asymétrie de sa loi de distribution. La valeur d’un prêt est limitée à la hausse contrairement à celle des actions. En effet, si la situation d’une société s’améliore, la banque n’en profite pas car la société peut se refinancer à un taux plus attractif. A l’inverse, si la situation de l’entreprise se dégrade, la banque en subit pleinement les conséquences car la marge que lui rémunère le prêt octroyé ne change pas. Cette asymétrie est caractéristique du risque de crédit et on la retrouve au niveau de la loi des pertes du portefeuille de la banque. Dans le scénario extrême où la société n’est plus en mesure de rembourser sa dette, la banque ne récupérera qu’une fraction du montant prêté. Il est donc essentiel pour la banque de connaı̂tre, sur chaque prêt, le montant d’Exposition Au Défaut (Exposure at Default en anglais ou EAD), qu’on peut définir comme la perte maximale que peut faire la banque sur ce prêt en cas de défaut immédiat. Suite au défaut la perte supportée finalement est inférieure à l’EAD car la banque obtient un recouvrement R non nul sur le prêt. La modélisation de la perte sur un prêt passe donc par l’estimation de la perte en cas de défaut (Loss Given Default LGD = 1 − R). Ces informations sur l’amplitude des pertes en cas de défaut concernant le prêt doivent être complétées par une information sur la fréquence des défauts d’ici 7 8 CHAPTER 2. LA GESTION DU RISQUE DE CRÉDIT la maturité du prêt. Cette information est contenue dans la probabilité de défaut (Probability of Default ou P D) ou, da façon plus précise, de la structure par terme des probabilités de défaut de l’emprunteur. Le produit entre la perte en cas de défaut et l’exposition au défaut s’appelle la sévérité de la perte, qui est également une variable aléatoire. Vue d’aujourd’hui, la perte L à venir est donc une variable aléatoire égale au produit de la sévérité de la perte et de la variable indicatrice du défaut : L = EAD.LGD.ID = SEV.ID où ID est la variable indicatrice du défaut et SEV la variable aléatoire de sévérité de la perte. Les trois paramètres de risque caractéristiques d’un prêt (EAD, LGD et P D) servent à estimer le risque attendu (perte moyenne ou Expected Loss (EL)) et le risque non attendu (Unexpected Loss (U L)) qui correspond à l’écart-type (ou la variance) de la perte. Nous calculons la perte moyenne sur le prêt : EL = E(L) = P D.LGD.EAD, et la variance de la perte est : var(L) = var(SEV ).P D + E(SEV )2 .P D.(1 − P D) Il existe plusieurs types de prêts que l’on classe suivant leurs caractéristiques contractuelles. On distingue principalement les prêts à terme (term loans) des prêts revolving. Les prêts à terme sont des prêts où le montant prêté est octroyé à la date initale, et les échéances de remboursement sont définies contractuellement. On parle de prêts amortissables. Un prêt in fine ou bullet a une seule échéance, à maturité du prêt. Il existe d’autres profils d’amortissement classiques tels que le profil linéaire ou le profil d’amortissement à annuités constantes, Principal + Intérêts constant (P+I constant). Prenons l’exemple d’un prêt P+I constant et appelons x la mensualité payée par l’emprunteur, T la maturité du crédit, rM le taux d’intérêt payé par l’emprunteur sur son capital restant dû, Kt le capital restant dû à la date t. Supposons que l’emprunteur paie ses intérêts à fréquence régulière θ (tous les mois par exemple). A la date de paiement de la mensualité t + θ, l’emprunteur paie un montant d’intérêts égal à rM Kt θ et rembourse un montant de principal égal à x − rM Kt θ. Donc la variation du capital restant dû entre les dates t et t + θ est : Kt+θ − Kt = rM Kt θ − x Sachant que le capital restant dû initial est égal au montant emprunté initialement M (K0 = M ), le capital restant dû est solution d’une suite arithmético-géométrique dont la solution est obtenue par récurrence : Kt = x 1 − (1 + rM θ)t/θ + (1 + rM θ)t/θ M rM θ La mensualité x est fixée par la condition KT = 0, ce qui donne : x=M (1 + rM θ)t/θ rM θ (1 + rM θ)t/θ − 1 9 2.1. MODÉLISATION D’UN PRÊT BANCAIRE 1200 1000 800 Intérêts 600 Principal 400 200 0 0 20 40 60 80 100 120 Figure 2.1: Evolution des flux d’intérêt et de principal sur un prêt amortissable P+I constant. Le graphique ci-dessous donne lévolution des flux d’intérêts et de principal à chaque mensualité. Le prêt a un montant nominal de 100 000 EUR, un taux d’intérêt rM = 5%, une maturité T = 10 ans. Les mensualités fixes s’élèvent à 1060 EUR. Certains prêts classés dans la catégorie des term loans ne sont pas tirés à la date initiale mais font l’objet de tirages échéancés pendant la durée de vie du prêt. Ces prêts sont spécifiques de certains types de financement de projet ou de financements exports car les besoins de financement sont étalés dans le temps. Nous reviendrons sur ces types de prêts dans le chapitre 4. Les prêts revolving offrent une possibilité supplémentaire à l’emprunteur qui peut à loisir tirer sur sa ligne de crédit dans la limite d’une enveloppe définie contractuellement. On distingue donc la partie tirée (outstanding) du crédit de la partie non tirée. L’enveloppe de crédit disponible est appelée engagement (commitment en anglais) de la banque. Le montant tiré est le montant que la banque est susceptible de perdre si l’emprunteur fait faillite immédiatement. Prenons l’exemple d’un emprunteur qui tire un montant de 10 MEUR sur une capacité de crédit totale de 100 MEUR. Pour autant, le risque de la banque ne se limite pas au montant tiré de 10 MEUR, car le client peut tirer les 90 MEUR supplémentaires autorisés et faire défaut ensuite. La partie non tirée d’un prêt (ou le montant d’engagement total) est donc un élément de risque important à prendre en compte dans le calcul de l’EAD. Si on peut raisonnablement modéliser la partie tirée comme un prêt à terme, le tirage de la partie non tiré de la part de l’emprunteur est optionnel et nécessite donc une modélisation spécifique. Il faut noter qu’il existe une corrélation entre le niveau de tirage d’un prêt de type revolving et la situation financière de l’emprunteur, car un emprunteur en détresse va utiliser son enveloppe de crédit pour tenter d’améliorer sa situation. La modélisation du risque de crédit sur les prêts bancaires passe également par l’analyse des options attachées au prêt, appelées covenants. Ces options sont soit au bénéfice de la banque soit à celui de l’emprunteur. Parmis les exemples de covenants classiques, on peut mentionner la possibilité de modification du niveau de tirage maximum sur un prêt revolving, une amélioration de la seniorité de l’emprunt, une augmentation du niveau de collatéral, un repricing du prêt. La prise en compte du caractère option- 10 CHAPTER 2. LA GESTION DU RISQUE DE CRÉDIT nel de ces covenants et de l’option de tirage sur le prêt conduit à estimer l’EAD. La modification des covenants peut entrainer dans certaines structurations le déclenchement d’un événement de défaut, dont nous reparlerons au chapitre 2 qui concerne les swaps de défaut (CDS). Le niveau de LGD est quant-à lui conditionné au niveau de priorité de remboursement du prêt en cas de liquidation de l’emprunteur et du montant de collatéral dont bénéficie le prêt. Ainsi, un prêt est soit senior soit subordonné selon le niveau où il se situe dans la structure de capital, et il sera soit secured soit unsecured selon qu’il est ou n’est pas collatéralisé (c’est-à-dire qu’il existe un actif nanti au bénéfice du prêteur pour le cas où un défaut surviendrait). Après le défaut, et au moment de la liquidation et du remboursement des créanciers, le prêt unsecured est remboursé en fonction de son niveau de seniorité, c’est-à-dire une fois que les prêts qui lui sont plus senior ont été complètement remboursés. Le remboursement s’effectue à partir des fonds dégagés lors de la liquidation de l’actif de la société. Pour chaque niveau de seniorité il existe des statistiques de LGD unsecured fournies par les agences de rating. Le tableau ci-dessous donne les statistiques de Moody’s sur différents instruments de dette pour différents niveaux de séniorité et de protection : Instrument Prêts bancaires Senior secured Senior unsecured Obligations Senior secured Senior unsecured Senior subordinated Junior subordinated Action préférentielles Recouvrement 76% 80% 39.7% 76% 76% 29.2% 12.0% 1.1% Les prêts secured bénéficient d’un rehaussement de leur qualité de crédit grâce à la présence d’un collatéral. Certains prêts ont un collatéral cash, dont l’avantage est d’être très liquide et connu à l’avance, mais plus généralement, le collatéral est un actif qui a une valeur de cession (aléatoire) à la date de défaut, par exemple la valeur d’une avion dans le cas d’un financement aéronautique. Au moment du défaut, la cession du collatéral pour une valeur C permet de rembourser tout ou partie du prêt. Si le prêt n’est pas totalement remboursé le montant résiduel du prêt bénéficie du recouvrement unsecured (nous noterons la LGD unsecured LGDu ). On en déduit donc la formule générale de la sévérité pour un prêt secured : SEV = LGDu (EAD − C)+ Si le prêt est également garanti, la sévérité de la perte réelle sera inférieure à la sévérité unsecured car le recouvrement obtenu sera supérieur. Le garanties sont apportées par des établissements tiers, différents du prêteur et de l’emprunteur. Lorsque l’emprunteur fait défaut, le collatéral est vendu puis le garant dédommage le prêteur, au maximum à hauteur du montant maximum d’appel en garantie. Dans l’exemple d’un prêt en défaut de 100 MEUR, si on a un collatéral qui vaut 40 MEUR et que le garant peut être appelé à hauteur de 30 MEUR, l’exposition résiduelle unsecured de la banque sur l’emprunteur 11 2.1. MODÉLISATION D’UN PRÊT BANCAIRE s’élève à 100-40-30 = 30 MEUR. La formule générale en tenant compte de l’appel en garantie G s’écrit : SEV = LGDu (EAD − C − G)+ La différence entre une garantie et un collatéral est que la garantie ne peut être appelée que si le garant est encore en vie lorsque le défaut de l’emprunteur survient. La formule de la perte moyenne d’un prêt in fine (bullet) sur une période de temps est donc : £ ¤ EL = E LGDu (EAD − C − G.1{Garant en vie} )+ 1{Emprunteur en défaut} = LGDu (EAD − C)+ .P D(E, G) + LGDu (EAD − C − G)+ .(P D − P D(E, G)) où P D(E, G) est la probabilité de défaut jointe de l’emprunteur et du garant et P D est la probabilité de défaut de l’emprunteur. La perte moyenne dans ce cas ne dépend plus seulement de la probabilité de défaut de l’emprunteur, mais également de la probabilité de défaut jointe de l’emprunteur et du garant. Il faut également garder à l’esprit que le collatéral peut avoir une valeur corrélée à la situation macroéconomique, et donc au défaut. Il faut donc prendre en compte dans le modèle la possibilité de défaut jointe entre emprunteur et garant, et nous voyons que si nous voulons calculer une perte moyenne sur un prêt amortissable un peu complexe faisant intervenir un ou plusieurs garants, hors cas simples, les calculs analytiques deviennent tout de suite impraticables et nécessitent l’utilisation de méthodes numériques de type Monte-Carlo. De plus, le calcul de la perte moyenne sur un prêt complexe fait intervenir les probabilités de défaut à différents horizons. On peut calculer la structure par terme des probabilités de défaut à partir des matrices de transition données par les agences de rating. Si on considère un prêt amortissable simple, l’EAD est une fonction déterministe du temps que nous notons EADt . En appelant τ la date aléatoire de défaut et en supposant une LGD fixe et connue, la variable aléatoire de perte est : L= X i LGD.EADti .1{ti <τ ≤t+1} 100 80 60 40 20 0 0 ti t i +1 Figure 2.2: Exemple de profil d’amortissement pour le calcul de l’EAD. 12 CHAPTER 2. LA GESTION DU RISQUE DE CRÉDIT On en déduit la perte moyenne et la variance de la perte : P EL = t LGD.EADt .P [t < τ ≤ t + 1] var(L) = LGD2 2.2 P t EADt2 .P [t < τ ≤ t + 1] − EL2 Loi des pertes sur un portefeuille La modélisation des pertes sur un portefeuille de crédit repose sur la connaissance des paramètres de risque sur chaque ligne du portefeuille et sur les dépendances des pertes. Dans certains cas, toutefois, il est possible de donner des propriétés sur la loi des pertes de crédit d’un portefeuille. Une première propriété de cette loi des pertes de crédit vient du fait que la loi des pertes d’un portefeuille est à support compact (en l’occurrence l’intervalle [0,1]). Cela contraint de manière considérable la loi des pertes. Par exemple, si on suppose que la loi des pertes a une espérance µ, il est clair que l’écart type de ces pertes est majoré (il est au moins majoré par 1). En effet : Z 1 Z 1 £ 2¤ 2 E L = dx x f (x) ≤ dx x f (x) = µ 0 0 Par conséquent, la variance des pertes d’une portefeuille de crédit est majorée par µ(1 − µ), qui est la variance correspondant à un portefeuille de crédit des pertes qui suivent une loi de Bernoulli. De même, tous les moments de la loi des pertes sont contraints, et on comprend qu’il y a deux types de lois qui vont jouer un rôle important : d’une part la loi de Dirac centrée sur µ, et d’autre part la loi de Bernoulli avec une masse de Dirac de poids 1 − µ en 0 (pas de perte sur le portefeuille) et une masse de Dirac de poids µ en 1 (perte de 100% sur le portefeuille). Entre ces deux cas extrêmes, la modélisation du portefeuille de crédit permet de calibrer des mesures quantitatives du risque de crédit. Il existe un cas dans lequel la loi statistique des pertes sur le portefeuille se calcule exactement. Considérons un portefeuille de crédit de n lignes équipondérées. Sur un horizon de temps d’une période (un an par exemple), nous modélisons le défaut de la ligne i à l’aide d’une variable cachée Ri normale centrée réduite ; l’événement de défaut est modélisé par une variable de Bernoulli : Li = 1{Ri <si } La valeur de si est le seuil de déclanchement du défaut. La probabilité de défaut associée à la ligne i est donc par définition N (si ). Dans un cas réaliste, les défauts sont corrélés, et une manière de modéliser cela consiste à introduire la dépendance sur les variables d’état Ri . Nous considérons un portefeuille homogène, dans lequel toutes les lignes on la même probabilité de défaut (si = s pour tout i), et toutes les corrélations de défaut deux à deux sont égales à corr(Ri , Rj ) = ρ. Si nous introduisons une variable normale centrée réduite F et n autres variables normales centrées réduites ǫi toutes indépendantes, nous pouvons poser : Ri = √ ρF + p 1 − ρ ǫi Alors, toutes les variables d’état Ri sont des variables normales centrées réduites et ont des corrélations deux à deux toutes égales à ρ. 13 2.2. LOI DES PERTES SUR UN PORTEFEUILLE L’interprétation économique du facteur F est qu’il s’agit d’un facteur de risque systémique, commun à toutes les lignes du portefeuille. Les facteurs ǫi sont les facteurs spécifiques à chaque ligne. Le paramètre de corrélation apparait comme un fecteur de sensibilité à la conjoncture économique. La perte totale en pourcentage sur le portefeuille s’écrit (taux de recouvrement choisi nul) : n Ln = n X 1X √ 1{Ri <si } = 1{ǫ < s− ρF √ } i n i=1 1−ρ i=1 En conditionnant sur le facteur systémique F , la perte sur le portefeuille s’écrit comme une somme de variables aléatoires iid. On peut donc appliquer la loi des grands nombres : µ · √ ¶ √ ¯ ¸ s − ρF s − ρF ¯¯ √ F = N lim Ln = L = P ǫi < √ n→∞ 1−ρ ¯ 1−ρ On connaı̂t donc la loi statistique des pertes dans ce cas particulier : ¸ ·√ 1 − ρN −1 (x) P (L ≤ x) = N √ ρ La densité des pertes s’écrit : r ¸ · ´2 1 ¡ ¢2 1 ³p 1−ρ −1 −1 exp − N (x) 1 − ρN (x) − s + f (x, s, ρ) = ρ 2ρ 2 On en déduit l’espérance et la variance des pertes : E(L) = R∞ dF n(F ) N −∞ ³ √ s− ρF √ 1−ρ var(L) = N2 (s, s, ρ) − N (s)2 ´ = N (s) Démontrons le premier résultat. Ce type d’intégrale se calcule en écrivant la fonction de répartition de la loi normale comme une intégrale de la densité de la loi normale : R∞ dF n(F ) N −∞ ³ √ s− ρF √ 1−ρ ´ = = R∞ dF n(F ) −∞ R∞ dF n(F ) −∞ R √ s− ρF √ 1−ρ −∞ Rs n −∞ n(y) dy ³ √ z− ρF √ 1−ρ On a obtenu la dernière égalité en faisant le changement de variable y = ´ √ z− ρF √ 1−ρ √dz 1−ρ ; on intervertit alors les deux intégrales et on calcule l’intégrale gaussienne sur la variable F : ³ √ ´ R∞ Rs F − ρz df n(z) n √1−ρ E(L) = −∞ √dz 1−ρ −∞ = Rs −∞ dz n(z) = N (s) Le calcul de E(L2 ) s’effectue de même, en utilisant toujours le même changement de variable. Le graphe cidessous représente la volatilité des pertes sur le portefeuille de crédit en fonction du niveau de corrélation. Pour tout ρ < 50%, la loi des pertes du portefeuille est unimodale et le mode vaut : ¶ µ√ 1−ρ s Lm = N 1 − 2ρ 14 CHAPTER 2. LA GESTION DU RISQUE DE CRÉDIT 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100% Figure 2.3: Impact de la volatilité des pertes de crédit en fonction du niveau de corrélation Lien entre corrélation d’actifs et volatilité des pertes Dans le modèle à une période que nous venons de décrire, lorsque la corrélation d’actifs est nulle, tous les défauts sont indépendants, et la loi des pertes est un pic de Dirac centré sur la perte moyenne du portefeuille car le portefeuille contient une infinité de lignes. Dans l’autre cas extrême, ρ = 1, et tous les actifs ont le même comportement : soit aucun ne fait défaut, soit ils font tous défaut. La loi des pertes du portefeuille dans ce cas est composée de deux masses de Dirac centrées sur 0 et 1. Entre ces deux situations il y a toutes les valeurs de la corrélation entre 0 et 1, qui engendrent une loi tout d’abord fortement piquée sur 0 puis qui s’élargit au fur et à mesure que la corrélation augmente. Lorsque la corrélation dépasse le niveau de 50%, la densité des pertes passe d’une fonction unimodale à une distribution bimodale, les deux modes étant localiss en 0 et 1. On en déduit la fonction de densité de probabilité de la perte sur le portefeuille (cf exercice). Celle ci comporte plusieurs modes qui correspondent à une corrélation faible entre les actifs (et correspondra dans la majeure partie des cas à la réalité), une corrélation élevée et enfin une corrélation intermédiaire : Densité de proba 3 Densité des pertes sur un portefeuille granulaire rho=20% rho=50% 2.5 14 rho=75% 2 12 1.5 10 rho =15% 8 rho =20% 1 rho =25% 6 0.5 rho =30% 4 0 2 0% 20% 40% 60% 80% 100% 0 Perte 0% 10% 15% 20% Probabilité d'enforcement en fonction de la corrélation pour différentes valeurs du seuil 1,2 16% 1 14% Perte > 1% 0,4 0,2 9,68% 11 ,44% 8 ,80% 10 ,56% 7 ,92% 7 ,04% 6 ,16% 5,28% 4 ,40% 3 ,52% 2 ,64% 1 ,76% 0,88% 0 Niveau de Perte Perte > 2% Perte > 2.5% Densité (LGD=1 00%) Répartition (LGD=1 00%) Perte Moyenne Probabilité d'enforcement 0,6 Proabilité Cumulée Perte > 1.5% 0,8 0% De nsité Densité / Répartition des pertes Loi de Vasicek (LGD=100%) 18 16 14 12 10 8 6 4 2 0 5% 12% Perte > 3% Perte > 3.5% 10% Perte > 4% Perte > 4.5% 8% Perte > 5% 6% 4% 2% 0% 0 10 20 30 40 50 60 70 80 90 100 Corrélation (%) Diversification en rating Il est instructif de regarder à la lumière du modèle de Vasicek le cas d’un portefeuille granulaire que 2.2. LOI DES PERTES SUR UN PORTEFEUILLE 15 ne serait pas homogène en rating. En particulier, on peut modéliser l’inhomogénéité du portefeuille en considérant que le seuil de défaut si pour chaque ligne du portefeuille est lui-même une variable aléatoire centrée sur s0 et de variance σ 2 . Nous posons alors si = s0 + σǫ̃i , où les variables ǫ̃i sont des variables normales centrées réduites indépendantes entre elles, indépendantes du facteur systémique F et des variables spécifiques ǫi . La condition du défaut pour chaque ligne du portefeuille s’écrit alors : √ ρF + p 1 − ρ ǫi < s0 + σǫ̃i Il vient alors pour la variable de perte sur l’ensemble du portefeuille : ! à √ s0 − ρF L=N p 1 − ρ + σ2 Calcul du s′ et ρ′ Figure 2.4: Impact de la volatilité du seuil de défaut sur la distribution des pertes du portefeuille Pour un taux de défaut moyen de 10% sur le portefeuille, on constate que la variance des pertes diminue avec le paramètre d’inhomogénéité σ du portefeuille. En effet, l’ajout d’un aléa supplémentaire dans le problème vient diversifier un peu plus le portefeuille. Pour le dire autrement, un portefeuille hétérogène en rating contient moins d’incertitude quant-au nombre de éfauts sur un horizon donné qu’un portefeuille homogène en rating. En effet, un portefeuille hétérogène, en grossissant le trait, est composé de ligne de bons ratings qui ont peu de chance de faire défaut et de lignes mal notées qui ont une bonne chance de faire défaut. Cet effet serait atténué si les seuils, tout en restant aléatoires, étaient corrélés au facteur systémique F . Corrélations d’actifs, corrélations de défauts En matière de risque de crédit, on distingue les corrélations d’actifs, les corrélations de défaut et les corrélations de pertes et les corrélations de temps de défaut. Chaque type de grandeur fait référence un type de modélisation du risque de défaut. Les corrélations d’actifs font référence aux modèles structurels, alors que les corrélations de temps de défaut font référence au paramètre de corrélation de la copules 16 CHAPTER 2. LA GESTION DU RISQUE DE CRÉDIT gaussienne dans les modèles intensité. Il est toutefois possible dans une modélisation donnée du risque de défaut de faire le lien entre les différents types de corrélations. Par exemple, dans le modèle structurel, on écrit la corrélation des défauts de la façon suivante : £ ¤ £ ¤ £ ¤ E 1{R1 ≤s1 } .1{R2 ≤s2 } − E 1{R1 ≤s1 } .E 1{R2 ≤s2 } p p ρD = P D1 (1 − P D1 ) P D2 (1 − P D2 ) On en déduit le lien entre la corrélation d’actifs et la corrélation des défauts dans le modèle de Merton : N2 (s1 , s2 , ρ) − N (s1 ).N (s2 ) p ρD = p N (s1 )(1 − N (s1 )) N (s2 )(1 − N (s2 )) La fonction N2 (s1 , s2 , ρ) est une fonction croissnte de la corrélation, donc la corrélation de défaut est également croissante en fonction de la corrélation d’actifs. Or limρ→1 N2 (s1 , s2 , ρ) = min(N (s1 ), N (s2 )). La corrélation de défaut est maximale lorsque les probabilités de défaut sont égales, et dans ce cas, on peut avoir une corrélation de défaut égale 1. Si les probabilités marginales de défaut sont différentes, toutes les valeurs des corrélations de défaut ne sont pas atteignables. Chapter 3 La modélisation du défaut 3.1 3.1.1 Le rating Présentation Le rating reflète la qualité de crédit (credit worthiness en anglais) d’un émetteur d’instrument de dette. Les agences de notation utlisent l’information tant quantitative que qualitative sur les émmetteurs. La procédure de notation est en général plus fondée sur des critères qualitatifs, le jugement et l’expérience de l’analyste en charge du dossier, plus que sur une modélisation mathématique du risque de défaut. L’approche quantitative est plutôt réservée à la notation des produits structurés de crédit. Les critères qualitatifs et quantitatifs de notation des agences sont disponibles sur leur site internet. Le marché de la dette est très important aux Etats-Unis et au Canada, ce qui explique la très large couverture des agences de notation sur les entreprises et les collectivités nord-américaines. En Europe les agences de notation notent beaucoup moins d’émetteurs car le marché obligataire est beaucoup plus restreint et se limite aux grandes entreprises. C’est la raison pour laquelle les banques ont investi, plus qu’ailleurs, dans l’élaboration de modèles internes. Les principaux critères quantitatifs pour noter un émetteur sont (liste non exhaustive) : • Cash-flows et revenus futurs • Passif à court, moyen et long terme • La structure de capital et notamment le levier financier • La situation de la société et du pays de résidence • Activité de l’entreprise et son positionnement dans le marché • Qualité du management En général les banques évaluent la qualité de crédit de leurs clients grâce à des modèles statistiques et des analystes affinent ensuite, à fréquence régulière, la notation sur la base de la relation que la banque 17 18 CHAPTER 3. LA MODÉLISATION DU DÉFAUT a avec son client. Les quatre organismes de notation externes les plus connus sont Standard and Poors, KMV Moody’s, FitchRatings et DBRS (agence canadienne qui couvre le marché nord-américain) qui ont défini chacun une méthodologie et une échelle de notation propres, mais équivalentes entre elles. Les agences de rating utilisent une échelle de notation à 7 graduations (qu’on appelle les grades pleins) eux mêmes subdivisés Moody's Fitch AAA Aaa AAA AA Aa AA A A A BBB Baa BBB BB Ba BB B B B CCC Caa CCC Default D D D Investment Grade S&P Speculative Grade en sous grades. Les échelles de rating (en grades pleins) sont les suivantes : Figure 3.1: Echelles de ratings pour les trois agences de notation S&P, Moody’s et Fitch. La catégorie dite Investment Grade regroupe les entreprises à forte capacité de remboursement et dont la sensibilité aux aléas économiques est réduite. Au contraire, les entreprises, situées dans la catégorie Speculative Grade offrent des garanties bien moindres et sont beaucoup plus sensibles aux chocs économiques. Le risque de crédit lié à cette catégorie étant plus élevé, celui-ci est nettement plus rémunéré au travers d’un spread plus élevé. Chaque rating correspond à une qualité de crédit. On peut qualifier la qualité de crédit pour chaque rating : AAA AA A BBB BB B CCC D Meilleure qualité de crédit, excellente solidité Très bonne qualité de crédit, très solide Bonne qualité de crédit, plus sensible aux conditions économiques La plus basse qualité de crédit en Investment Grade Prudence requise, la meilleure qualité de crédit en Speculative Grade Vulnérable, peut encore honorer ses engagements Hautement vulnérable Un défaut de paiement est déjà survenu Chaque rating, excepté le AAA, est sub-divisé en trois sous-grades, ce qui monte à 19 au total le nombre de niveaux de rating en sous-grades (hormis le défaut). Ces sous-grades sont subdivisés ainsi (exemple illustrant les sous grades du niveau AA) : 19 AA+ Aa1 Moody's Standard's and Poors 3.1. LE RATING AA AA- Aa2 Aa3 Figure 3.2: Deux échelles de notations équivalentes chez S&P et Moody’s Concernant l’analyse de risque d’un unique emprunteur, la calibration de la probabilité de défaut à partir du rating est une étape importante qui va conditionner le paramétrage des modèles de crédit et donc les résultats futurs de perte moyenne et de variance des pertes. On peut par exemple utiliser les statistiques de défauts fournies par les agences de notation qu’elles utilisent d’ailleurs comme inputs de leur modèle de notation des produits structurés. Par exemple, l’outil de notation de CDO de S&P s’appelle CDO Evaluator qui utilise en input les probabilités de défaut par maturité et par rating. Nous reproduisons dans le graphique ci-dessous la probabilité de défaut (en échelle logarithmique) en fonction CC C CC + C CC C- B- BB B BB + B BB B BB + BB BB B+ B A- AA A+ A AA A AA + AA du rating. 100.0000% 10.0000% 1.0000% 0.1000% y = 6E-06e0.6351x R2 = 0.968 0.0100% 0.0010% 0.0001% Figure 3.3: Lien entre la probabilité de défaut 1 an de S&P et le rating nous constatons que le logarithme de la probabilité de défaut est une fonction linéaire du rating avec un coefficient 0.63. Cela signifie que si l’émetteur est dégradé d’un notch sa probabilité de défaut est multipliée par un facteur exp(0.63) ∼ 1.9. Ce coefficient multiplicateur dépend de l’agence considérée et de la maturité retenue. Par exemple, pour une maturité de 5 ans, les probabilités de défaut de S&P sont multipliée par un facteur 1.5 entre un rating et le suivant. L’ordre de grandeur à retenir, c’est que la probabilité de défaut est multipliée par un facteur compris entre 1.5 et 2 lorsqu’un émetteur de dette est dégradé d’un notch (un sous-grade). 20 CHAPTER 3. LA MODÉLISATION DU DÉFAUT 3.1.2 Matrices de transition Les ratings reflètent à une date donnée la qualité de crédit d’un emprunteur. Celle-ci peut varier dans le temps, aussi les agences de rating calculent-elles également des matrices de transition dont la lecture renseigne sur l’évolution à horizon d’une ou plusieurs années de la qualité de crédit d’un emprunteur, c’est à dire sa probabilité de migration vers un autre rating, ainsi que la probabilité de défaut. En lisant la matrice de transition suivante, on remarquera par exemple que les firmes notées AAA restent dans leur grande majorité (plus de 93% d’entre elles) notées AAA après un an. Leur taux de défaut est nul, comme indiqué par la dernière colonne. Notons que bien que le taux de défaut d’une contrepartie AAA à un an est nul, il est non nul sur un horizon de deux ans. En effet, en supposant que la matrice de transition ne varie pas d’une année sur l’autre, on aura : P d(AAA) = P d(AAA, D) × 1 + P d(AAA, AA) × P d(AA, D) + . . . + P d(AAA, CCC) × P d(CCC, D) De manière générale, on peut écrire l’équation maı̂tresse des transitions de rating : la probabilité de transition du rating i vers le rating j entre les dates 0 et 2 est égale à la somme des probabilités des chemins suivis par le rating à toutes les dates entre 0 et 2. En l’occurrence, la probabilité de transition entre les dates 0 et 2 s’écrit : P0,2 = D X P0,1 (i, k).P1,2 (k, j) k=1 Si on suppose que les matrices de transition P0,1 et P1,2 sont égales (hypothèse de stationnarité des 2 matrices de transition), la relation ci-dessus s’écrit simplement P0,2 = P0,1 probability of migrating to rating by year end (%) original rating AAA AA A BBB BB B CCC AAA 93.66 5.83 0.40 0.08 0.03 0.00 0.00 0.00 AA 0.66 91.72 6.94 0.49 0.06 0.09 0.02 0.01 Default A 0.07 2.25 91.76 5.19 0.49 0.20 0.01 0.04 BBB 0.03 0.25 4.83 89.26 4.44 0.81 0.16 0.22 BB 0.03 0.07 0.44 6.67 83.31 7.47 1.05 0.98 B 0.00 0.10 0.33 0.46 5.77 84.19 3.87 5.30 CCC 0.16 0.00 0.31 0.93 2.00 10.74 63.96 21.94 Default 0.00 0.00 0.00 0.00 0.00 0.00 0.00 100.00 Figure 3.4: Exemple de matrice de transitions de rating en grades pleins Cette dernière remarque nous permet d’introduire le principe de matrice génératrice. On recherche une matrice de transition qui sera stable dans le temps, c’est à dire telle que : N P0,N = P0,1 Plus généralement, les probabilités de transitions de ratings à un horizon T sont données par la matrice : P0,T = exp(T × Λ) où Λ est la matrice génératrice. La logique économique sous-jacente est que les matrices de transitions observées ne sont que les réalisations d’une processus de Markov stable (de la même façon que la croissance 21 3.1. LE RATING économique varie autour de sa moyenne au rythme des périodes de récession et de forte croissance). Suivant cette propriété, on doit avoir : Matrice Génératrice à 1 an = ln(Matrice Génératrice à N années) On construira le logarithme de la matrice par série entière : ln(1 + X) = X (−1)n−1 n≥1 Xn n En pratique, toutes les études empiriques prouvent que les matrices de transition ne sont pas markoviennes. 3.1.3 La dégradation des ratings On observe pour les bons ratings une tendance à la dégradation au cours du temps. Celle-ci se traduit par une structure par terme de probabilité de défaut (croissante) convexe, ce qui indique que la probabilité de défaut marginale croissante en fonction de l’horizon du temps. Inversement, une probabilité de défaut cumulée au cours du temps pour un mauvais rating est une courbe (croissante) concave. En effet, un émetteur CCC a une probabilité de défaut très élevée à court terme, mais en cas de survie sur un horizon d’un an par exemple, il y a de rélles chances pour que son rating se soit amélioré. Sa probabilité de défaut forward sur un an dans un an est donc plus faible que la probabilité de défaut spot sur un an. Le niveau de rating pour lequel on se situe entre ces deux cas correspond au rating BBB. P r oba b i l i t és d e d éf a ut ( e n %) P r oba bi l i t és de déf a ut ( e n %) 80 5 BB AAA 4,5 4 70 B AA 60 A 3,5 3 CCC 50 BBB 2,5 40 2 1,5 30 20 1 0,5 10 0 0 1 2 3 4 5 6 7 8 hor i z on de t e mps 1 2 3 4 5 6 7 8 h o r i z o n d e t e mp s Figure 3.5: Probabilités de défaut cumulées pour des ratings Investment Grade Probabilités de défaut cumulées pour des ratings Speculative Grade En termes économiques, cette tendance à la dégradation vient non seulement de l’accroissement de la probabilité de défaut lorsque le rating se dégrade, mais également à l’auto-corrélation qu’on observe dans les dégradations de rating. Les statistiques des agences de rating montrent clairement qu’une entreprise récemment dégradée a une probabilité de dégradations futures beaucoup plus élevée qu’une entreprise qui se trouve au même niveau de rating depuis longtemps. Une dégradation de rating est une mauvaise nouvelle qui peut mettre une entreprise en difficulté : une dégradation sanctionne et entretient, voire accentue, une situation difficile pour une entreprise. 22 CHAPTER 3. LA MODÉLISATION DU DÉFAUT Quels sont alors les facteurs déclenchant le défaut ? Peut-on relier le risque de défaut ou de transition de rating à la santé de l’entreprise, à sa capcité à payer les intérêts de sa dette et à en rembourser le capital ? Quelle est la loi du temps de défaut ? Les paragraphes qui viennent ont pour ambition de répondre à ces questions. 3.2 La modélisation du défaut d’une entreprise 3.2.1 Description bilantielle de l’entreprise Pour un investisseur dans la dette de l’entreprise, le défaut est en général un événement soudain. Il intervient lorsque l’entreprise ne peut plus faire face à ses engagements, ce qui a inspiré l’approche structurelle dans la modélisation du défaut d’une entreprise. L’approche structurelle est une modélisation de l’actif et du passif de l’entrerpise. Le défaut est un événement qui survient lorsque la structure du bilan ne permet plus à l’entreprise de tenir ses engagements. Regardons le bilan d’une entreprise : Equity Actifs Dette L’entreprise possède des actifs : ce sont des machines, des locaux ou, dans le cas d’une banque, des prêts accordés à ses clients. Ces actifs sont financés par les actionnaires et les créanciers qui ont acheté les actions et les obligations émises par l’entreprise. La différence entre actions et obligations est la suivante : • Flux de paiement : pour les obligations, les paiements sont fixés contractuellement, et pour les actions il n’y a pas de paiement fixes. Les actionnaires reçoivent le solde des avoirs, après paiements de créanciers. Il faut mentionner le cas spécifique des actions préférentielles qui paient des dividendes fixes prévus à l’avance qui ressemblent donc à des coupons. Toutefois la fiscalité est celle des dividendes et un dividende non payé est différé et ne constitue pas un événement de crédit. • Séniorité : à liquidation de l’entreprise, on rembourse prioritairement les créanciers ayant investi dans la dette senior, puis ceux de la dette subordonnée. Les actionnaires sont payés en dernier et touchent ce qui reste du solde de liquidation de l’entreprise après avoir remboursé tous les créanciers. Prenons un exemple chiffré. A la date t = 0, une entreprise est en besoin de financement pour lancer son activité. Les besoins en capitaux sont évalués à 1 000 000 EUR, qui vont être financés par des actionnaires et des créanciers. Imaginons que les entrepreneurs apportent 200 000 EUR de fonds propres ; il reste 800 000 EUR à financer sous forme de dette. Les entrepreneurs pensent que leur entreprise 3.2. LA MODÉLISATION DU DÉFAUT D’UNE ENTREPRISE 23 produira ses premiers résultats dans un an. Ils empruntent donc aujourd’hui une somme B0 = 800 000 EUR et devront rembourser le nominal de la dette D à la date T = 1 an. Dans un an, les actifs de l’entreprise auront évolué (dépôt ou achat de brevets, vente de produits, acquisition et amortissement de machines, etc ). Soit l’entreprise peut rembourser, auquel cas elle verse D aux créanciers (éventuellement après avoir vendu certaines activités, cf Vivendi Universal après l’éclatement de la bulle internet), et on retranche D de la valeur des actifs, les actionnaires (soit les entrepreneurs) pouvant vendre le reste de l’entreprise pour un montant d’actifs égal à AT − D, soit l’entreprise ne peut rembourser la somme D à ses créanciers, les actifs sont vendus, et le produit de la vente est versé aux créanciers à concurrence de D. On peut donc résumer les flux financiers à la date T dans le tableau suivant : Valeur des actifs AT ≥ D AT < D 3.2.2 Flux reçus par les actionnaires AT − D 0 Flux reçus par les créanciers D AT Le modèle de Merton : le modèle de la firme (1974) Le modèle de Merton est une adaptation au risque de crédit de modèle de Black-Scholes-Merton sur lévaluation des produits dérivés. Ce qui ressort de l’analyse ci-dessus du payoff des actionnaires et des créanciers est que l’actionnaire possède un call sur la valeur des actifs de strike le nominal de la dette, et les créanciers possèdent un zéro-coupon sans risque et une position short d’un put sur les actifs et de strike le nominal de la dette. Merton reprend les hypothèses requises du modèle de Black-Scholes-Merton, savoir : • liquidité des marchés financiers, • existence d’un actif sans risque, • fractionnement des actions, • possibilité d’acheter ou vendre à découvert, • Absence d’opportunité d’arbitrage (AOA). Dette et Equity étant échangés sur les marchés financiers, les actifs de la firme sont évalués sous une probabilité risque neutre sous laquelle leur rendements sont en moyenne égaux au taux sans risque. Plus précisément, Merton fait l’hypothèse que sous probabilité risque-neutre, les actifs de la firme suivent la loi d’un mouvement brownien géométrique dont la diffusion est régie sous probabilité risque neutre par l’équation de diffusion suivante : dAt = r dt + σ dWt At En reprenant le tableau des flux de paiements à maturité de la dette introduit dans le paragraphe précédent, on peut donc écrire sous forme probabiliste les valeurs de la dette et des actions de la firme 24 CHAPTER 3. LA MODÉLISATION DU DÉFAUT à toute date t antérieure à la maturité de la dette T . Ainsi, à la date t = 0, la valeur de marché de la dette est : £ ¤ D0 = E e−rT min(D, AT ) et la valeur de marché des actions de la société est : £ ¤ E0 = E e−rT max(AT − D, 0) soit le prix d’un call sur les actifs de maturité T et strike D. La valeur de marché de la dette est bien-sûr inférieure à la valeur faciale de la dette ajustée du taux sans risque e−rT D, prix qui serait justement le sien si elle était sans risque. Une quantité (appelée spread) permet de mesurer le risque associé à la dette. Le spread est la rémunération que réclame le créancier au dessus du taux sans risque pour accepter de financer la dette de l’entreprise. Le spread, que nous notons s, se calcule de la façon suivante : B0 = D e−(r+s)T soit : 1 s = ln T µ D B0 ¶ −r La valeur de marché de l’equity est simplement donnée par la formule de Black-Scholes. E0 = A0 N (d1 ) − De−rT N (d2 ) avec 1 √ σ T £ ¤ ln(A0 /D) + (r + σ 2 /2)T d1 = d2 √ = d1 − σ T Rappelons que l’action étant un call sur les actifs de la firme de strike D, les sensibilités de la valeur de l’action par rapport aux différents paramètres sont connues grâce aux grecques calculées par la formule de Black-Scholes. En particulier, et c’est le résultat le plus marquant, une volatilité élevée profite aux actionnaires dont le bien se trouve valorisé (le véga d’un call est positif). Dans le cas limite d’une volatilité infinie, les actionnaires perdent tout (avec probabilité 1/2) ou deviennent infiniment riches avec probabilité 1/2. Les conséquences sont opposées pour les créanciers mais avant d’en reparler, valorisons £ ¤ d’abord la dette. Puisque B0 = E e−rT min(D, AT ) , on peut écrire : £ ¤ £ ¤ B0 = E e−rT ST − E e−rT (D − AT )+ On note que la parité call-put, bien connue dans le milieu des produits dérivés a une interprétation simple en finance d’entreprise puisqu’elle s’écrit simplement : Actifs = Dette + Action En notant que les pertes correspondent au payoff de la vente d’un put sur les actifs, de strike D, on obtient : B0 = A0 N (−d1 ) + De−rT N (−d2 ) 25 3.2. LA MODÉLISATION DU DÉFAUT D’UNE ENTREPRISE On peut également calculer la probabilité d’un événement de défaut. Celui-ci survient lorsque la valeur des actifs à maturité est en dessous de la valeur faciale de la dette (quand les pertes sont positives). On appelle cette probabilité la Probabilité de Défaut (PD) et on peut également calculer la perte en cas de défaut (LGD, Loss Given Default) qui représente la perte moyenne d’un créancier en cas de défaut. On a: P D = P [AT ≤ D] = N (−d2 ) LGD = E[D − AT |AT ≤ D] = E(L) N (−d2 ) = Put N (−d2 ) Il faut noter que N (−d2 ) correspond à la probabilité d’exercer le put. Par rapport à ce calcul théorique, la LGD doit incorporer des coûts de détresse car la valeur des actifs n’est pas la même selon que ces actifs sont en vente ou non. La formule ci-dessus sous-estime donc de façon importante la LGD par rapport aux valeurs observées en pratique. Revenons rapidement sur l’influence de la volatilité sur la valeur de la dette. Puisque Dette= Zéro-Coupon - Put, connaissant le signe du véga d’un put, on en déduit le signe de ∂Bt /∂σ. Augmenter la volatilité des actifs augmente le risque de ne pas être remboursé à maturité de la dette, ce qui est très intuitif. Cela diminue la valeur de la dette et en augmente le spread de marché. De manière plus complète, des études de sensibilité classiques peuvent etre menées en reprenant les résultats de sensibilités sur les options put et call en mathématiques financières. Intéressons nous plus particulièrement à la sensibilité à la maturité des obligations. Dans le modèle de Merton, la dette est non risquée à très court terme puisque la probabilité que la valeur des actifs tombe en dessous de la valeur faciale de la dette est quasi-nulle si A0 > D. Ceci est en contradiction avec les spreads observés sur les marchés. Le spread pour des maturités courtes est en conséquence faible pour des maturités courtes et a tendance à augmenter lorsque l’on allonge la maturité de la dette (effet dégradation des actifs). Par contre, pour des probabilités de défaut très élevées, le spread décroı̂t rapidement avec la maturité de la dette. S pr e a d a nnua l i sé e n f onc t i on d e l a m a t u r i t é 0,900% 0,800% 0,700% 0,600% 0,500% Pr . Def . = 0,75 % 0,400% Pr . Def . = 5,71 % 0,300% 0,200% 0,100% 0,000% M a t ur i t é Figure 3.6: Spread et Maturité. Les spreads tendant à diminuer pour les longues maturités. 26 CHAPTER 3. LA MODÉLISATION DU DÉFAUT Le prix de l’action étant un call sur la valeur des actifs de la firme, le modèle de Black-Scholes permet de faire le lien entre les caractéristiques de l’actif et celles de l’action. En effet, nous avons Et = C(t, At , σ). Le lemme d’Itô nous donne immédiatement la volatilité de l’action : σE = A ∆σ S Ainsi ces deux relations relient de manière univoque la volatilité et la valeur de l’actif à la volatilité et à la valeur des actions. Comme ce sont les paramètres spécifiques de l’action qui sont facilement observables sur les marchés financiers, en résolvant ces deux équations à deux inconnues, on peut remonter aux paramètres spécifiques des actifs (valeur et volatilité). Une implémentation du modèle de Merton a été réalisée sur le marché français par Lardic et Rouzeau, et ils ont pu vérifier un accord raisonnablement correct entre les spreads du modèle de Merton et les spreads de marché. Toutefois, d’autres auteurs ont montré que ce modèle était en accord assez faible avec la réalité et qu’il était un peu grossier dans sa conception. Le modèle de Merton ne semble donc pas très adapté à l’évaluation des dérivés de crédit car le calibrage sur les donnés de marché n’est pas assez direct. En revanche, il a deux applications intéressantes. La première application est de fournir un cadre conceptuel quantitatif à certains problèmes de gouvernance d’entreprise. Le modèle de Merton décrit le conflit d’intérêt entre les créanciers et les actionnaires d’une entreprise en fonction des paramètres clés de la société comme le niveau de risque de ses actifs. Ce modèle exprime simplement de manière quantitative que toute prise de risque par les managers de l’entreprise est favorable à l’actionnaire, au détriment des créanciers. De même, on comprend dans ce modèle le conflit d’intérêt entre les managers et les actionnaires. En effet, un manager qui détient des stock-options (c’est-à-dire qui a une position leveragée sur l’action) a une incitation à augmenter le niveau de risque des actifs, ce qui valorisera ses options (le manager a un profil de risque vega-positif) ; ceci se fera au détriment du créancier bien-sûr, mais également au détriment de l’actionnaire dont la richesse est moins sensible au niveau de risque des actifs que l’option sur l’action (qui est une option composée sur les actifs). La deuxième application concerne la gestion des risques. Nous avons vu qu’il était assez facile de faire le lien entre l’action et la valeur des actifs. Les marchés actions fournissent des quantités considérables de données qui peuvent ensuite servir à calibrer les dépendances entre les actifs des entreprises et par conséquent à bâtir un modèle de défauts corrélés. Nous avons mentionné que l’information des marchés actions apportait une faible connaissance du risque de crédit, et il est préférable de calibrer les probabilités de défaut directement à partir des marchés de crédit ou à partir des ratings attibués aux émetteurs de dette par les agences. De plus, ce modèle est suffisamment souple pour permettre de calibrer non seulement le risque de éfaut, mais ausssi le risque de transition de rating. RiskMetrics est une société qui vend des logiciels pour la gestion du risque financier. Leur modèle de credit appelé CreditMetrics étend le modèle de Merton en y incluant les transitions de rating. Cette extension du modèle consiste à découper la distribution des rendements d’actifs de sorte que si on réalise des tirages aléatoires selon cette loi, nous reproduisons exactement les fréquences de transitions de rating. Nous utilisons une variable aléatoire normale centrée réduite X qui s’interprète dans le modèle de Merton 27 3.2. LA MODÉLISATION DU DÉFAUT D’UNE ENTREPRISE comme le rendement des actifs sur l’horizon considéré. Si la réalisation de cette variable est sous un certain seuil, alors le défaut est déclenché. Le seuil est précisément calibré pour que la probabilité de défaut de l’entreprise corresponde à la probabilité que la variable X ait une valeur inférieure à ce seuil. Il en sera de même pour tous les autre niveaux de rating ; selon la valeur de la réalisation de la variable X la transition s’effectuera soit vers le défaut soit vers un autre niveau de rating. Si nous appelons i le rating en début de période de l’entreprise, on définit le seuil Zi,CCC correspondant à la transition du rating i au défaut. Nous avons : P Di = P (i, D) = P [X < Zi,CCC ] = N (Zi,CCC ) Par ailleurs, la probabilité de transition soit vers le rating CCC soit vers le défaut est égale à P (i, CCC)+ P (i, D). On en déduit que le seuil qui déclenche une transition vers le rating CCC ou vers le défaut est défini par la relation P (i, CCC) + P (i, D) = P [X < Zi,CCC ] = N (Zi,B ). On construit ainsi de proche en proche les seuils associés aux différentes transitions de rating. De façon générale, les seuils définissant les transitions s’écrivent : Zi,j   X = N −1  Pi,k  k>j Si on choisit i = BBB, en utilisant la matrice de transition donnée ci-dessus, on obtient le graphique suivant : Z CCC ZB Z BB Z BBB ZA Z AA Z AAA Figure 3.7: Seuils associés aux transitions de rating dans le modèle de Merton On déduit de la construction précédante que la probabilité de transition du rating i vers le rating j (différent du rating AAA ou du défaut) est donnée par : Pi,j = P [Zi,j < X ≤ Zi,j−1 ] = N (Zi,j−1 ) − N (Zi,j ) L’interprétation graphique de la courbe en cloche est que l’aire interceptée par la courbe entre les seuils les seuils Zi,j−1 et Zi,j est égale à la probabilité de transition du rating i vers le rating j. 28 CHAPTER 3. LA MODÉLISATION DU DÉFAUT Chapter 4 La mesure du risque 4.1 Axiomatique du risque Delbaen et al. ont proposé 4 propriétés de cohérence que devait satisfaire une bonne mesure de risque. Chacune de ces propriétés repose sur une intuition financière. • Monotonie : si la probabilité de perte sur un portefeuille est toujours supérieure à celle d’un deuxième alors leurs mesures de risque sont dans le même sens X ≤ Y ⇒ ρ(X) ≤ ρ(Y ) • Homogénéité : Le risque double si la taille du portefeuille double ρ(λX) = λρ(X) • Invariance par translation : l’ajout d’une poche d’actif sans risque à un portefeuille risqué ne fait que translater la mesure du risque ρ(X + c) = ρ(X) + c • Sous-additivité : cette propriété traduit la notion de diversification : le risque sur un portefeuille est plus faible que la somme des risques individuels. ρ(X + Y ) ≤ ρ(X) + ρ(Y ) 4.2 Value at Risk (VaR) La notion de risque, traditionnellement définie par la volatilité ne tient pas compte dans sa définition de l’asymétrie entre les gains et les pertes. La mesure de risque fait communément intervenir un niveau de probabilité, niveau sur lequel l’investisseur est particulièrement averse sur un horizon de temps donné. La VaR est une estimation de la perte potentielle (exprimée dans une unité monétaire) qui peut résulter de la 29 30 CHAPTER 4. LA MESURE DU RISQUE détention d’un portefeuille de produits financiers sur une période donnée (un jour, une semaine, etc.), avec un niveau de confiance choisi a priori (95 %, 99 %, etc.). La Value at Risk (VaR) est définie comme la perte maximale qui survient avec un certain niveau de probabilité que nous noterons q. Mathématiquement, cela s’écrit : P [X ≤ −V aRq ] = 1 − q La présence du signe moins dans la définition de la VaR indique simplement que la mesure de risque est positive. Si nous retenons un seuil de confiance de 99%, la VaR 99% est la perte maximale que l’on subira dans les 99% des cas les plus fréquents. Dans le cas d’une perte qui suit une loi de fonction de répartition F sur l’horizon de temps considéré, nous en déduisons le lien direct entre la VaR et le quantile de cette loi de distribution au seuil q : V aRq = −F −1 (1 − q) Dans le cas d’une perte qui suivrait une loi normale d’espérance µ et d’écart-type σ, nous obtenons la relation suivante : V aRq = −µ + σN −1 (1 − q) Cette relation est remarquable car la VaR est toujours proportionnelle à l’écart-type des pertes, et ce quel que soit le niveau de confiance retenu. Pour revenir aux axiomes des cohérence, la VaR n’est pas une mesure de risque cohérente car elle n’est pas sous-additive, comme l’illustre l’exemple suivant. Soit un univers composé de 4 états du monde de probabiliés respectives 1%, 49%, 49% et 1%. On considère une banque qui vend un call et un put. Les payoffs dans les 4 états du monde sont les suivants pour ces options :     4 0  0   0    Call =  Put =   0   0  0 4 La VaR à 98% de chaque instrument du portefeuille est nulle mais celle du portefeuille global est égale à 8. Notons que la propriété de sous-additivité est violée à cause de la conjonction de deux facteurs : l’univers des états du monde est fortement discontinu et le seuil est précisément choisi pour violer la sous-additivité. Il est très rare de se retrouver dans une situation similaire dans le cas d’un portefeuille réel. 4.3 Estimation de la VaR Les organismes de tutelle des établissements financiers imposent un seuil de confiance de 99%, de sorte que la perte observée ne devrait excéder statistiquement la VaR dans 1% des cas seulement. Par ailleurs, la période de détention de 10 jours imposée par la réglementation bancaire correspond au délai estimé nécessaire pour retourner la position dans le marché. Ainsi, la VaR sur 10 jours à 99% n’est autre que le quantile d’ordre 1% de la distribution de probabilité des variations sur 10 jours de la valeur de marché d’un portefeuille. Calculer la VaR revient donc à 4.3. ESTIMATION DE LA VAR 31 estimer un quantile de cette distribution. Trois méthodes d’estimation couramment utilisées en statistique permettent d’estimer la VaR : la méthode historique s’appuyant sur des données observées, la méthode paramétrique utilisant un modèle donné afin d’en déduire des formules fermées et la méthode de simulation dite de Monte Carlo. 4.3.1 VaR historique Dans cette méthode, la distribution des variations futures des facteurs de risque est assimilée à celle observée sur une période passée. On utilise donc les variations passées pour réévaluer le portefeuille et simuler ses pertes et profits (profit and loss ou P&L). La VaR est ensuite obtenue en lisant le quantile approprié sur l’histogramme des rentabilités simulées. Sur un historique de 500 P&L quotidiens d’un portefeuille (ce qui reprsente un historique de deux ans), la VaR à un jour à 99% de ce portefeuille est tout simplement égale à la cinquième plus basse variation observée dans l’historique. Ce calcul ne nécessite qu’un historique des cours de l’instrument ou des facteurs de risque sur une période donnée, sans qu’aucune hypothèse a priori sur la distribution des variations des facteurs de risque ne soit nécessaire. L’avantage de cette méthode est de prendre en compte parfaitement les distributions de rendements des actifs du portefeuille ainsi que leur dépendance. Son point faible est que les historiques sont en général de taille très limitée ou, s’ils sont de grande taille, on peut s’interroger sur la pertinence d’utiliser des données historiques très anciennes pour appréhender un risque futur. 4.3.2 VaR paramétrique Cette méthode repose sur l’hypothèse que la loi jointe des facteurs de risque peut être approchée par une loi théorique a priori dont l’expression mathématique dépend d’un nombre réduit de paramètres. On utilise alors les propriétés de cette loi théorique pour estimer le quantile de la distribution et donc la VaR d’une position ou d’un portefeuille. En raison de sa simplicité, on utilise souvent la loi normale, qui est complètement caractérisée par deux paramètres : sa moyenne et sa matrice de variance-covariance. Lorsque la variation de la valeur de marché d’une position s’exprime comme combinaison linéaire des variations des facteurs de risque, les propriétés de la loi normale permettent le calcul immédiat de la volatilité de la position à partir de la matrice de variance-covariance des facteurs de risque. Le quantile d’ordre q et donc la VaR, est une fonction linéaire de cette volatilité. Malheureusement, l’utilisation de l’approximation gaussienne conduit à sous-estimer, parfois dramatiquement, la VaR réelle. On peut alors spécifier d’autres lois pour les facteurs de risque, en particulier pour tenir compte de l’épaisseur des queues de la distribution de la plupart des variables financières. Malheureusement les formules deviennent plus compliquées et il devient plus difficile de rendre compte avec justesse des dépendances entre les variables. 32 4.3.3 CHAPTER 4. LA MESURE DU RISQUE VaR Monte-Carlo L’estimation de la VaR par simulations de Monte Carlo présente des points communs avec l’approche historique et la méthode paramétrique. Dans un premier temps, on spécifie la distribution jointe des facteurs de risque. Puis, on engendre à partir de cette loi, un très grand nombre de scénarios de variations des facteurs de risque. Ces scénarios sont ensuite utilisés pour calculer les résultats hypothétiques du portefeuille. La VaR est enfin déterminée de la même manière que la VaR historique mais à partir de l’échantillon simulé. Bien que simple dans son principe, cette méthode nécessite une grosse capacité de calcul. Le nombre de simulations à effectuer croı̂t très vite avec la complexité des produits et le nombre de tirages devient rapidement très important si l’on souhaite obtenir une précision acceptable. 4.3.4 Problèmes des données historiques Quelle que soit la méthode utilisée, le calcul de la VaR nécessite des données historiques, que ce soit pour disposer de scénarios sur les facteurs de risque ou pour estimer les paramètres de la loi spécifiée pour ces facteurs. Une difficulté majeure concerne le choix de la longueur de la période historique utilisée dans l’estimation. Si l’on accepte l’hypothèse de stationnarité des facteurs de risque, le calcul de la VaR est d’autant plus précis que l’historique dont on dispose est long. Cependant, de nombreuses études empiriques portant sur les variables financières montrent l’alternance de périodes de forte volatilité des marchés et de périodes plus calmes. Ainsi, non seulement une des hypothèses sous-jacentes à l’estimation de la VaR n’est pas vérifiée mais la VaR calculée sur un historique trop long peut être fortement biaisée et ne pas refléter les niveaux de volatilité du moment. On est alors confronté à des exigences contradictoires. Comment déterminer dans ces conditions la longueur optimale de la période à utiliser pour le calcul de la VaR, sachant que les organismes de tutelle impose une période historique minimale d’une année? Ce problème est quelquefois contourné en pondérant les observations pour donner plus de poids aux périodes plus récentes. 4.4 4.4.1 Autres mesures de risque Expected shortfall Il existe d’autres mesures de risque qui sont cohérentes au sens des axiomes de cohérence des mesures de risque. C’est le cas de l’expected shortfall. Il s’agit d’une mesure de risque associée à un seuil de probabilité mais qui mesure l’espérance de la valeur du portefeuille dans les cas associés à ce seuil de probabilité : ESq = E [−X |X ≤ −V aRq ] 33 4.4. AUTRES MESURES DE RISQUE Dans le cas de la gaussienne, l’expected shortfall et la VaR sont numériquement très proches pour de niveaux de confiance éloignés ; en effet : ESq = − R N −1 (1−q) −∞ x n(x) dx 1−q ¡ ¢ n N −1 (1 − q) n(−V aRq ) =− =− ∼ V aRq 1−q N (−V aRq ) Ce n’est en revanche pas le cas si la variable considérée suit une loi à queue épaisse, telle la loi de Pareto par exemple. Dans ce cas, la fonction de répartition s’écrit F (x) = C|x|−α , avec α > 2, et la VaR est égale à : V aRq = −F Il vient alors pour l’expected shortfall : R −V aRq ESq = − −∞ −1 (1 − q) = dx xαC|x|−α−1 1−q µ C 1−q ¶1/α ∼ V aRq + 1 V aRq α−1 Dans le cas d’une queue épaisse, l’expected shortfall est sensiblement différent de la VaR, alors que dans le cas d’une queue gaussienne l’expected shortfall converge vers la VaR pour des seuils élevés. Nous avons vu que la VaR était une mesure de risque ” locale ” puisqu’elle n’utilise la fonction de répartition qu’au seuil considéré. En revanche, l’expected shortfall utilise toute la fonction de répartition au-delà du seuil considéré, et prend donc en compte toute l’information que nous avons sur la loi de la variable aléatoire au-delà du seuil. En ce sens, nous pouvons considérer que l’expected shortfall est une mesure de risque meilleure que la VaR. 4.4.2 Drawdowns Il existe d’autres mesures de risque associées aux aspects temporels du risque. En supposant que le prix initial d’un actif est S0 , quelle est la probabilité que le pire prix atteint dans le futur soit égal à Smin , et combien de temps va durer ce ” drawdown ” (combien de temps va s’écouler entre l’atteinte du min et le retour au nouveau initial) ? Même si un investissement est mené sur le long terme, l’investisseur a besoin d’estimer son risque de court terme, et il faut introduire dans l’analyse les aspects temporels du risque. Une façon de le faire est de considérer la distribution des drawdowns, définis à la date t par : D(t) = maxs∈[0,t] Ws Wt où Wt est la valeur du portefeuille à la date t. Il faut remarquer que ceci est plus un risque d’opportunité qu’un risque de perte puisque le drawdown est défini par rapport au maximum est non par rapport à la richesse initiale. Le drawdown est aussi appelé VaR sans horizon puisqu’il décrit la perte sur un horizon non spécifié à l’avance. Il décrit également la frustration de l’investisseur forcé de liquider sa position en dessous du maximum qu’il avait atteint dans le passé. Il faut remarquer également que le drawdown n’est pas une mesure de risque cohérente (elle n’est pas sous-additive). Dans le cas d’une marche aléatoire multiplicative (comme le processus lognormal par exemple), on peut montrer que la distribution des drawdowns est une loi de puissance. Appelons π(x) la distribution des rendements de richesse : π(x) = P [ln(Wt+1 /Wt ) = x] 34 CHAPTER 4. LA MESURE DU RISQUE On montre dans la limite stationnaire, que la loi de distribution de la variable D(t) suit une loi de puissance, et en écrivant l’équation maı̂tresse de cette loi de probabilité dans la limite stationnaire, nous obtenons l’équation d’auto-consistence satisfaite par le paramètre de queue de cette loi : Z 1 dx π(x) e−Γx = 1 P (D > x) ∼ Γ avec x Dans le cas d’un processus lognormal, on obtient Γ = 2µ/σ 2 . 4.4.3 Temps de retour Soit R la rentabilité d’un actif. Formellement, la durée de retour d’un événement r est le temps moyen qu’il faut attendre pour que la variable R atteigne ou dépasse le niveau r. Soit τ le premier instant où R dépasse r. En temps discret, si les rentabilités sont indépendantes, la probabilité que τ soit égal à une date donnée u est le produit des probabilités que R soit inférieur à r pendant les u − 1 premières dates et supérieur à r à la date u. Si FR est la fonction de répartition de R, on obtient : P (τ = u) = FRu−1 (r) [1 − FR (r)] E(τ ) = E(τ ) = E(τ ) = 4.4.4 P P P u≥1 u P (τ = u) u≥0 (u u≥0 + 1)FRu (r) − FRu (r) = P u≥1 u FRu (r) 1 1−FR (r) Cadre général des mesures de risque cohérentes Un moyen général de définir de ” bonnes ” mesures de risque consiste à introduire une distorsion des fonctions de répartition. Si g : [0, 1] → [0, 1] est une fonction croissante telle que g(0) = 0 et g(1) = 1, on définit la fonction de répartition distordue . On définit alors la mesure de risque : ∗ ρ(X) = E [X] = E[Xϕ(X)] = − Z 0 dx g(F (x)) + −∞ Z 0 ∞ dx [1 − g(F (x))] où la fonction ϕ est la dérivée de Radon-Nikodym correspondant à la distorsion de la mesure de probabilité. Un théorème indique que si la fonction g est également concave (c’est-à-dire que g est cointinue puisqu’elle est croissante), alors la mesure de risque induite ρ est sous-additive et donc cohérente. Dans le cas de la VaR, on a : g(x) =   0 si x < V aR  1 si x ≥ V aR Cette fonction est discontinue au niveau de la VaR, ce qui indique qu’il ne s’agit pas d’une mesure de risque cohérente. Dans le cas de l’expected shortfall, on montre aisément que la fonction g est continue et s’écrit : g(x) =   0  u−V aR 1−V aR si x < V aR si x ≥ V aR 35 4.5. CONTRIBUTIONS AU RISQUE Toutefois, dans le cas de l’expected shortfall, la fonction g, tout en étant continue, n’est pas différentiable au point x = V aR. Pour tout x < V aR, la fonction de distorsion g est égale à 0, c’est-à-dire que l’information contenue au niveau de la fonction de répartition des pertes sur cette région n’est pas utilisée dans la mesure de risque définie par l’expected shortfall. Une fonction de distorsion différentiable sur l’ensemble des réels tout entier permettrait de définir une mesure de risque qui serait non seulement cohérente du point de vue des axiomes de risques, mais également qui utiliserait toute l’information sur la répartition de la variable aléatoire. La transformation suivante, appelée transfomée de Wang, satisfait cette propriété : £ ¤ gλ (x) = N N −1 (x) − λ Une propriété remarquable des mesures de risque obtenues par distorsion de la fonction de répartition est qu’on peut les réexprimer comme une somme pondérée de Value at Risk à différents niveaux de confiance. En effet, si on se place dans l’espace des quantiles de la variable aléatoire X plutôt que dans l’espace direct de cette variable aléatoire, c’est-à-dire si on pose α = F (x), on obtient : Z ∞ Z 1 ρ(X) = E[Xϕ(X)] = xϕ(x) dF (x) = dα ϕ̃(α)V aRα −∞ 0 ¡ ¢ avec ϕ̃(α) = ϕ F −1 (α) . 4.5 Contributions au risque Le cas le plus simple est celui d’un portefeuille gaussien. Dans ce cas, la mesure naturelle du risque est l’écart-type du P&L. Nous notons xi la pondération de la ligne i dans le portefeuille et µi et σi désignent respectivement le rendement espéré et l’écart-type du rendement sur la ligne i. Les corrélations deux à deux sont ρij . La formule de l’espérance et de la variance du P&L sur l’horizon considéré est : P E[P &L] = i xi µi var[P &L] = P i x2i σi2 + 2 P i<j ρij xi xj σi σj Il se trouve que la somme des covariances de chaque ligne avec le rendement total du portefeuille est égale à la variance elle-même. Nous en déduisons une formule très simple de la contribution de chaque ligne du portefeuille à la variance totale : Cbi = La formule P i cov(P &Li , P &L) p var(P &L) var(P &L) Cbi = var(P &L) est toujours vraie, même si les lois de rendements ne suivent pas une fonction gaussienne multivariée. La contribution à la variance est la covariance calculée par la formule ci-dessus. Dans le cas général, la contribution calculée en covariance permet à coup sûr de répartir le risque total du portefeuille sur chaque ligne. Cbi = cov(P &Li , P &L) p ρ(P &L) var(P &L) Toutefois, il existe une infinité de façons de faire ceci, et le choix de la covariance bien qu’inspiré du cas gaussien est tout à fait arbitraire et ne se justifie que par la simplicité de calcul de cette grandeur 36 CHAPTER 4. LA MESURE DU RISQUE d’un point de vue numérique, comme nous le verrons ci-dessous. La propriété d’homogénéité de degré 1 des mesures de risque cohérentes permet, via la formule d’Euler, de calculer la formule générale des contributions au risque. On obtient en effet : ρ(x1 , . . . , xN ) = X xi i X ∂ρ = Cbi ∂xi i Ainsi, la contribution marginale d’une ligne du portefeuille au risque total est la dérivée de la mesure de risque du portefeuille par rapport à la taille marginale de la ligne en question. C’est aussi l’augmentation du risque total du portefeuille pour une augmentation de 1 euro de la taille de la ligne considérée. Il existe une autre grandeur intéressante dans l’analyse du risque d’un portefeuille ; il s’agit de la contribution incrémentale d’une ligne, c’est-à-dire de l’augmentation du risque total du portefeuille si on lui rajoute cette ligne. La formule de la contribution incrémentale est donc : ρincr (i) = ρ(x1 , . . . , xi−1 , xi , xi+1 , . . . , xN ) − ρ(x1 , . . . , xi−1 , 0, xi+1 , . . . , xN ) Dans la limite, où la taille de la ligne considérée devient infinitésimale par rapport à la taille du portefeuille, les deux grandeurs, contribution marginale et contribution incrémentale convergent. En revanche, on a toujours une relation d’ordre entre les deux : la contribution marginale est toujours supérieure à la contribution incrémentale. L’intuition de ce résultat est que rajouter une ligne à un portefeuille aura tendance à le diversifier alors que rajouter 1 euro à une ligne déjà existante aura tendance à le concentrer sur la ligne i. La démonstration de ce résultat tient à la convexité des mesures cohérentes de risque, convexité provenant des propriétés de sous additivité et d’homogénéité. Pour simplifier les notations, la fonction ρ(x1 , . . . , xi−1 , xi , xi+1 , . . . , xN ) sera notée simplement ρ(xi ), les N − 1 autres variables restant inchangées. Nous avons : 2ρ(xi ) = ρ((xi + dxi ) + (xi − dxi )) ≤ ρ(xi + dxi ) + ρ(xi − dxi ) propriété d’homogénéité propriété de sous-additivité On en déduit alors que la mesure de risque est convexe en fonction des pondérations du portefeuille, c’est-à-dire : ∂2ρ (x1 , . . . , xi−1 , xi , xi+1 , . . . , xN ) ≥ 0 ∂x2i Par conséquent, on peut développer la contribution incrémentale du risque au deuxième ordre : ρ(xi ) − ρ(0) ∼ xi 1 ∂2ρ ∂ρ ∂ρ (xi ) − x2i 2 (xi ) ≤ xi (xi ) ∂xi 2 ∂xi ∂xi La concavité de la mesure de risque indique que l’euro marginal d’exposition sur la ligne i coûte plus cher que le premier euro. En effet, ceci est intuitif sur le plan financier car le premier euro de la ligne i va plus diversifier le portefeuille que les euros suivants. Le cas de la contribution à la VaR est instructif et très utile en pratique. Il est en général numériquement très compliqué de calculer la dérivée de la VaR par rapport à l’exposition sur chaque ligne. Par ailleurs, nous avons vu l’utilisation d’une formule de type covariance n’était pas fondée sur des arguments solides, 37 4.5. CONTRIBUTIONS AU RISQUE et il y a des cas où cette utilisation de la VaR conduit à des contributions supérieures au risque maximal sur la ligne elle-même ! Dans le cas où la mesure de risque est la VaR, on démontre le résultat suivant : Cbi = E[P &Li |P &L = V aR] Pour démontrer ce résultat, nous considérons un portefeuille qui est la somme de deux sous-portefeuilles, dont les P&L sont décrits par les variables X et ǫY respectivement. Nous appelons f (x, y) la densité jointe des variables X et Y . Les quantiles du P&L du portefeuille au seuil α en fonction du poids de la ligne modélisée par la variable Y est défini par : P [X + ǫY > Q(ǫ, α)] = α = Z ∞ −∞ "Z ∞ # f (x, y) dx dy Q(ǫ,α)−ǫy En dérivant par rapport à ǫ, nous obtenons : Z ∞ −∞ · ¸ ∂Q(ǫ, α) − y f (Q(ǫ, α) − ǫ, y) dy = 0 ∂ǫ Ce qui donne immédiatement : R∞ yf (Q(ǫ, α) − ǫ, y) dy ∂Q(ǫ, α) = R−∞ = E[Y |X + ǫY = Q(ǫ, α)] ∞ ∂ǫ yf (Q(ǫ, α) − ǫ, y) dy −∞ Intuitivement, cette formule signifie que la contribution à la VaR de chaque ligne du portefeuille est l’espérance du P&L de chaque ligne conditionnellement au fait que le P&L du portefeuille soit exactement à son seuil de VaR. Exemple du portefeuille gaussien homogène Considérons un portefeuille de trading de N lignes. Le rendement de chaque ligne du portefeuille sur un horizon de temps donné est noté Ri et suit une loi normale centrée et de variance σi2 = σ 2 . Le poids de chaque ligne du portefeuille est xi = 1/N (si bien que la taille globale du portefeuille est 1), et les corrélations deux à deux des rendements sont toutes identiques ρij = ρ. L’espérance de rendement de ce portefeuille, par linéarité de l’espérance est égale à 0. Sa variance est quant à elle égale à : σP2 = X x2i σi2 + 2 i X ρij xi xj σi σj = i<j σ2 N −1 2 + ρσ N N La VaR au seuil q s’écrit : V aRq = −σP N −1 (1 − q). La contribution à cette VaR de la ligne numéro i vaut : Cbi = ´ ³ P cov Ri , j Rj σP2 V aRq = V aRq N Le capital incrémental de la ligne numéro i vaut : ρincr (i) = −N −1 (1 − q) hp i p N σ 2 + N (N − 1)ρσ 2 − (N − 1)σ 2 + (N − 1)(N − 2)ρσ 2 /N 2 38 4.6 CHAPTER 4. LA MESURE DU RISQUE Mesurer n’est pas gérer Plusieurs difficultés concernant la mesure des risques viennent limiter la portée de cet exercice. La première concerne la longueur requise des historiques. Pour avoir des résultats fiables, il faut disposer d’un historique suffisamment long. La deuxième concerne la mesure des corrélations (des dépendances) entre actifs, qui a fait l’objet de nombreux développements depuis une dizaine d’années, notamment autour de la théorie des copules. Toutefois, si la théorie des copules fournit un cadre conceptuel à la notion de dépendance, on peut estimer que les applications pratiques ne sont pas à la hauteur des développements théoriques qui ont été menés. En s’attaquant à ces questions, il ne faut toutefois pas perdre de vue que l’objectif du gestionnaire de risques n’est pas seulement de mesurer les risques, mais également de les gérer. Cette gestion passe par la mise en place d’outils de compréhension fine du risque au niveau d’un portefeuille. Parmi ceux déjà développés dans certaines institutions, citons l’identification des positions qui ont le plus fort impact sur le risque, l’analyse de la contribution marginale d’une position, l’étude des anticipations implicites contenues dans le portefeuille pour détecter les incohérences, enfin et surtout la recherche des meilleures opérations pour réduire les expositions. Toute l’expertise de la gestion du portefeuille de la banque va consister à trouver le couple rendement / risque optimal compte tenu du projet industriel de la banque. Chapter 5 Simulation Monte-Carlo 5.1 Principe La méthode de Monte-Carlo utilise le lien entre probabilités et volumes dans l’espace probabilisé. Alors que la théorie de la mesure exprime la probabilité d’un événement en termes de volume de cet événement dans l’univers des réalisations possibles des variables aléatoires, la méthode de Monte-Carlo fait exactement le contraire en estimant le volume d’un événement et en l’interprétant comme une probabilité. La méthode de Monte-Carlo dans sa version la plus élémentaire consiste à simuler un échantillon de réalisations des variables aléatoires, et la fraction des résultats qui appartiennent à l’événement considéré donne une estimation de son volume. La loi des grands nombres assure la convergence de cette estimation lorsque la taille de l’échantillon simulé tend vers l’infini. Concrètement, si une expérience aléatoire a plusieurs résultats possibles, nous effectuons N tirages, et si on suppose que le résultat numéro i a une probabilité pi d’apparaı̂tre et apparaı̂t Ni fois, nous avons : Ni = pi N →∞ N lim Soit à present une variable aléatoire continue X de densité de probabilité f , et nous souhaitons calculer l’espérance de la variable aléatoire g(X). Supposons que les (Xi )1≤i≤N constituent un ensemble de N réalisations de la variable aléatoire X. La méthode Monte-Carlo repose sur la relation obtenue de la loi des grands nombres : N 1 X g(Xi ) = E [g(X)] N →∞ N i=1 lim Comme l’indique le théorème de la limite centrale, cette convergence de la moyenne sur l’échantillon vers l’espérance est malheureusement très lente, et l’écart type de l’estimateur de l’espérance décroı̂t √ comme 1/ N en fonction du nombre de simulations. Réduire l’incertitude sur l’estimateur d’un facteur 10 requiert 100 fois plus de simulations. En revanche, l’universalité de la loi des grands nombres fait de la méthode Monte-Carlo une méthode applicable en toutes circonstances, qu’elle qu’en soit la complexité. Sa faiblesse vient uniquement de la lenteur de la convergence des estimateurs. La précision d’une estimation par méthode Monte-Carlo vient d’une part, comme nous l’avons vu, de la 39 40 CHAPTER 5. SIMULATION MONTE-CARLO taille de l’échantillon simulé, et d’autre part de la qualité du générateur de nombres aléatoires. L’élément clé à ce niveau est de disposer d’un générateur de nombres aléatoires uniformes entre 0 et 1 qui soit très performant ; en particulier il ne doit pas y avoir d’auto-corrélations entre ces nombres. Cette problématique constitue un pan important des mathématiques appliquées. Une fois une variable uniforme U engendrée, il y a plusieurs méthodes pour engendrer une variable aléatoire X de fonction densité f : • Inverse de la fonction de répartition : appelons F la fonction de répartition de X. Cette fonction appliquée à la variable X étant une variable uniforme U , on en déduit que l’on peut poser X = F −1 (U ). Cette méthode est la plus simple lorsqu’on dispose d’une forme explicite pour F . • Méthode de rejet : cette méthode est utile pour les variables à support compact et dont la fonction de densité reste bornée, mais dont la fonction de répartition ne s’exprime pas simplement. C’est par exemple le cas de la loi beta. Soit m tel que pour toute valeur de x, nous ayons f (x) < m. Nous simulons une réalisation de deux variables uniformes U sur [0,1] et V sur l’intervalle [0,m]. Si V < f (U ), on garde U et on pose X = U ; dans le cas inverse, on rejette U et on recommence. • Variables normales : elles sont au cœur de la modélisation en finance et requièrent une méthodologie spécifique car l’inverse de la fonction de répartition de la loi normale ne s’exprime pas à l’aide de fonctions élémentaires. Une première méthode consiste à trouver des approximations polynomiales de la fonction de répartition inverse de la loi normale. Une deuxième méthode consiste à engendrer √ deux variables aléatoires U1 et U2 et à utiliser la formule de Box-Muller X = −2 ln U1 cos(U2 ). 5.2 Méthodes de réduction de variance Lors de simulations Monte-Carlo, il y a une perte d’information due à la différence entre la loi théorique de la variable aléatoire considérée et l’histogramme des réalisations simulée de cette variable : • Si la loi possède des symétries, celles-ci sont généralement perdues dans l’histogramme des réalisations • L’échantillon aléatoire est toujours biaisé par rapport à la vraie distribution • Si les évènements qui contribuent le plus à la quantité que nous cherchons à calculer, même un grand nombre de simulation ne seront pas suffisantes pour estimer cette grandeur avec précision 5.2.1 Variables antithétiques La méthode des variables antithétiques a pour but de restaurer dans l’histogramme des réalisations de la variable aléatoire, la symétrie de la loi théorique de cette variable. Dans l’exemple d’une variable normale centrée réduite, la loi de probabilité possède une symétrie par rapport à la valeur 0. Ainsi, la densité de probabilité de réalisation de X et de −X sont égales. Un estimateur non biaisé de E [g(X)] est obtenu en 5.2. MÉTHODES DE RÉDUCTION DE VARIANCE 41 introduisant dans l’échantillon des réalisations toutes les variables antithétiques −X. L’estimateur non biaisé de cette espérance est : 1 X [g(Xi ) + g(−Xi )] 2N i Cela permet de doubler la taille de l’échantillon sans consommation en temps de calcul supplémentaire. L’efficacité de la méthode dépend bien sûr de la forme de la quantité à calculer. En particulier, si la fonction g est impaire, une seule simulation donnera le résultat exact, en l’occurence 0. Si cette fonction est paire, la méthode n’aura aucun intérêt car g(−X) = g(X). Entre ces deux situations extrêmes, la méthode des antithétiques est utile car elle restaure la symétrie de la loi de distribution dans l’échantillon des tirages à moindres frais. 5.2.2 Variable de contrôle Lors d’une simulation Monte-Carlo, soit on sur-estime le résultat, soit on le sous-estime. Dans certains cas, il est possible d’avoir une idée approximative de combien on sur-estime ou sous-estime le résultat. En effet, si on connaı̂t une quantité proche de celle que nous cherchons à estimer pour laquelle nous connaissions la vraie espérance, la méthode de Monte-Carlo nous permettrait de calculer l’erreur que nous commettons sur cette deuxième variable et donc d’avoir une idée de l’erreur commise sur la première variable. Supposons que nous souhaitions calculer l’espérance a = E [f (X)] dont une estimation est obtenue par P simulation Monte-Carlo â = i f (Xi )/N . Supposons qu’il existe une fonction g ”proche” de la fonction f , telle que nous sachions calculer exactement l’espérance b = E [g(X)]. A l’aide de l’échantillon ayant P servi à estimer a, on peut obtenir une estimation Monte-Carlo de b grâce à la formule : b̂ = i g(Xi )/N . Si l’estimation Monte Carlo sur-estime la quantité b, il y a des chances que ce soit également le cas pour a puisque les fonctions f et g sont proches. On peut donc corriger l’estimateur de a par une quantité proportionnelle à b − b̂. Notre estimateur corrigé s’écrit donc : ³ ´ ã = â + c b − b̂ Par construction, nous avons bien E [ã] = E [â] = a. Nous choisissons la quantité c de manière à minimiser la variance de l’estimateur corrigé var (ã). Le paramètre c est donc solution de l’équation suivante : ³ ´ ³ ´i d d h var (ã) = var (â) − 2c cov â, b̂ + c2 var b̂ = 0 dc dc La valeur optimale de c est donc donnée par : ³ ´ cov â, b̂ ³ ´ c= var b̂ Ainsi, conformément à l’intuition, plus les fonctions f et g sont ”proches”, plus les variables â et b̂ sont corrélées, et plus la correction à l’estimation sera importante et efficace. 42 5.2.3 CHAPTER 5. SIMULATION MONTE-CARLO Importance sampling Dans une grande majorité des cas, une fraction importante des simulations Monte-Carlo ne contribue que très peu au résultat d’estimation de la quantité qui nous intéresse. C’est en particulier le cas pour l’estimation d’événements rares. Dans ce cas, l’astuce consiste à effectuer un changement de probabilité et calculer notre espérance sous cette nouvelle probabilité sous laquelle les événements qui vont contribuer au résultat sont plus fréquents. Cette méthode repose sur la relation suivante : · ¸ Z Z f (Y ) f (y) h(y) dy = Ẽ g(Y ) E [g(X)] = g(x) f (x) dx = g(y) h(y) h(Y ) L’espérance sous la densité h de la variable corrigée de la dérivée de Radon-Nikodym est égale à l’espérance que nous recherchons ; en revanche, la variance de l’estimation sera plus faible que sous la densité f si nous choisissons un changement de probabilité approprié. Le choix de la nouvelle mesure de probabilité est dicté par la minimisation de la variance suivante : ( "µ ¶2 # ¸2 ) · f (Y ) f (Y ) g(Y ) g(Y ) − Ẽ min Ẽ h h(Y ) h(Y ) La minimisation de la variance ci-dessus requiert une optimisation fonctionnelle qui est très lourde en mettre en œuvre sauf dans de rarissimes cas simples. En pratique, nous limitons le choix des fonctions h parmi des lois normales centrées sur une valeur µ, variable sur laquelle porte l’optimisation. Il est également possible d’optimiser sur la variance σ 2 associé à la densité h, ce qui conduit à résoudre les équations suivantes (hµ,σ étant la densité de la loi normale centrée sur µ et d’écart type σ) : ½ ·³ h ´2 ¸ i2 ¾ f (Y ) f (Y ) ∂ − Ẽ hµ,σ (Y ) g(Y ) =0 ∂µ Ẽ hµ,σ (Y ) g(Y ) ∂ ∂σ ½ ·³ h ´2 ¸ i2 ¾ f (Y ) f (Y ) Ẽ hµ,σ (Y ) g(Y ) − Ẽ hµ,σ (Y ) g(Y ) =0 A titre d’exemple, nous pouvons considérer le calcul de la probabilité P [X ≤ s] pour s < 0 et X une variable normale centré réduite. Le résultat exact est bien-sûr donné par N (s), mais pour des seuils très négatifs, la méthode Monte-Carlo standard va s’avérer très imprécise car peu de tirages vont se retrouver en dessous du seuil s. Nous allons mettre en œuvre la méthode d’importance sampling et changer la √ densité f (x) = exp(−x2 /2)/ 2π par la densité : · ¸ 1 (x − µ)2 h(x) = √ exp − ) 2 2π Si la variable X a pour densité la fonction f et Y a la densité h, alors on a la relation suivante : i h £ ¤ 2 E 1{X≤s} = Ẽ 1{Y ≤s} eµ /2−µY Nous pouvons écrire la variance de l’estimateur sous la nouvelle mesure de probabilité : ÃZ !2 Z −x2 /2 2 2 2 1 e v(µ) = √ = N (s + µ)eµ − N (s)2 dx √ dx e−x e(x−µ) /2 · 1{x≤s} − · 1{x≤s} 2π 2π L’équation de maximisation de cette variance par rapport à la variable µ s’écrit : ´ 2 d ³ N (s + µ)eµ v ′ (µ) = 0 = dµ 43 5.2. MÉTHODES DE RÉDUCTION DE VARIANCE Dans la limite asymptotique (x → −∞), on peut montrer: 2 N (x) ∼ e−x /2 √ |x| 2π La démonstration de ce résultat s’obtient en développant la fonction N (x) en série au voisinage de −∞. Pour cela, on remarque que n′ (x) = −x n(x), ce qui nous permet d’effectuer un intégration par parties. Il vient alors : N (x) = = Rx −∞ Rx −∞ =− n(u) du un(u) u1 du Rx −∞ n′ (u) u1 du ¤x £ Rx = − n(u) u1 −∞ − −∞ n(u) u12 du = − n(x) x −O On démontre ainsi de manière itérative : N (x) ∼ − ³ n(x) x2 ´ n(x) n(x) n(x) + 3 − 5 + ... x x x On en déduit dans cette limite que la valeur optimale du changement de probabilité correspond à µ∗ ∼ s. Le changement optimal de probabilité revient à centrer la gaussienne au niveau du seuil sur lequel les événements ”intéressants” vont se produire. L’efficacité de la méthode d’importance sampling sera d’autant plus importante que le changement de probabilité sera visible. Dans notre exemple, plus le seuil s sera grand en valeur absolue, plus la valeur de µ∗ sera grande en valeur absolue. Dans la méthode de Monte-Carlo standard, le ratio signal sur bruit (ratio entre la valeur de l’espérance et l’incertitude) de l’estimation se calcule aisément : N (s) p √ N (s)(1 − N (s)) N ∼ p N (s)/N Dans la méthode d’importance sampling, ce ratio signal sur bruit s’écrit : p N (s) N (s) p ∼q ¡ ∼ 2|s|/N ¢ N.v (µ∗ ) N N (2s) es2 − N (s)2 L’efficacité de la méthode Monte Carlo dépend du seuil retenu car pour un échantillon de taille donnée, le nombre d’événements qui contribuent à l’espérance décroı̂t avec le seuil. Ce n’est plus le cas dans la méthode d’importance sampling. On peut introduire le facteur de qualité de la méthode d’importance sampling par rapport à la méthode de Monte-Carlo simple. En effet la variance de l’estimation dans la méthode de Monte-Carlo s’écrit : N.N (s).(1 − N (s)) Pour la méthode d’importance sampling, elle s’écrit : ³ ´ 2 N. N (2s)es − N (s)2 44 CHAPTER 5. SIMULATION MONTE-CARLO Le rapport entre la variance de l’estimation en Monte-Carlo et la variance en importance sampling indique le gain en termes de nombres de simulations apporté par l’importance sampling pour un niveau √ de précision donné. Ainsi, ce facteur qualité tend asymptotiquement vers 8π/n(s) , c’est-à-dire qu’il augmente exponentiellement à l’infini lorsque le seuil s’éloigne. Le facteur qualité que nous obtenons dans cet exemple dépend du seuil retenu de la façon suivante : 300 250 200 150 100 50 0 -3,5 -3 -2,5 -2 -1,5 -1 -0,5 0 Figure 5.1: Efficacité de la méthode d’importance sampling Chapter 6 Gestion du risque de crédit d’une banque 6.1 Le capital réglementaire Afin de protéger les déposants, premiers créanciers d’une banque et afin de se prémunir contre une crise financière majeure, chaque pays s’est doté de structures indépendantes - des régulateurs - qui surveillent la bonne santé du système financier. En France, ce rôle est assuré par la Commission Bancaire qui s’assure, par des audits, que les banques nationales satisfont à la réglementation bancaire. Le principe général de la réglementation bancaire est de requérir des réserves de la part des banques afin de couvrir les pertes éventuelles non anticipées, c’est à dire au delà de la perte attendue (la perte moyenne). Le but annoncé est double : d’une part protéger les déposants, les bailleurs de fonds des banques (et ne pas répercuter sur eux les pertes subies par la banque, créant un effet boule de neige), d’autre part créer des incitations suffisantes pour limiter les investissements risqués. Après quelques balbutiements, une concertation à l’échelle des pays de G10 a permis de parvenir à un consensus sur des premiers accords dits de Bâle qui régissent toutes les banques du G10, les soumettant ainsi à des règles communes. L’effet a été d’augmenter le niveau de capital détenu par les banques en face de leurs engagements, sécurisant un peu plus le système financier. Les premiers accords de Bâle (1988) ont été servis par leur simplicité, rendant leur implémentation plus aisée. Le principe est le suivant : chaque banque doit détenir un montant de capital égal à 8% du montant nominal de ses actifs. Les actifs concernés sont eux-même soumis à une pondération forfaitaire qui dépend uniquement du type de la contrepartie. Ainsi, pour un Etat Souverain membre de l’OCDE, la pondération sera de 0%, signifiant qu’aucun capital réglementaire n’est requis pour un engagement sur un pays membre de l’OCDE, par exemple la France, l’Italie, la Grèce Si la contrepartie est une banque d’un pays de l’OCDE, la pondération est de 20% (par exemple ABN AMRO, Société Générale, etc). Pour une entreprise, la pondération est de 100%. On appelle cette pondération le Risk Weight (RW) et les 45 46 CHAPTER 6. GESTION DU RISQUE DE CRÉDIT D’UNE BANQUE actifs pondérés les Risk Weighted Assets (RWA). On a donc : Regulatory Capital = 8% RW A Faisons un calcul simple de capital réglementaire afin d’illustrer cette règle. La Société Générale a prêté 100 euros. • 1er cas : la contrepartie est la Grèce. La pondération est de 0% et le capital réglementaire à détenir est de 8% x 0% x 100 = 0 euro. • 2ème cas : la contrepartie est la Deutsche Bank. La pondération est de 20% et le capital réglementaire à détenir est de 8% x 20% x 100 = 1.6 euros. • 3ème cas : la contrepartie est British Airways. La pondération est de 100% et le capital réglementaire à détenir est de 8% x 100% x 100 = 8 euros. Les accords de Bâle ont eu deux effets pervers. Premièrement, la pondération est forfaitaire et indépendante du risque réellement encouru. Deux entreprises l’une au bord de la faillite, l’autre en pleine santé seront pondérés de la même façon, ce qui pourrait pousser une banque peu prudente à prêter au plus risqué, à la recherche d’un rendement plus élevé. De même une banque Hong-Kongaise serait pondérée à 100% alors qu’une banque européenne serait pondérée à 20% fut-elle dans une situation financière délicate. Le deuxième effet pervers est qu’une pondération forfaitaire et aussi simple ne peut donner aucune incitation aux banques pour se doter de mesures de risques précises qui leur permettent de gérer efficacement leurs portefeuilles d’engagements. Un premier amendement est apparu en ce sens en 1991, autorisant les banques à utiliser leurs modèles internes pour calculer leur capital réglementaires suivant une méthodologie VaR dont nous reparlons dans le paragraphe suivant. Enfin et tout récemment, une pondération des actifs en accords avec le risque encouru a amené une refonte du calcul du capital réglementaire désormais encadré par les accords Bâle II, entrés en application en janvier 2008, malgré l’opposition de certains pays. 6.2 La mesure interne des risques Le capital réglementaire a été jusqu’à l’adoption des amendements de 1991 une mesure relativement sommaire. Par ailleurs, les amendements de 1991 ne concernent que les activités de marché, et non pas celles de crédit pur. Malgré la sophistication récente du calcul de capital réglementaire à travers Bâle II, celui-ci ne peut convenir comme mesure de risque satisfaisante au niveau de la banque. En effet, le capital réglementaire est une mesure additive. En conséquence, le capital réglementaire ne capture pas l’effet de diversification recherché par la banque pour équilibrer son portefeuille et que la VaR (Value at Risk) concernée par les amendements de 1991 valorise. La VaR va donc être déclinée aux portefeuilles de crédit comme mesure de risque interne sous le nom de Credit VaR. Au contraire des activités de marché qui sont constamment valorisée, la Credit VaR 47 6.2. LA MESURE INTERNE DES RISQUES sera un quantile sur la distribution des pertes sur le portefeuille de crédit et non plus un quantile sur la distribution des variations relatives de valorisation du portefeuille. Le Capital Economique, qui correspond au montant de fonds propres idéalement engagés par la banque en face de toute opération, est la différence entre la Credit VaR et la perte moyenne sur le portefeuille, celle-ci étant couverte par la facturation des produits vendus. ✁✂ Densité des pertes / Fonction de répartition (Portefeuille Vasicek) 18 ✄☎✆✝☎✞✟✠☎✡✡☎ 1,2 16 1 14 densité 12 0,8 10 0,6 8 6 0,4 4 0,2 2 0 ☛✁☞✌✝✁✍✎✏✟✡✟✑✌✒✓☎ 38 % % % Pe rte 35 32 29 % 26 % % % 23 % 20 17 14 % 8% 11 % 5% 2% Pe rte 0 Densité Cumulative Quantile Figure 6.1: Définition du capital économique Le rôle du capital économique est de protéger les créanciers de la banque avec un degré de confiance qui est déterminé par la direction financière de la banque. En effet, que la banque veuille s’assurer un rating A, AA ou encore AAA, le niveau de capital économique sera différent et correspondra à un fractile de perte de plus en plus proche du fractile 100%, au fur et à mesure que nous avancerons vers des ratings de bonne qualité. ✟✠✡✄✂☛ ☞✌✂✂✌ ✂✌✆✆✡✎ ✍✏✌✌✎✆✞ ✁✂✄☎✆ ✟✠✡✄✂☛ ☞✌✂✂✌ ✑✌✆✍✌✎✂✔✂✌✆✆✒✓✂ ✄ ✄✂✔ ✆✡ ✍✍✁✒✎✂✄✒✓✌✓✆✌✓✍ ✎ ✍✞✎✄✂✞✏ ✄✎✌✆✕✎✑✒✌✁✞✍ ✆✞ ✞ ✔✏✏✌✁✒✓ ✄ ✂✄ ✂✘✠✄✡✌✂ ✒✖ ✠✁✡✄✌✌✗ ✞✎✞✓ ✔ ✌✍✞✆✁✎ ✞✓ ✎✆✓ ✌✆✡ ✎✚✒✓ ✙ ✙ ✚✚ ✂ ✆ ✌✍ ✌✎ ✌ ✞✓ ✆ ✕ ✜✍✞✎✌✢✌✖✍✏✌✣✙✌✆✁✞✆✕✛ ✁✂✄☎✆ ✝✞✆✆✄☎ ✁✂✄☎✆ ✝✞✆✆✄☎ ✤✥✦✧★✩✪✧✫✬ ✫✬✦✭ ✪✳✴✥✫✥✵✦✲✬✧✮✦✩✥✲✵ ✹✲✭ ✶✧✮✮✭✵✯✷✩✰✷✱✸✷✥★ ✶✥✪✳ ✵✦✧✵✸ Figure 6.2: Le capital économique protège les cranciers dans 99.9% des cas Bien que la VaR ne soit pas une mesure sous additive, la mesure de risque Capital Economique va bénéficier de l’effet diversification du portefeuille de la banque. Cette propriété notamment implique un problème d’allocation de capital économique, ou de contribution dont nous reparlons dans le paragraphe dédié aux contributions et aux mesures de performance. On observera cependant l’intérêt de diversifier le portefeuille bancaire dans les dimensions géographiques, industrielles et, plus marginalement, temporelles. Le graphe suivant illustre l’effet diversification qui peut intervenir sur le calcul du capital économique au niveau du portefeuille. Sur ce graphe sont représentés -pour différents poids du portefeuille 1- le capital économique au niveau du portefeuille global composé des deux sous-portefeuilles P1 et P2, ainsi 48 CHAPTER 6. GESTION DU RISQUE DE CRÉDIT D’UNE BANQUE que EC1 + EC2, la somme des deux capitaux économiques qui seraient calculés sur chacun des deux portefeuilles séparément. Notons que la courbe EC1 + EC2 (une droite !) illustre parfaitement le calcul du capital réglementaire sur un ensemble de sous portefeuille. Une bonne règle de gestion du portefeuille consistera donc à rechercher la répartition qui minimise le capital économique au niveau du portefeuille P 1 ∪ P 2. Les mesures de performance dont nous reparlons ci-après fournissent une incitation suffisante à cela. Effet Diversification 0,09 0,08 EC 0,07 EC Total 0,06 EC1 + EC2 0,05 0,04 0,03 0% 20% 40% 60% 80% 100% Part Portefeuille 1 Figure 6.3: Effet diversifiant dans un portefeuille composé de deux sous-portefeuilles Le capital disponible va guider le montant des investissements possibles pour la banque. On va donc allouer à chaque ligne métier un certain montant de capital qui lui donnera des limites quant aux opérations qu’elle peut traiter. Or, nous l’avons vu, l’effet de diversification nous amène à nous poser la question de la contribution. En effet, dans notre exemple précédent, le capital économique au niveau du portefeuille est inférieur à la somme des capitaux économiques de chaque sous portefeuille. On va donc rechercher une règle de contribution telle que : Capital Economique (Portefeuille) = X Contribution Sous-Portefeuille Sous-Portefeuilles Nous présentons trois règles de répartitions possibles : • La contribution incrémentale : cette règle permet de définir la contribution de toute nouvelle opération sur le portefeuille d’engagement de la banque. Cette contribution se définit comme : Contribution(Opération)=Cap Eco (Portefeuille + Opération) - Cap Eco(Portefeuille) • La contribution marginale en covariance : la répartition se fait proportionnellement à la covariance entre les pertes sur l’opération et les pertes sur le portefeuille. Contribution(Opération) = cov(Li , L) Cap Eco (Portefeuille) var(L) • La contribution au quantile : quand la banque fait défaut, combien ai-je perdu sur mon opération, en espérance ? La répartition au quantile est la perte moyenne sur l’opération conditionnellement 49 6.2. LA MESURE INTERNE DES RISQUES au fait que la perte sur le portefeuille est égale à la perte au quantile choisi (soit perte moyenne + capital économique), ce qui se traduit ainsi lorsque le capital économique est calculé sur la base d’un quantile de perte à 99.9% : Contribution(Opération) = E[Li |LPortefeuille = Perte au quantile 99.9%] − E[Li ] La Credit VaR n’est pas une mesure de risque additive. Il est possible de construire un exemple certainement non-réaliste ! - pour lequel la Credit VaR sur un ensemble de deux sous portefeuilles sera supérieure à la somme des Credit VaR sur chacun des deux sous-portefeuilles. Par ailleurs, la Credit VaR ne donne que peu d’information sur la forme de la queue de distribution des pertes sur le portefeuille et ces deux considérations successives motivent la recherche d’une mesure de risque additive qui apporte un surplus d’information sur les risques extrêmes. Un candidat idéal est la Tail VaR (ou Expected Shortfall - ES) qui est la moyenne des pertes au delà de la Credit VaR : ESα = E[L|L ≥ Credit VaR(α)] et intègre comme nous pouvons le voir ci-dessous une information supplémentaire sur la forme de la queue de distribution par rapport à la Credit VaR. % 38 35 32 29 26 23 % 20 17 14 11 P Perte % 0 % 0 % 2 % 4 2 % 6 4 % 8 6 % 10 8 % 12 10 8% 14 12 5% 16 14 2% 16 er te densité Densité des pertes / Fonction de répartition (Portefeuille Vasicek) Densité ES Figure 6.4: L’expected Shortfall se définit comme une perte moyenne au dessus d’un quantile pré-défini Le capital économique est alors la différence entre la Tail VaR et la perte moyenne, soit : Cap Eco = Expected Shortfall - Perte Moyenne et on pourra adapter les règles de contribution vu précédemment au cas du calcul du capital économique en Expected Shortfall. Le choix d’une règle de contribution est un enjeu majeur pour une banque. Il détermine en effet la rentabilité d’une ligne métier et influe donc sur l’allocation stratégique des ressources de la banque décidée par la direction financière. 50 CHAPTER 6. GESTION DU RISQUE DE CRÉDIT D’UNE BANQUE 6.3 Les mesures de performance Une mesure de performance va permettre de réconcilier risque et profit et de comparer, sur une base commune, plusieurs portefeuilles ayant des caractéristiques différentes. Une mesure de performance intégrera donc : • les revenus attendus • les pertes attendues • la mesure de risque de l’opération • éventuellement le coût de rétribution des fonds propres La mesure de risque choisie peut être réglementaire (le capital réglementaire) ou interne (capital économique). Les mesures de performances sont le ROE (Return On Equity), le RAROC (Risk-Adjusted Return on Capital) et l’EVA (Economic Value Added). Dans chaque cas, elle doit relier des fonds mobilisés pour couvrir des pertes (le ”capital”) et les revenus espérés. L’une des mesures de performance les plus populaires est le RAROC (Risk Adjusted Return On Capital). Le RAROC se définit comme un rendement sur fonds propres et son expression est la suivante : RAROC = Revenus - Perte moyenne Capital économique Le capital est le capital économique requis par l’opération, c’est à dire la contribution de l’opération au capital économique total requis au niveau de la banque. Le RAROC, est une mesure interne de la performance qui va permettre de sélectionner les meilleurs projets. Deux remarques s’imposent. Premièrement, le niveau de capital retenu peut être le capital réglementaire qui sera exigé par le régulateur, surtout si celui-ci s’avère plus élevé que le capital économique de l’opération. Deuxièmement, on voit ici l’importance d’une règle d’attribution ”juste”. En effet, une répartition en covariance pourrait par exemple pénaliser des opérations dont le capital économique requis (par une règle de répartition en covariance) serait supérieur au capital économique requis par une règle de répartition au quantile, pénalisant de fait la ligne métier impliquée dans l’opération. Une seconde conséquence serait une mauvaise orientation de la banque dans ses choix d’investissement si celle-ci avait pour objectif de maximiser son RAROC au niveau global. Le RAROC s’exprime comme un rendement sur les fonds propres engagés par la banque dans l’opération. Il se veut donc une mesure de performance au service des actionnaires. Dans les revenus, on pourra inclure les revenus générés par l’opération auxquel on retranche les coûts sous-jacents (rétribution des intermédiaires financiers, etc). On devra donc, pour respecter le principe de mesure au service des actionnaires, retrancher aux revenus le coût de la dette. Celui-ci, en général, est faible pour une banque bien notée et sera omis de la formulation du RAROC. Le coût de rémunération des fonds propres est, en revanche, beaucoup plus élevé. Il compense en effet un risque plus important (dans le cas d’un capital économique à 99.9%, les fonds propres doivent couvrir les 51 6.3. LES MESURES DE PERFORMANCE pertes dans 99.9% des cas), et les revenus générés par une opération doivent être suffisants pour couvrir ce coût. Autrement dit, une opération dont le RAROC est inférieur au coût des fonds propres n’est pas rentable. On retiendra donc les opérations telles que : RAROC > k, avec k coût des fonds propres L’ordre de grandeur du coût du capital est autour de 10% pour les banques commerciales et 15% pour les banques d’investissement On dira que k est un hurdle rate, le seuil minimal requis pour une opération. Le pricing d’une opération (la tarification) doit en conséquence prendre en compte ce coût des fonds propres. Une opération est rentable lorsque son RAROC est supérieur au coût des fonds propres, soit : RAROC − k > 0 ⇐⇒ Revenus - Perte moyenne − k EC > 0 La quantité (Revenus - Perte moyenne − k EC) mesure la richesse créée pour l’actionnaire au-delà du rendement que celui-ci exige (le coût des fonds propres) en rémunération du risque porté. Alors que le RAROC est un pourcentage, l’EVA s’exprime en euros. Comme le RAROC, l’EVA est couramment utilisé pour mesurer la pertinence d’une opération. Notons que de la même façon que nous pouvons parler de contribution au capital économique, nous pouvons également parler de contribution à l’EVA comme : EV Ai = Revenusi − Perte moyennei − ki Cbi {z } | Coût du risque Nous avons souligné dans l’équation précédente que le coût des fonds propres diffère par ligne métier. Le calibrer est un exercice difficile et on considèrera que le coût des fonds propres est constant sur l’ensemble des activités de la banque. Par ailleurs, en raison de l’additivité des revenus et pertes moyennes, la maximisation de l’EVA incite à la minimisation du capital économique, celle-ci pouvant passer par une politique de diversification du portefeuille de la banque et de gestion du capital économique adéquate. EVA (Quantile 99.99 % ) 4,20% 14,00% 4,10% 12,00% 4,00% 10,00% 3,90% 8,00% 3,80% 6,00% 3,70% 4,00% 3,60% 2,00% 3,50% EVA EC RC 0,00% 0% 20% 40% 60% 80% 100% Figure 6.5: EVA et diversification. La recherche de l’EVA maximale passe par une diversification du portefeuille. 52 6.4 6.4.1 CHAPTER 6. GESTION DU RISQUE DE CRÉDIT D’UNE BANQUE La titrisation Description d’une opération de titrisation La titrisation est une opération qui consiste à transformer des actifs en titres financiers. Les actifs concernés sont assez variés et les plus courants sont les prêts hypothécaires, les encours de cartes de crédit (US), les prêts automobiles, les prêts étudiants ou encore une classe à part : les créances commerciales. Une entité fait l’interface entre les actifs et les titres financiers : le SPV (Special Purpose Vehicle) qui va porter à son bilan les prêts (ou autres) qui constituent le socle de l’opération de titrisation et sera financé au niveau de son passif par les titres financiers émis. Ces titres seront remboursés par les flux générés par l’amortissements des actifs titrisés. Prenons pour exemple des prêts automobiles émis par une division financière d’un constructeur automobile. Celui ci, voulant apurer son bilan et se re-financer rapidement afin de pouvoir proposer à nouveau des conditions avantageuses à ses clients, va faire appel à un structureur qui proposera dans un même temps le rachat des créances auprès du constructeur automobile (à des conditions négociées et permettant notamment la couverture partielle des pertes à venir) et recherchera des investisseurs auprès desquels placer les titres financiers émis conformes au couple rendement/risque recherché par ceux-ci, c’est à dire un couple Spread / Rating qui sera validé par les agences de notation. La première tranche (la plus risquée) est généralement gardée par le vendeur des créances. Pour deux raisons. Premièrement, pour une raison pratique : cette première tranche peut être gardée sous la forme d’une over-collatéralisation : le cédant (le vendeur des créances) apporte au SPV un surplus de créances non financées. Cette solution permet au cédant de ne pas monopoliser une somme fixe. Deuxièmement, la première tranche gardée par le cédant va rassurer les investisseurs sur la qualité des actifs puisqu’elle va absorber la majeure partie des pertes (ce qui permettra d’émettre des titres de meilleure qualité et d’obtenir par conséquent un coût de financement moindre). Cette première tranche incite également le cédant à rester impliqué dans la gestion des créances (notamment les impayés) bénéfique au bon déroulement de l’opération de titrisation une fois qu’elle est mise en place. La maturité de l’opération de titrisation peut être allongée en incluant une période dite de revolving (ou rechargement en franais) pendant laquelle le cédant s’engage à vendre au SPV de nouvelles créances à intervalles réguliers. Priorité des paiements et appurement des pertes : Lorsque des pertes sont constatées sur le panier de créances et qu’une réserve est en place ou que l’excess spread est suffisant, les pertes vont être apurées de la façon suivante. Après paiement des frais (fees) du trustee (le gérant de l’opération de titrisation), les liquidités disponibles servent à rembourser les porteurs de parts les plus prioritaires jusqu’à hauteur des pertes subies sur le pool. Ceci a pour conséquence plusieurs effets. Premièrement, on le voit, les porteurs de notes class A sont dans l’exemple suivant effectivement les mieux protégés. Deuxièmement, les porteurs de class A sont plus que les autres soumis à une incertitude sur le temps auquel leurs parts 53 6.4. LA TITRISATION seront remboursées, celles-ci sont remboursables par anticipation, générant un risque de réinvestissement qui se traduira par un spread plus élevé. Enfin, le niveau de protection des porteurs des tranches A défini comme le rehaussement de crédit va augmenter au cours de la durée de vie de la transaction. Les pertes sont apurées 3RROGH FU«DQFHV Class A Class A Class A Class B Class B ✁✂✄✄ 3RROGH FU«DQFHV Class D Pertes Subies ✁✂✄✄ Class D Les réserves servent à rembourser les porteurs de notes les plus Seniors (Class A) afin de rééquilibrer le bilan du SPV. Class B 3RROGH FU«DQFHV ✁✂✄✄ Class D Nouveau bilan du SPV Le réhaussement de crédit En plus de la structure que nous venons de voir qui protège en priorité les porteurs de notes Class A, plusieurs mécanismes additionnels peuvent (et vont) être mis en place afin de protéger les investisseurs et obtenir un financement à moindre coût. • Réserves : des réserves sont souvent apportées au conduit. Elles sont financées par le cédant et permettent de couvrir les premières pertes, c’est à dire rembourser les parts les plus séniors lors de défauts au sein du panier de créances. - Critères d’éligibilité : en cas d’opération revolving, des critères d’éligibilité encadrent fréquemment les conditions de rechargement, obligeant ainsi le cédant à fournir des créances de bonne qualité. • Triggers : lorsque l’opération est revolving, des triggers sur le taux de défaut au sein du panier de créances peuvent stopper la période de revolving, ou modifier la cascade des flux de paiement afin de diriger ceux-ci en priorité vers des réserves complémentaires. Des triggers peuvent également être mis en place sur le rating du servicer (ils’agit en général de l’institution qui a originé les prêts sous-jacents et qui s’occupe de recueillir les paiements d’intérêts et de principal, et de les transférer au SPV) ou du cédant. • Couvertures par des tiers : des contreparties tierces peuvent assurer une partie du panier de créances, ou un type de risque. En particulier la liquidité, via la mise en place d’une ligne de liquidité. La liquidité a un statut senior, et son remboursement prime sur la couverture des pertes sur le pool de créances. Intérêt, avantages et désavantages 54 CHAPTER 6. GESTION DU RISQUE DE CRÉDIT D’UNE BANQUE L’intérêt d’une opération de titrisation pour un vendeur est principalement l’accès à une nouvelle source de financement qui (sous réserve d’une structuration efficiente) est bon marché . Par ailleurs, dans le cas d’opération revolving, le cédant peut obtenir un financement dont la maturité moyenne est supérieure à la maturité moyenne de ses actifs. Pour un investisseur, l’attrait est principalement un spread beaucoup plus attractif que sur le marché corporate classique. Ces spreads traduisent la complexité du produit (et son manque de transparence parfois), le manque de liquidité du marché, ainsi que l’absence de produits de couverture standards. Enfin, en raison de la possibilité de remboursements anticipés, le spread inclus une composante risque de réinvestissement non nulle. 6.4.2 La titrisation au sein d’un conduit Certaines opérations de titrisation n’atteignent pas une taille critique qui leur ouvre les portes des marchés financiers. Ces opérations seront alors effectuées via un conduit qui rassemble plusieurs opérations de titrisation. Le conduit finance donc plusieurs opérations avec pour chacune leur structure propre et se refinance sur les marchés financiers à moindre coût. Le conduit bénéficie d’un sponsor qui amènera des protections supplémentaires aux investisseurs ayant acheté le papier commercial émis par celui-ci. Ces protections complémentaires sont une lettre de crédit et une ligne de liquidité. Par ailleurs, et pour des besoins de déconsolidation (traitement hors-bilan), il pourra y avoir mise en place d’une First Loss revendue à des investisseurs externes qui protègera le conduit contre les toutes premières pertes après épuisement des réserves. La lettre de crédit est une protection mise en place par le sponsor du conduit à l’attention des investisseurs. Son rôle est d’assumer les pertes sur les opérations au sein du conduit jusqu’à un certain montant. Cette protection est mutualisée dans le sens où elle est indifférente à l’origine de la perte et peut couvrir toutes les opérations du conduit. La ligne de liquidité est une réserve qui permet le versement des intérêts aux investisseurs lorsque les collections du conduit sont insuffisantes pour assurer le montant des intérêts contractuels. Le rôle de la ligne de liquidité est étendu par rapport à une opération de titrisation classique hors-conduit. De plus en plus apparaissent avec la nouvelle réglementation (Bâle II) des lignes de liquidité Fully Supported couvrant tous types de risques, l’investisseur demeurant alors en risque sur le sponsor seulement. Par exemple, pour un conduit sponsorisé par la Société Générale avec des lignes de liquidité Fully Supported, l’investisseur ne peut subir des pertes qui si les pertes sur le conduit sont importantes et qu’en même temps la Société Générale est en faillite. La lettre de crédit est une protection commune à toutes les transactions du conduit. Elle est complétée par des lignes de liquidité qui peuvent être tirées au niveau de chaque opération. Au niveau de chaque transaction, la lettre de crédit se comporte comme une tranche mezzanine de position relativement junior. Celle-ci étant commune à toutes les transaction du conduit, elle va servir 6.4. LA TITRISATION 55 Figure 6.6: La lettre de crédit est une protection commune à toutes les transactions du conduit de protection efficace contre les pertes pouvant intervenir sur chacune des transactions. Si par contre les transactions présentes dans le conduit génèrent simultanément des pertes, la lettre de crédit sera rapidement saturée est des pertes devront être reportées sur les investisseurs, à moins que les transactions ne soient toutes fully supported, auquel cas le sponsor -la banque- apurera les pertes pour le compte des investisseurs. Moyennant ces protections, les conduits émettent un papier commercial très bien noté par les agences de ratings, tout en bénéficiant de spreads élevés propres aux opérations de titrisation (et en facturant des frais de gestion). L’écart entre les spread moyen sur les transactions du conduit et le taux de refinancement sur les marchés (quelques bp au dessus des taux de référence) font des conduits des opérations lucratives. 56 CHAPTER 6. GESTION DU RISQUE DE CRÉDIT D’UNE BANQUE Bibliography [1] Artzner, P. et al., Coherent measures of risk, Mathematical finance, 9, 203-228 (1999). [2] Arvanitis, A. and J. Gregory, A credit risk toolbox, Risk, December, 50-5 (1999). [3] BIS (2004), International convergence of capital measurement and capital standards. [4] Black, F. et Scholes, M., The pricing of options and corporate liabilities, The Journal of Political Economy, Vol. 81, 3, pp. 637-654 (1973). [5] Bluhm C., L. Overbeck and C. Wagner, An introduction to credit risk modeling, Chapman & Hall / CRC (2002). [6] Bouchaud, JP. et Potters, M., Theory of Financial Risk and Derivative Pricing, Cambridge University Press (2003). [7] Crouhy, M., D. Galai and R. Mark, Prototype risk rating system, Journal of Banking & Finance, 25, 41-95 (2001). [8] Crouhy, M., D. Galai and R. Mark, Risk management, McGraw-Hill, 2001. [9] Embrechts et al., Modeling Extremal Events for Insurance and Finance, Springer, New-York (1997). [10] Gordy M. and D. Jones, Random tranches, Risk, March, 78-83 (2003). [11] Gourieroux C., JP Laurent and O. Scaillet, Sensitivity analysis of values at risk, Journal of Empirical Finance 7, 225-245 (2000). [12] Leland, H., Corporate Debt Value, Bond Covenants, and Optimal Capital Structure, The Journal of Finance, Vol. 49, Issue 4, 1213-1252 (1994). [13] Matten, C., Managing bank capital : capital allocation and performance measurement, John Wiley & sons (1996). [14] Merton, R., On the Pricing of Corporate Debt: The Risk Structure of Interest Rates, The Journal of Finance, Vol. 29, Issue 2, 449-470 (1974). [15] Moody’s (2000), The lognormal method applied to ABS analysis, Special report. 57 58 BIBLIOGRAPHY [16] Ong, M., Internal credit risk models : capital allocation and performance measurement, Risk books (2000). [17] Punjabi, S., Many happy returns, Risk, June, pp. 71-6 (1998). [18] Pykhtin M. and Dev A. (2002), Credit risk in asset securitizations: an analytical approach, Risk, May, S16-S20. [19] Resnick, S.I. (1987) Extreme Values, Regular Variation and Point Processes, Springer, New-York. [20] Standard and Poor’s, Trade receivables criteria. [21] Vasicek O. (1991), Limiting loan loss probability distribution, KMV Corporation. [22] Wang, S., A Risk Measure That Goes Beyond Coherence. [23] Wang, S., V.R. Young, et H.H. Panjer : Axiomatic Characterization Of Insurance Prices, Insurance: Mathematics and Economics, 21:173-183 (1997). [24] Zaik, E., J. Walter, G. Kelling and C. James, RAROC at bank of America : from theory to practice, Journal of applied corporate finance 9, pp.83-93 (1996).