Corps de l’article

Introduction

Le titre de cette conférence : économétrie de la finance, peut laisser croire qu’il existe une économétrie, c’est-à-dire des approches de modélisation, de prévision ou des inférences statistiques propres à ce domaine d’application. En fait, il n’en est rien. Les questions posées sont classiques et anciennes : comment choisir ses consommations d’actifs financiers, c’est-à-dire ses compositions de portefeuilles? Comment fixer son offre d’actifs, de crédits? Comment gérer de façon cohérente l’ensemble du processus de production? Quelle interprétation donner à des prix? À la notion d’équilibre? À celle de liquidité?

Cependant le développement rapide des marchés, leur informatisation poussée, la constitution de bases de données importantes et détaillées, la nécessité de décisions rapides (mises à jour de portefeuille très fréquentes ou accord de crédit par internet) ont conduit à approfondir ou revoir les réponses données auparavant à ces questions.

Je pouvais illustrer ces points de deux façons différentes soit par un historique de l’économétrie de la finance, soit en expliquant comment l’économétrie abordait une question précise.

1. Historique

La première approche consisterait en un historique des questions particulièrement étudiées en finance et des réponses apportées. Ceci donnerait cependant une impression trompeuse d’instabilité de thèmes et de manque de cohérence. En effet, l’économétrie de la finance n’est qu’un outil et suit les développements de son domaine d’application (beaucoup plus que ne le fait par exemple la théorie financière).

Régulièrement apparaissent de nouvelles questions, le besoin de leur apporter rapidement des réponses, même incomplètes. Les techniques statistiques s’adaptent, ou sont créées pour cela, avant que n’apparaisse une nouvelle question jugée importante sur un sujet parfois très différent. Ce qui est souvent appelé « effet de mode » n’est qu’une conséquence du développement rapide du domaine et des choix de questions à résoudre en fonction d’un potentiel de recherche-développement limité, mais très adaptable. Le plan d’une telle présentation pourrait être résumé dans le tableau 1 qui donne en fonction des besoins financiers, les méthodes économétriques développées. À chaque fois sont indiquées la date d’apparition véritable du problème financier et la période pendant laquelle est traité celui-ci pour sa partie économétrique.

2. Risque de crédit

En fait, il me paraît préférable dans la suite de l’exposé de me concentrer sur une question actuellement étudiée concernant le risque de crédit, c’est-à-dire le non-remboursement de ses dettes par un emprunteur défaillant. Il s’agit ici encore d’une question ancienne, qui a conduit dans les années quatre-vingt à la mise en place systématique de notations (scoring ou rating) donnant une idée de la probabilité de défaut anticipée (et des pertes potentielles). Ces notations sont depuis très largement utilisées à la fois pour l’attribution des crédits aux particuliers (lignes de crédit, crédits consommation, crédits hypothécaires, prêts de gré à gré aux entreprises) que pour la valorisation des portefeuilles obligataires (une obligation étant un crédit entreprise financé par le marché). Le nouvel intérêt dans le risque de crédit résulte de la décision des régulateurs (Comité de Bâle) de modifier le calcul des réserves, que doivent constituer les banques pour couvrir le risque inclus dans leurs portefeuilles de crédits. Cette décision a été prise avec une date limite de mise en place, actuellement 2006. L’existence d’une date limite (même un peu ajustable), la peur des risques et l’importance des sommes en jeu expliquent la proportion importante des services de recherche-développement des banques et des centres de recherche académiques actuellement impliqués sur ce sujet.

Tableau 1

Historique de l’économétrie de la finance

Historique de l’économétrie de la finance

-> Voir la liste des tableaux

Ce thème est en fait très large, même si on se restreint aux grandes entreprises. Il demande :

  1. une analyse détaillée des défaillances d’entreprise;

    Il s’agit a priori d’un problème microéconométrique, sauf que ces défaillances peuvent être liées entre elles : faillites en chaîne pouvant avoir des implications au niveau macroéconomique et induire des cycles, ou à l’inverse effets macroéconomiques pouvant augmenter globalement les probabilités de défaut.

  2. une analyse détaillée des prix d’obligations;

    Il s’agit d’analyser les structures par terme de taux d’intérêt pour les diverses entreprises, leurs ressemblances, leurs évolutions... et si elles sont ou non reliées aux structures par terme des taux sans risque, correspondant aux obligations émises par le Trésor.

  3. un moyen de relier les taux de défaillance historiques et les différentiels de taux d’intérêt observés sur le marché;

    La mise à disposition d’un modèle cohérent pour ces analyses est certainement le besoin principal.

  4. une définition acceptable par tous de la valeur d’un portefeuille de crédit;

    En effet, diverses notions de valeurs ont été utilisées dans le passé (valeur comptable, valeur de marché, valeur actuarielle) et se révèlent peu cohérentes.

  5. une méthodologie pour déterminer les réserves sur la base de la distribution de valeur du portefeuille (VaR de credit);

  6. l’étude des procédures de recouvrement.

    Les pertes potentielles dépendent en effet des dates et probabilités de défaut, mais aussi de la proportion de la dette qui pourra être récupérée et des conditions de cette récupération.

3. Analyse des défaillances d’entreprises

3.1 Structure par terme des notes

L’idée initiale était d’attribuer à chaque entreprise une note quantitative (score) ou qualitative (rating) fournissant une indication sur son risque supposé. Cependant, l’analyse par classe de rating des intensités de défaut aux divers termes a rapidement montré qu’une seule note apparaît insuffisante pour décrire le phénomène (voir graphique 1). En effet une entreprise peut avoir des problèmes transitoires de trésorerie, mais être globalement saine. Elle apparaît alors comme un mauvais risque à court terme, mais un meilleur risque à long terme. Ceci conduirait le prêteur à proposer par exemple une renégociation de dette. À l’inverse une entreprise peut remplir ses obligations de remboursements à court terme, tout en étant fondamentalement en mauvaise santé. Seuls des prêts à court terme peuvent lui être attribués sans trop de risque.

Graphique 1

Intensités de défaut par rating

Intensités de défaut par rating

-> Voir la liste des figures

Il y a donc nécessité de proposer non une note par entreprise, mais plusieurs selon le terme court, moyen, long[1].

Ce besoin apparaît clairement sur le graphique 1, où la courbe d’intensité de défaut par terme correspondant à la classe très risquée CCC (ou 1 en terme de distance au défaut) passe assez rapidement en dessous des courbes correspondant aux meilleures classes BBB ou A (6 et 7 en terme de distance au défaut). Cette observation est due au phénomène classique, dit mobile-stable. La classe des emprunteurs très risqués est très hétérogène comportant à la fois un grand nombre d’entreprises très risquées et quelques autres qui le sont peu. Avec le temps, les entreprises les plus risquées vont disparaître augmentant la proportion des meilleurs risques et diminuant l’intensité de défaut dans la population survivante (dite Population à Risque, PaR).

Une question est alors la suivante : à partir de la situation actuelle où est essentiellement présentée une seule note de référence, peut-on réussir assez facilement à construire une structure par terme de notes? Une réponse naturelle est de construire ces notes différenciées par terme en utilisant l’historique des notes de référence d’une entreprise. Intuitivement pour une entreprise actuellement notée AA, l’opinion sur ses intensités de défaut aux divers termes ne devrait pas être la même si ses notes précédentes sont AA,AA, si elles sont AAA,AAA, ou si elles sont BBB,A.

3.2 Corrélation de défaut

Par ailleurs les portefeuilles détenus par les banques incluent les crédits de plusieurs emprunteurs, dont les défaillances ne sont pas indépendantes entre elles. Supposer l’indépendance ou une dépendance totale, la défaillance d’une firme impliquant celle de toutes les autres, constituent des spécifications extrêmes, qui conduisent en pratique à de fortes sous-estimations ou surestimations des réserves nécessaires.

L’idée la plus naturelle est d’utiliser la seule loi multivariée simple connue de tous, c’est-à-dire la loi normale et donc de caractériser la dépendance par l’intermédiaire de corrélations. Cette approche se révèle cependant inadaptée, car la notion de défaut (qualitative), ou de date de défaut (durée) se prête mal à une spécification gaussienne, c’est-à-dire linéaire des liaisons.

Ceci a conduit les chercheurs à remettre au goût du jour la notion de copule, initialement introduite à la fin des années cinquante. Rappelons que si Y1, ..., Yn désignent les dates de défaut des n firmes, leur fonction de survie jointe peut être écrite (Théorème de Sklar) :

Sj(yj) = P(Yj > yj) est la fonction de survie marginale de Yj, et C la fonction copule, qui résume toute la dépendance entre variables de durées, invariante par transformation croissante (en particulier par changement de l’échelle de temps). Diverses questions se sont alors posées :

Existe-t-il des familles de copules paramétriques ou non paramétriques maniables? Si oui, admettent-elles des interprétations intéressantes pour l’application au défaut? Peut-on les rendre cohérentes vis-à-vis de la taille n du portefeuille et éventuellement leur trouver des approximations simples pour les portefeuilles de grande taille n? Comment les estimer à partir des données historiques disponibles sur la défaillance?

Il existe des réponses partielles à ces questions. Par exemple une interprétation intéressante de certains copules repose sur le théorème de de Finetti.

Théorème de de Finetti : Si les variables Y1, ..., Yn mesurent la survenance du défaut : Yi = 1, 0, sinon, et non sa date précise d’arrivée. Si de plus le portefeuille est homogène, c’est-à-dire si la loi de Y1, ..., Yn est symétrique, et si n est grand, alors nécessairement il existe un facteur sous-jacent Z tel que, conditionnellement à Z, les variables Y1, ..., Yn, sont indépendantes de même loi de Bernoulli B(1, Z).

Ainsi pour n grand, toute dépendance ne pourrait provenir que d’un facteur commun sous-jacent. De plus, l’hypothèse d’indépendance et d’équidistribution serait satisfaite conditionnellement à Z.

Cette idée de facteur sous-jacent créant toute la dépendance est à la base de la plupart des modèles de corrélation de défaut actuellement considérés dans la littérature. Ces modèles sont dits à risque de défaut conditionnellement diversifiable. Ils peuvent reposer sur un petit nombre de facteurs indépendant du temps conduisant aux copules de type Archimédien ou à des facteurs variant dans le temps dans les modèles de défaut, dits à intensité stochastique.

4. Analyse des prix d’obligations

4.1 Analogie valeurs-probabilités

Les prix des obligations du Trésor sont caractérisés par la structure par terme des taux d’intérêt sans risque. Plus précisément, notons B(t, t + h) le prix à la date t d’un zéro-coupon de maturité résiduelle h, payant 1 $ de façon sûre à la date t + h. Le taux (géométrique) de terme h est alors :

La structure par terme sans risque à la date t associe à chaque terme h la valeur r(t, t + h) du taux d’intérêt correspondant.

Des structures par terme peuvent de façon analogue être introduites pour chaque firme empruntant sur le marché. Cependant le zéro-coupon de maturité résiduelle h n’assure plus 1 $ certain, mais 1 $ si la firme existe à la date t + h, 0, sinon (en supposant un taux de recouvrement nul). En fait le paiement devient incertain égal à forme: 010560aro001n.pngforme: 010560aro002n.png désigne une fonction indicatrice et Yi est la date de défaillance (incertaine) de la firme i. Sous des hypothèses classiques, le prix du zéro-coupon de cette entreprise s’écrit :

Qt désigne une probabilité de valorisation (ou probabilité risque-neutre) calculée conditionnellement à l’information disponible à la date t. La relation (3) permet d’établir une liaison entre des notions probabilistes : fonction de survie, ou intensité et des valorisations (prix ou différentiels de taux). Ainsi :

apparaît comme le différentiel (spread) de taux entre l’obligation d’entreprise et l’obligation d’état.

En faisant tendre le terme h vers zéro, on obtient aussi une analogie entre l’intensité infinitésimale de défaut et le différentiel de taux infinitésimal.

4.2 Corrélation de défaut et intensité

Évidemment l’idée de corrélation de défaut entre les diverses entreprises existe aussi dans le monde risque-neutre (virtuel). Il est important de comprendre quel peut être l’impact de cette dépendance sur les structures par terme de taux d’intérêt. Considérons, pour simplifier, le cas de deux firmes et supposons que l’information disponible à la date t ne comprenne que les historiques de défaut. Il y a alors diverses façons de calculer la structure par terme de la firme 1 à la date t, supposant évidemment cette firme en vie à la date de calcul :

  1. si la firme 2 est aussi en vie, on a :

    equation: 010560are005n.png

  2. si la firme 2 a fait défaut à une date antérieure t – k, k > 0 :

    equation: 010560are006n.png

Ainsi si la firme fait défaut à la date t, le différentiel de taux juste avant la défaillance est :

En revanche le différentiel de taux juste après la défaillance est :

Il n’y a aucune raison pour que ces deux différentiels de taux coïncident. En fait, on sait qu’il y a un saut dans les différentiels de taux au moment du défaut si et seulement s’il existe une corrélation (infinitésimale) de défaut à cette date. De façon plus précise la modification du différentiel est du type :

où ∞ signifie qu’il existe un coefficient de proportionalité positif.

4.3 Effet de l’ensemble d’information

La relation (5) montre le rôle essentiel joué par les corrélations instantanées de défaut. Or, la valeur d’une corrélation dépend beaucoup de l’information utilisée pour son calcul. Ceci résulte de l’équation d’analyse de la covariance qui permet de décomposer la covariance marginale entre deux variables à partir des covariances et espérances conditionnelles :

I désignerait l’information. L’existence d’une composante prenant en compte les liaisons « interclasses » montre qu’il n’y a pas de relation simple entre covariances marginale et conditionnelle. Il peut y avoir non-corrélation conditionnelle et corrélation marginale, ou aussi bien l’inverse, lorsque les deux termes de la décomposition se compensent.

Le choix de l’information disponible va donc se révéler crucial pour l’analyse du risque de défaut, puisqu’elle influe sur les corrélations infinitésimales de défaut, donc sur les sauts éventuels d’intensité et leur amplitude, et finalement sur les niveaux et formes des structures par terme.

Un exemple classique de cet effet est le modèle de valeur de la firme initialement introduit par Merton (1974). Dans ce modèle, la défaillance se produit lorsque le montant des dettes de la firme dépasse les valeurs de ses actifs, soit avec des notations évidentes :

Il s’agit d’une définition structurelle de la date de défaut à partir des données de bilan sous-jacentes. Les conséquences de cette interprétation de la date de défaillance dépendent de façon importante de l’information. Si les données de bilan sont supposées observables en continu et évoluant sans saut, la date de défaut se révèle prévisible en observant l’écart à zéro de A-D. Ainsi la défaillance de la firme 1 n’apporte pas d’information supplémentaire par rapport à celle contenue dans le bilan, n’entraîne pas de discontinuité dans l’information et de saut dans les intensités de défaillance des autres firmes. La situation est inverse lorsque la composante de dette n’est pas observable par exemple ou est difficilement prévisible. C’est ce manque d’information qui crée les sauts dans l’information et les sauts des différentiels de taux.

À titre d’exemple de tels sauts, nous donnons dans le graphique 2 des structures par terme de différentiels de prix zéro-coupon, de différentiels de taux ainsi que l’évolution temporelle du différentiel de taux courts. La simulation correspond à un modèle, où les intensités de défaut de chacune des firmes sont à hasard proportionnel avec un coefficient de proportionnalité, dépendent de la firme considérée et de la situation de la seconde firme (en vie ou en faillite). La fonction de hasard de base est choisie de type λ0(t) = (1 + t)-0,3, les coefficients de proportionalité sont r1 = 0,01 et r2 = 0,02 pour chaque graphique lorsque l’autre est encore en vie. Il devient r*1 pour la première firme lorsque la seconde est en faillite. Le graphique 2A fournit les structures par terme des taux pour la firme 1 en fonction du niveau r*1. Ceci montre que l’importance du saut de l’intensité a une influence importante sur la forme de la structure par terme conduisant par exemple à des bosses sur le différentiel de taux. Le graphique 2B donne la forme du taux court pour la firme 1, lorsque la firme 2 défaille avant la firme 1.

Graphique 2A

Structure par terme

Structure par terme

-> Voir la liste des figures

Graphique 2B

Évolution de taux court

Évolution de taux court

-> Voir la liste des figures

5. Défaillance historique et prix des obligations

5.1 Une démarche intégrée

Nous avons vu comment les données historiques de défaillance peuvent être utilisées pour prévoir celles-ci par l’intermédiaire de la mise en place de notations. Par ailleurs, nous avons aussi discuté le prix de la défaillance et son analyse par l’intermédiaire des prix d’obligation. Ces approches paraissent cependant disjointes, utilisent l’une les données individuelles sur les firmes, l’autre des données de marché; l’une cherche à reconstituer la loi historique des dates de défaut, l’autre une loi risque-neutre.

Il est intéressant de voir si ces deux approches peuvent être appliquées conjointement. En effet, ceci permettrait d’une part d’utiliser des données de marché pour prévoir la défaillance, d’autre part des bases de données microéconomiques pour étudier des prix d’actif financiers. Il faut pour cela relier probabilités historique et risque-neutre. Cette liaison repose sur le concept de facteur d’escompte stochastique.

Plus précisément une méthode de valorisation devrait satisfaire certaines conditions, résultant dans le cas de marchés liquides de la condition d’absence d’opportunité d’arbitrage et qui, dans le cas de marchés incomplets, ne conduirait pas à des stratégies trop risquées de la part des entreprises utilisant cette technique de valorisation. Si nous désignons par Ct(g) le prix à la date t d’un actif versant gt+1 à la date t + 1, l’opérateur de prix gt+1Ct(gt+1) peut être supposé linéaire, positif. Sous ces conditions (plus quelques contraintes de régularité), il peut être écrit sous une forme d’espérance :

où Et désigne l’espérance conditionnelle par rapport à la probabilité historique et Mt, t+1 est une fonction de l’information disponible à la date t + 1, appelée facteur d’escompte stochastique. Le facteur explique comment corriger du risque et de l’effet temps pour calculer les prix. La formule de valorisation peut être étendue à des dérivés européens à horizon quelconque donnant un flux de paiement gt+1. En introduisant une condition de cohérence temporelle résultant d’une absence d’opportunité d’arbitrage dynamique lorsque les marchés sont liquides, on montre que le prix en t du dérivé correspond à un facteur d’escompte stochastique Mt, t+t, h produit des facteurs d’escompte de court terme :

La formulation par facteur d’escompte stochastique peut être utilisée pour valoriser les divers produits obligataires. Nous avons :

Ainsi une modélisation cohérente peut être développée en suivant la démarche ci-dessous.

  1. Définir des variables sous-jacentes (facteurs ou variables d’état) Zt, dont l’observation résume l’information disponible forme: 010560aro003n.png

  2. Spécifier le facteur d’escompte comme fonction de ces facteurs :

  1. Spécifier la fonction d’intensité de survie conditionnelle aux facteurs :

  1. Donner les expressions des prix de zéro-coupons à partir du processus factoriel :

et celle des survies historiques :

  1. Spécifier la loi conditionnelle des facteurs, calculer ces prix et les survies historiques.

Il s’agit d’une démarche intégrée, qui montre bien les analogies entre facteur d’escompte et intensité de survie.

5.2 Spécifications affines

Sa mise en oeuvre demande des choix appropriés des fonctions d’escompte, d’intensité et de la dynamique factorielle. Une solution a été obtenue, qui consiste à retenir des formes exponentielles affines des fonctions m et πi :

et une dynamique Markovienne du facteur définie par l’intermédiaire d’une transformée de Laplace conditionnelle, supposée aussi exponentielle affine :

De tels processus sont dits affines ou autorégressifs composés (CAR) dans la littérature. Sous ces conditions (17)-(19), les prix de zéro-coupons et les survies historiques peuvent être explicitement calculés. En fait, les structures par terme de taux associées sont du type :

où les coefficients A(h), B(h) ... satisfont des équations récursives simples à utiliser. On obtient ainsi des modèles affines de taux d’intérêt, à partir desquels il est facile de décomposer la structure par terme des différentiels de taux pour faire apparaître la probabilité de défaut historique et sa correction pour risque. Le graphique 3 fournit un exemple de telle décomposition pour un portefeuille de crédits. Le différentiel de taux apparaît comme une somme de trois composantes reflétant i) l’effet marginal des défauts, ii) l’effet de la corrélation de défaut, iii) l’effet de la corrélation entre défaut et facteur d’escompte.

Graphique 3

Décomposition du différentiel de taux

Décomposition du différentiel de taux

Cas d’un portefeuille

Composante du spread (plein), effet marginal du défaut (grands p), corrélation de défaut (petits p), corrélation défaut-SDF (mélange)

-> Voir la liste des figures

6. Notion de valeur

6.1 Diverses notions concurrentes

Considérons un portefeuille de prêts (obligations) à revenu fixe, correspondant à divers emprunteurs i = 1, ..., n. Les flux de paiement contractuels pour l’emprunteur i sont notés Fi, t+h, h = 1, ..., H. Ils sont effectivement reçus à la date prévue s’il n’y a pas défaillance; sinon nous supposerons, pour la présentation, un flux nul, c’est-à-dire un taux de recouvrement nul.

Diverses notions de valeurs sont utilisées dans la littérature théorique ou dans la pratique afin de calculer les réserves.

  1. Valeurs de marchés

Lorsque les prêts (obligations) sont échangés sur un marché secondaire, supposé actif et liquide, on peut observer des valeurs de marché : Vit(Fi, t+1, ..., Fi, t+h) = Vit de chacun des prêts. Ces valeurs devraient inclure le risque de taux et le risque de défaut, si les marchés sont suffisamment efficients. La valeur de marché du portefeuille est alors :

L’incertitude sur la valeur future du portefeuille provient essentiellement de l’incertitude sur l’évolution future de ces valeurs. Notons cependant que, contrairement à la pratique standard, on ne peut ici supposer une loi continue pour les valeurs futures. En effet cette loi devrait comporter des masses discrètes sur les valeurs nulles pour traduire la possibilité de défaut.

  1. Valeur risque-neutre

Cependant les obligations des grandes entreprises, bien qu’échangées sur un marché organisé, se révèlent souvent peu liquides. Ceci rend certains prix de marché peu fiables. On peut alors chercher à reconstituer des valeurs cohérentes sous-jacentes en utilisant une approche de valorisation par probabilité risque-neutre. La valeur du portefeuille est alors définie par :

Cette approche nécessite des observations des prix zéro-coupon sans risque et un modèle pour reconstituer les probabilités risque-neutre de défauts (voir par exemple le modèle par facteur d’escompte stochastique introduit au paragraphe 5). Ce modèle peut être estimé à partir à la fois de données individuelles sur les défaillances observées historiquement et de données de prix d’obligations retenus lorsque ces obligations sont suffisamment liquides.

  1. Valeur actuarielle

Il existe cependant de nombreux emprunteurs, dont aucun emprunt n’est ensuite échangé sur un marché secondaire. C’est notamment le cas des ménages[2] (prêts consommation, lignes de crédit, prêts hypothécaires). Dans ce cas, il n’est plus possible d’identifier la correction à introduire pour le risque et il est usuel de valoriser par l’intermédiaire de la probabilité historique. La formule actuarielle est :

  1. Encours

Finalement les normes comptables et les régulateurs suggèrent d’évaluer les prêts non échangeables à leur valeur de remboursement contractuelle (ou encours, ou capital restant dû (CRD)). La valeur comptable est alors :

6.2 Les inconvénients de l’approche comptable

Il est à ce niveau important de discuter l’approche comptable mise en place à une époque, où il n’y avait pas de marché secondaire pour le crédit de détail, de refinancement par le marché (titrisation), ou de remboursement anticipé par les emprunteurs. Pour cela, il nous faut revenir sur les caractéristiques d’un crédit, disons par exemple un crédit particulier.

Le montant emprunté, la durée et les mensualités ne sont pas les seuls éléments, qui définissent un crédit. En effet, les crédits comportent des clauses de remboursement anticipé qui nécessitent une définition précise du capital restant dû à l’échéance de chacune des mensualités (le remboursement anticipé éventuel du crédit consistant en un remboursement de ce capital restant dû augmenté éventuellement de pénalités contractuelles). La définition du capital restant dû passe par une différenciation pour chaque mensualité de la part d’intérêt et de la part de remboursement de capital qui la constitue. Afin de formaliser ce qui vient d’être dit, notons :

  • H, la maturité du crédit,

  • γh, h = 1, ..., H, les taux contractuels pour les diverses échéances (mois),

  • mh, h = 1, ..., H, les paiements aux diverses échéances,

  • CRDh, h = 1, ..., H, la valeur de remboursement à l’échéance h.

Ces diverses caractéristiques sont liées par les relations actuarielles :

et les conditions terminales :

  • condition initiale : CRD0 = montant du crédit,

  • condition terminale : CRDH = 0 (et CRDH-1 > 0).

On remarque bien que la connaissance de la maturité H et des mensualités mh, h = 1,..., H ne suffit pas à fixer sans ambiguïté la suite des taux contractuels et celle des valeurs de remboursement. Comme la relation actuarielle (27) peut être réécrite comme :

on voit apparaître la décomposition de la mensualité entre paiement des intérêts Ih et remboursement du capital Ph. Ainsi, pour être complètement défini, un contrat de crédit (ou une obligation) doit préciser :

  • l’échéancier de remboursement : H et mh, h = 1, ..., H

  • et les conditions de remboursement anticipé CRDh, h = 1,..., H.

La répartition entre intérêt et principal étant fixée en partie par l’organisme prêteur[3], on voit immédiatement le danger d’assimiler cette composante « capital restant dû » à la valeur résiduelle du crédit.

À titre d’illustration considérons trois contrats de maturité 2, de même montant initial 1 000, avec des mensualités constantes m = m1 = m2 = 538, identiques pour les trois contrats. Ces crédits ne se distinguent que par la suite des taux contractuels et des valeurs de remboursement intermédiaires. Ceux-ci satisfont :

Le premier contrat est à taux contractuel constant : γ1 = γ2. On a alors :

Le deuxième contrat est un contrat sans paiement d’intérêt à la période 1 : γ1 = 0. On a :

Le dernier contrat est sans paiement d’intérêt à la seconde période : γ2 = 0. On a :

Ainsi, alors que les trois contrats produisent les mêmes flux et devraient logiquement se voir attribuer les mêmes valeurs, l’approche comptable lui attribue à la date intermédiaire une valeur entre 462 et 538, laissée à la disposition partielle du prêteur. En fait les valeurs comptables ne sont identiques pour ces contrats qu’aux dates terminales, égale à 1 000 à la date initiale, à 0 à la date terminale.

Ainsi l’analyse du risque de crédit met clairement en évidence la question de l’interprétation économique des bilans, et notamment des montants de prêts figurant dans ceux-ci[4].

7. Détermination des réserves

7.1 Valeur à Risque (VaR)

La valeur Wt, par exemple, est une approximation de ce que sera la valeur reportée la fois suivante, valeur qui est aujourd’hui incertaine. À titre d’exemple, considérons la valorisation par encours :

Elle est incertaine du fait des défaillances potentielles. L’idée est alors d’introduire des réserves pour couvrir cette incertitude et éviter des pertes. En tenant compte de l’actualisation, l’écart entre les deux valeurs est : forme: 010560aro004n.png et le montant de réserves (ou VaR) peut être fixé pour éviter la possibilité de perte avec une probabilité prédéterminée α. La VaR est alors définie par :

et apparaît comme un quantile de la loi conditionnelle de l’erreur de valorisation.

Une question non résolue concerne la dépendance de ce montant de réserve vis-à-vis de la composition de portefeuille (comportant diverses structures de notations), de la corrélation de défaut ou du concept de valeur retenu. Examiner ces sensibilités vis-à-vis des divers éléments permet aussi de repérer d’éventuels effets non souhaités de la nouvelle régulation : possibilités de contournement de celle-ci ou conséquence d’une gestion de portefeuille incluant le montant des réserves comme critères.

7.2 Simulation

En pratique des expressions explicites de la VaR ne peuvent être obtenues que sous des hypothèses dynamiques irréalistes et les niveaux de réserve sont en pratique déterminés par des méthodes de simulation. Prenons l’exemple le plus simple d’une valeur assimilée à l’encours. À la date t, on dispose d’une information permettant de reconstituer la loi conditionnelle de Y1, ..., Yn sachant Y1 > t, ..., Yn > t. On peut alors suivre la démarche suivante :

  1. effectuer dans cette loi un tirage de l’état des firmes à t + 1

    equation: 010560are042n.png

  2. calculer forme: 010560aro005n.png

    equation: 010560are043n.png

  3. répliquer les simulations s = 1, ..., S et approcher le montant de réserves par le quantile empirique adéquat calculé à partir de la distribution empirique de X1t, ..., XSt.

Quelques questions seulement partiellement résolues sont les suivantes : comment choisir le copule représentant la corrélation de défaut de façon que le tirage i) de Ys1, ..., Ysn soit facile à effectuer, alors que la dépendance entre les durées peut être complexe et la taille n du portefeuille très grande?

Comment étendre cette technique de simulation aux autres valorisations possibles, marché, risque neutre ou actuarielle, sachant qu’il faut alors simuler toute la trajectoire des défauts futurs et non le seul état dans lequel se trouve la firme à la date t + 1?

Conclusion

Dans les paragraphes précédents, les diverses questions ont été discutées en supposant un taux de recouvrement égal à zéro. Cette hypothèse est évidemment irréaliste et il faut également analyser le risque lié aux taux et dates de recouvrement, à la fois du point de vue historique et de celui de la valorisation.

La prise en compte de ce risque dans les modèles, comme ceux de la section 5, ne pose pas de difficulté nouvelle. Cependant l’utilisation de ces modèles bute sur le manque de données fiables sur le recouvrement. Ceci a conduit le régulateur à suggérer une pratique simpliste, où le risque de recouvrement est supposé indépendant du risque de défaut, constant dans le temps et indépendant du prêteur, donc des efforts de celui-ci pour assurer la récupération de la dette. Il est impossible pour le moment d’utiliser une approche plus sophistiquée pour prendre en compte cet aspect.

De façon claire, l’accent doit être mis sur la constitution de bases de données fiables. Celles-ci devraient inclure pour chaque type de prêt :

  • la date de défaut;

  • le montant des sommes récupérées avec les dates où elles le sont;

  • mais aussi les coûts liés à cette récupération avec les dates correspondantes.

Ainsi la constitution d’une telle base demande une bonne connaissance des coûts (liés aux procès par exemple) et de leur décomposition, un problème plus général mal maîtrisé actuellement pour le secteur bancaire.