Choc de marché, défaut des intervenants les plus exposés, incapacités des autres à couvrir ou solder leurs positions dans un délai ou à un coût raisonnable : quel que soit l'enchaînement des causes et des faits, l'histoire économique récente ne manque pas d'exemples de ces situations de crise ou de tension extrême qui ont démontré le rôle néfaste que pouvait jouer un système bancaire archaïque en amplifiant le désordre financier. Ainsi, une gestion approximative des activités, un trop grand émiettement de l'offre, une collusion entre banques et monde politique sont les symptômes classiques des institutions bancaires et financières génératrices de difficulté.
Par réaction à cette récente évolution économique, des réflexions sont en cours au niveau de la communauté bancaire internationale pour mieux prendre en compte les liens entre risque de marché, risque de crédit et risque de liquidité qui se combinent de manière inextricable voir inattendue . Suite à la crise financière de 1998, la communauté bancaire internationale et les autorités de tutelle ont en effet engagé des travaux importants en vue d'améliorer la compréhension et de renforcer la prévention de ces situations de risque « systémique ».
On assiste ainsi depuis les années 90, à une profonde mutation des systèmes de mesure et suivi des risques dans les banques. La Banque des Règlements Internationaux a joué à cet égard un rôle décisif, en autorisant les banques, sous réserve d'une validation par les Autorités réglementaires domestiques, à substituer au calcul forfaitaire des fonds propres alloués à la couverture du risque de marché, une mesure issue d'un « modèle interne ». La modélisation du risque de marché s'inscrit désormais dans un processus de management et a acquis une légitimité nouvelle. Le renforcement exceptionnel des ressources allouées au contrôle du risque de marché ne s'explique pas uniquement par l'objectif « d'économie de fonds propres », certes probablement présent dans l'esprit des dirigeants, mais par l'importance des enjeux avals. Le premier d'entre eux est l'amélioration de la mesure du risque global de marché et la mise à disposition d'un outil de pilotage. Le calcul de la Value at Risk, perte potentielle enregistrée sur le portefeuille de positions en cas de scénario défavorable de marché sur un horizon (réglementaire) de 10 jours ouvrés, permet de disposer d'une représentation agrégée et instantanée des risques, et de confronter en temps réel le risque ainsi mesuré à une limite globale, perte acceptable associée à un intervalle de confiance donnée. Le second objectif, résolument stratégique, est de permettre la mise en place d'une procédure d'allocation optimale de capital entre les différents « desks » d'une salle de marché (change, swaps, options…), c'est à dire reposant sur la maximisation du rendement espéré corrigé du risque.
Par ailleurs, le projet de refonte du dispositif d'adéquation des fonds propres diffusé en juin 1999 par le comité de Bâle s'inspire lui-même en plusieurs points, directement ou indirectement des enseignements tirés de la crise de 1998.
Ainsi, les banques internationales qui vivent sous l'emprise du ratio Cooke depuis une petite dizaine d'années vont bientôt passer sous les fourches du ratio Mc Donough. En effet le comité de Bâle vient de franchir une nouvelle étape pour renforcer la solidité des systèmes bancaires. Depuis l'accord de bâle de 1988, les banques à vocation internationale doivent affecter 8% de leurs fonds propres à leurs engagements. En 1989, la directive européenne a imposé aux établissements des pays membres de la communauté cette même règle prudentielle.
Ce fameux ratio, baptisé du nom de son père fondateur, Peter Cooke, a pour objectif de renforcer la solidité des banques et de rendre ces dernières plus attentives aux crédits qu'elles accordent, et donc de renforcer les systèmes de contrôle interne. Le calcul des fonds propres se fait à partir d'une grille de pondération établie en fonction du type de crédit accordé. Au fil du temps, les membres du comité de Bâle ont pris conscience de la nécessité de faire évoluer la norme de solvabilité. Ils sont passés d'une approche quantitative et mécanique à un cadre prudentiel qui s'appuie sur la mesure des risques de crédit, opérationnels et de taux. Aussi, compte tenu de la complexité et de l'instabilité des phénomènes en cause, l'évaluation quantitative du risque, même rigoureuse ne peut suffire : elle doit être complétée par un dispositif de global risk management performant, combinant l'analyse des différentes natures de risques (crédit, pays, marché, liquidité) et offrant dans son fonctionnement les meilleures garanties de compétence et de réactivité. Régulièrement évalué par les autorités de tutelle, ce dispositif pourrait donner lieu à une exigence de fonds propres supplémentaire en cas d'insuffisances notoires.
La modélisation du risque de crédit prend donc aujourd'hui le relais de la modélisation du risque de marché et fait l'objet, depuis la fin des années 90, d'avancées spectaculaires au sein des établissements bancaires. Trois raisons principales expliquent ce phénomène. La première est d'ordre réglementaire et tient au rôle déterminé de la Banque des Règlements Internationaux dans la conduite de la réflexion sur la rénovation des méthodes de calcul des fonds propres de couverture. En lançant, en avril 1999 , une vaste consultation auprès de l'ensemble des banques de son ressort, d'une part sur la réforme du ratio Cooke, et d'autre part sur les modalités de la substitution d'un modèle interne au calcul forfaitaire, la BRI a un indéniable pouvoir de formulation des efforts déjà engagés. A l'instar de la réflexion qu'elle avait conduite sur la modélisation du risque de marché par les modèles internes, la BRI effectue des travaux devant permettre de définir les principes de modélisation du risque de crédit, première étape vers la reconnaissance des modèles internes dans le calcul des fonds propres-crédit.
La deuxième raison est le choc suscité dans les banques par la faillite virtuelle des fonds spéculatifs LTCM et la prise de conscience, à cette occasion, du risque systémique. L'ampleur des engagements de certains établissements bancaires vis-à-vis de ces fonds a révélé, d'une part, la sous évaluation générale du prix du risque de crédit, et d'autre part, les faiblesses du système de mesure et de suivi du risque de crédit sur les opérations de gré à gré.
La troisième raison est la mise en place de démarches de type RAROC (Risk Addicted Return On Capital), devant permettre une allocation optimale de capital sur la base du rendement corrigé des risques. Parmi ces risques, figure bien sûr le risque de crédit, où une mesure scientifique est exigée. Cette mesure du risque de crédit est de nature complexe. Elle nécessite encore, de la part des banques, d'importants travaux pour concourir à une évaluation de ce risque, la plus juste possible, à partir de modèles internes performants.
Dans le cadre de l'amélioration de la performance des modèles de risque de crédit, ce mémoire se propose donc :
-de situer, dans une première partie, le risque de crédit dans son environnement réglementaire et prudentiel actuel. Cet environnement, caractérisé par la nouvelle réforme du ratio Cooke, s'accompagne de difficultés méthodologiques lors de l'adoption d'un modèle interne pour l'évaluation du risque de crédit
-de présenter, dans une deuxième partie, les diverses applications d'un modèle interne de crédit ainsi que ses principes de modélisation, pour analyser les limites quant à la fiabilité des principaux modèles d'évaluation de risque de crédit développés
[...] Toutefois, certaines banques peuvent utiliser différentes définitions pour leur gestion de risque interne et leurs systèmes de mesure. Même si le Comité de Bâle n'a pas l'intention de demander aux banques de modifier la façon dont elles gèrent leurs activités et leurs risques, elles devront appliquer le traitement approprié à chaque risque aux fins de l'analyse IRB, de présentation de tableaux et de reporting. Les banques devront aussi démontrer aux autorités de contrôle que leur méthodologie d'affectation de leurs expositions dans les différentes catégories est cohérente dans le temps Critères pour assurer une différenciation significative des expositions Structure globale du système de notation Un système de notation doit garantir une évaluation séparée de l'emprunteur et des caractéristiques des risques et permettre une différenciation significative des risques. [...]
[...] Celles qui ne seront pas en mesure de le faire devront supporter à la fois la hausse de leur coût de financement et la dégradation de leur relation commerciale ; éléments qui conduiront mécaniquement à l'accélération de la descente vers les ratings inférieurs. Ces deux phénomènes ne peuvent évidemment pas être pris en compte dans une approche markovienne De plus, l'inconvénient majeur de cette méthode est le fait que les ratings et les probabilités de transition sont basés sur les statistiques passées. Il s'ensuit que la méthode est très peu réactive aux variations du marché. En particulier, cette méthode s'est avérée incohérente avec le marché lors de la crise asiatique de juillet 1997. [...]
[...] Ces informations sont regroupées dans des tableaux qui indiquent, soit directement le taux de défaut historique des émetteurs selon leur notation et sur un horizon donné, soit les changements de notation au cours du temps. Les tableaux décrivant l'évolution dans le temps de la notation d'un panel d'émetteurs sont appelés matrices de transition» et constituent un outil privilégié d'estimation des probabilités conditionnelles de défaut. La matrice annuelle de transition décrit le changement de notation, sur un horizon d'un an, d'un panel d'émetteurs. [...]
[...] Pour les banques les plus en pointe, la surveillance des crédits pour l'évaluation de l'adéquation des fonds propres devrait, au minimum, couvrir quatre domaines : - les systèmes de notation des risques - l'analyse/agrégation des portefeuilles - les produits dérivés de crédit complexes ou titrisés - les principales expositions et les concentrations des risques La notation des risques en interne constitue un outil important pour le suivi du risque de crédit. Elle contribue à l'identification et à la mesure du risque pour tous les crédits et doit être intégrée dans une analyse globale, au niveau de l'établissement, du risque de crédit. [...]
[...] Les modèles internes d'évaluation du risque de crédit ont connu un degré de sophistication très important pendant ces dernières années. L'utilisation de tels modèles quantitatifs de mesure de risque de crédit présente toutefois un manque de fiabilité dans les résultats obtenus. Une étude comparée des prévisions et résultats issus des différents modèles d'évaluation du risque de crédit devrait apporter de l'information dans le débat sur la performance relative des différents modèles. Mais les difficultés de back-testing (contrôle ex-post des modèles par comparaison entre les prévisions et la réalité), liées en particulier à la faiblesse des échantillons et à la nécessité de disposer d'une période d'observation suffisamment longue, sont un obstacle à sa mise en place. [...]
Référence bibliographique
Source fiable, format APALecture en ligne
avec notre liseuse dédiée !Contenu vérifié
par notre comité de lecture