En 1994 la banque d'affaires JPMORGAN a introduit une mesure permettant de quantifier le risque : Value at Risk (VaR). Cette mesure, utilisée depuis 1996 par l'ensemble des banques suite aux accords de Bâle I, représente la perte potentielle maximale sur un horizon de temps donné.
A ce stade, nous devons rappeler que le concept de la VaR reste très fragile et présente plusieurs limites :
- la leptokurticité des rendements n'est pas prise en compte
- les événements passés ne permettent pas de prévoir les événements futurs
- le risque d'illiquidité n'est pas pris en compte
Cette mesure est généralement définie sur un horizon de 10 jours, et afin de déterminer la VaR à 10 jours les institutions financières utilisent généralement la règle de la racine qui consiste à multiplier la VaR à 1 jour par pour obtenir une VaR à 10 jours.
Dans cette étude nous nous intéressons à la pertinence de cette méthode de règle de racine, plus précisément on se propose d'étudier trois différentes mesures permettant de déterminer la VaR à 10 jours et de voir laquelle d'entre eux est la plus proche de la réalité. Il s'agit de la règle de la racine, la méthode des périodes glissantes et la méthode des périodes non glissantes.
Il est à noter que dans l'ensemble de l'étude nous travaillons sur des données simulées.
Dans un premier temps, après avoir testé la stationnarité, nous chercherons à extraire les coefficients pour les modèles GARCH (1, 1) et AR (1) – GARCH (1, 1) à partir des cotations de l'Eurostoxx50.
En deuxième partie nous évoquerons la méthodologie employée ainsi que les différents résultats obtenus auxquels nous joindrons nos interprétations.
[...] En choisissant α=10%, nous remarquons que la première p-value (à partir de la fin) qui est sous le seuil de 10% est au 16e lag (par conséquent, la formule de Schwert dans ce cas était suffisamment puissante. Par conséquent, nous commençons notre AR au 20e lag. L'objectif de la méthode stepwise est de déterminer quels sont les lags significatifs, grâce aux pvalues associées. Voici ci-dessous le set d'hypothèses : H0 : le lag n'est pas significatif Ha : le lag n'est pas non significatif H0 n'est pas rejeté pour une pvalue>10% (nous avons décidé d'être moins restrictifs que les habituels choisis par la Banque de France) Pour une pvalue10%. [...]
[...] Par la suite, la règle de la racine sera préférée vu que c'est celle dont la VaR se rapproche le plus de la vraie VaR. (Plus Sj est important moins la méthode j est appréciée. Afin de mieux illustrer les résultats, nous allons utiliser quatre autres indicateurs : S1,j = Ce ratio va nous permettre de mesurer la moyenne des variations de la méthode j par rapport à la vraie valeur. Plus ce ratio est faible plus la méthode est pertinente (on aura des VaR qui se rapprochent le plus de la réalité). [...]
[...] Test ARCH V. GARCH- loi normale conditionnelle Section 2 : méthodologie et résultats I. La méthodologie utilisée II. Interprétation des résultats 1. GARCH (1,1)-Normal 2. GARCH 3. AR-GARCH (1,1)-Normal 4. AR-GARCH Conclusion Bibliographie Annexes Introduction En 1994 la banque d'affaires JPMORGAN a introduit une mesure permettant de quantifier le risque : Value at Risk (VaR). Cette mesure, utilisée depuis 1996 par l'ensemble des banques suite aux accords de Bâle représente la perte potentielle maximale sur un horizon de temps donné. [...]
[...] Conformément aux résultats présentés précédemment la méthode overlapping est celle qui dispose de la pente la plus proche de par conséquent, c'est la méthode la plus performante qui permet d'obtenir les estimations les plus proches de la réalité. [...]
[...] Si nous avions accepté H0, la variance conditionnelle devrait exploser vers l'infini. La variance inconditionnelle, de laquelle la variance conditionnelle se rapproche asymptotiquement, devrait nous montrer un phénomène de divergence forte. Nous pourrions également tester l'indépendance des résidus standardises (ce qui était une hypothèse lors de la génération de notre processus), à l'aide du test de Brock, Decher, Scheinkman (BDS). Nous avons réalisé ce test avec EViews : nos résidus standardisés sont i.i.d. Néanmoins, le site Internet Riskmetrics (JPMorgan) nous a fourni les coefficients à utiliser pour modéliser les processus les plus répandus : Processus GARCH avec: Espérance inconditionnelle: Variance inconditionnelle: Kurtosis inconditionnel: Avec la condition: AR(1)-GARCH processus: La différence avec le modèle précédent est que, dans le processus AR GARCH l'espérance conditionnelle est un AR(1). [...]
Référence bibliographique
Source fiable, format APALecture en ligne
avec notre liseuse dédiée !Contenu vérifié
par notre comité de lecture