t - Krzysztof Piontek

Transkrypt

t - Krzysztof Piontek
1
Krzysztof Piontek
Akademia Ekonomiczna
im. Oskara Langego we Wrocławiu
Katedra Inwestycji Finansowych i Ubezpieczeń
Przegląd i porównanie metod oceny modeli VaR
Wstęp - Miara VaR
Wartość zagrożona (wartość narażona na ryzyko, Value at Risk, VaR)
w chwili t jest to taka strata wartości rynkowej portfela, że prawdopodobieństwo
osiągnięcia jej lub przekroczenia w rozpatrywanym okresie (t, t+1) równe jest
zadanemu poziomowi tolerancji (por. [6],[9]).
Powyższą definicję można zapisać w następujący sposób:
P (Wt +1 ≤ Wt − VaRt ) = q ,
(1)
gdzie: Wt - obecna wartość portfela instrumentów, Wt +1 - wartość portfela na
końcu analizowanego okresu, q - tak zwany poziom tolerancji VaR.
Nie zakładając wartości portfela Wt , powyższą zależność można zapisać
wykorzystując pojęcie stopy zwrotu (por. [9]) ( rt +1 ):
P ( rt +1 ≤ Fr−,t1 ( q ) ) = q ,
(2)
co oznacza, że prawdopodobieństwo, że stopa zwrotu z portfela w danym
horyzoncie czasu nie przekroczy wartości równej odpowiedniemu
kwantylowi rozkładu stóp zwrotu Fr−,t1 ( q ) , wynosi q .
W dalszej części pracy miara VaR analizowana będzie w kontekście stóp zwrotu
jako odpowiedni kwantyl rozkładu, co oznaczane jest jako:
VaRr ,t ( q ) = − Fr−,t1 ( q ) .
(3)
Definicja zapisana wzorem (1) czy (2) w żaden sposób nie precyzuje jak
należy ową wartość zagrożoną wyznaczyć. Prowadzi to mnogości możliwych
podejść. Do najbardziej popularnych zalicza się: metodę historyczną, metodę
symulacji, metodę wariancji-kowariancji (w tym metodę RiskMetrics) oraz
metodę opartą na wektorach warunkowych wartości oczekiwanych
i warunkowych macierzach kowariancji (modele klasy VARMA-MGARCH),
a także metody bazujące na teorii wartości ekstremalnych (por.
[1],[6],[7],[9],[11]). W każdym przypadku prowadzi to do konieczności
2
testowania metody. Testowanie wsteczne (backtesting) wyników pomiaru
wartości zagrożonej jest więc niezbędną procedurą mającą odpowiedzieć na
pytanie, czy dane podejście można stosować, lub które z większej ilości
konkurencyjnych rozwiązań powinno zostać wybrane.
Celem pracy jest skrótowa prezentacja wybranych metod oceny wyników
VaR. Zaprezentowane zostaną zarówno proste popularne testy wykorzystujące
ideę analizy szeregu przekroczeń, jak i nowsze propozycje pozbawione
przynajmniej niektórych wad podejścia klasycznego.
1. Klasyczne testy modeli VaR
Modele VaR można analizować zarówno poprzez jakość modeli
ekonometrycznych leżących u podstaw modelu VaR (np. modeli VARMAMGARCH), jak i wprost poprzez porównanie wyników VaR z faktycznie
zaobserwowanymi stratami. Obszarem zainteresowania niniejszej pracy
pozostaje jedynie to drugie podejście.
W praktyce, najpopularniejsze, gdyż najłatwiejsze do wykorzystania, testy
jakości wyników VaR opierają się na analizie tzw. szeregu przekroczeń (failure
process, hit function)  I t ( q )  tt ==1T zdefiniowanego w sposób następujący:
1; rt +1 ≤ −VaRr ,t ( q )
It ( q ) = 
(4)
0; rt +1 > −VaRr ,t ( q )
Najczęściej wykorzystywanym testem jest test liczby przekroczeń
(Proportion of Failures Test - POF). Dla danej próby liczba przekroczeń ma
rozkład dwumianowy. Odpowiednią statystykę testową zaproponował Kupiec
(por. np. [6][5][9]). Ma ona postać:
 (1 − q )T0 qT1 
(5)
LRPOF = −2ln 
 ~ χ12 ,
 (1 − qˆ )T0 qˆ T1 


gdzie:
T
T1
, T1 = ∑ I t ( q ) oraz T0 = T − T1 ,
(6)
qˆ =
T0 + T1
i =1
gdzie: T – liczba wszystkich obserwacji, T1 – liczba przekroczeń, T0 – liczba
obserwacji, dla których przekroczenie nie wystąpiło.
Statystyka LRPOF ma rozkład χ 2 z jednym stopniem swobody.
3
Test liczby przekroczeń nie jest jedynym testem, któremu należy poddać
weryfikowany model. Trudno zgodzić się, że technika pomiaru VaR jest
poprawna jeśli rzeczywiście w ciągu 1000 testowanych dni, liczba przekroczeń
wynosi co prawda 501, ale 15 przekroczeń wystąpiło w ciągu ostatniego
miesiąca. Do testu na liczbę przekroczeń należy dołączyć test, czy przekroczenia
są niezależne w czasie. Występujące blisko po sobie przekroczenia są
groźniejsze dla instytucji niż równomiernie rozłożone w czasie przekroczenia,
które występują nieznacznie częściej niż wynikałoby to z teorii.
Największą popularność, w zakresie testowania niezależności
przekroczeń, zdobył test niezależności (Independence Test-IND) Christoffersena
LRIND wykorzystujący idee łańcuchów Markowa (por. [4],[5],[6],[9]):
T +T


1 − q ) 00 10 q T01 +T11
(
LRIND = −2ln 
~ χ12

 (1 − qˆ )T00 qˆ T01 (1 − qˆ )T10 qˆ T11 
01
01
11
11


Tij
T01 + T11
qˆij =
q=
Ti 0 + Ti1 ,
T00 + T01 + T10 + T11
gdzie :
oraz Tij to liczba okresów, w których I t = j , jeśli I t −1 = i .
(7)
(8)
Statystyka LRIND ma również rozkład χ 2 z 1 stopniem swobody.
Rzadziej wykorzystywaną alternatywą jest test czasu pomiędzy przekroczeniami
(Time Between Failures Test - TBF) (por. np. [4][6]):
 q ( q − q )ν1 −1  T1 
 q (1 − q )ν i −1  
 +  −2ln 
  ~ χT21 (9)
LRTBF = −2ln 
ν i −1 
 qˆ (1 − qˆ )ν1 −1  ∑



ˆ
ˆ
q
1
q
−
1
i)
 1
 i =2 
 i(

gdzie:
ν i - czas pomiedzy (i -1)-tym oraz i -tym przekroczeniem ,
1
.
νi
Ponieważ statystyki liczby przekroczeń oraz ich niezależności w czasie są
niezależne, zaproponowano testy mieszane LRMIX uwzględniające zarówno
liczbę przekroczeń oraz czas pomiędzy przekroczeniami (por. [4],[5],[6],[9]):
q̂i =
T

(1 − q ) 0 qT1
(1)
LRMIX
= LRPOF + LRIND = −2ln 
 (1 − qˆ )T00 qˆ T01 (1 − qˆ )T10 qˆ T11
01
01
11
11


 ~ χ 22


(10)
lub:
(2)
LRMIX
= LRPOF + LRTBF ~ χT21 +1 .
1
Dla poziomu tolerancji VaR wynoszącego 0,05.
(11)
4
W praktyce jednak rzadko stosuje się testy mieszane na rzecz osobno
wyznaczanych testów liczby i niezależności przekroczeń, które mają większą
moc (por. [4]).
Rozpatrując jedynie szereg przekroczeń  I t ( q )  tt ==1T , możliwa do analizy
informacja ulega znaczniej redukcji, co skutkuje tym, że prezentowane testy
charakteryzują się niską mocą dla krótkich szeregów i/lub niskich poziomów
tolerancji VaR. Dodatkowo warto zauważyć, iż „miara” VaR zdefiniowana jako:
z prawdopodobieństwem 1 - q
X
(12)
VaRt ( q ) = 
 − X z prawdopodobieństwem q
spełnia warunki liczby i niezależności przekroczeń dla wystarczająco wysokiej
wartości X. Jest to podstawowy, obok niskiej mocy testów, zarzut wobec
klasycznych testów modeli VaR.
Kolejne, prezentowane w sposób skrótowy, testy uwzględniają pełną
informację o wielkościach wartości zagrożonej oraz wartościach zrealizowanych
stóp zwrotu.
2. Testy szeregów przekroczeń i wielkości VaR
Podstawowym testem wykorzystującym zarówno wartości VaR, jak
i szereg przekroczeń jest tzw. Dynamic Quantile Test – DQ zaproponowany
przez Engle’a oraz Manganelli’ego w 2002 roku (por. np. 7)). Ideą testu jest
fakt, że przekroczenia w chwili t nie powinny zależeć od przekroczeń
w chwilach wcześniejszych, a także od wartości VaR oraz dowolnie
przetworzonej informacji dostępnej w chwili t-1 ( ωt −1, j ∈ ℑt −1 ). Analizie podlega
więc równanie regresji:
p
n
i =1
j =1
I ( q )t = qo + ∑ β i I t −i ( q ) + β p+1VaRt ( q ) + ∑ β p+ j +1 f (ωt −1, j ) + ε t .
(13)
Model VaR jest poprawny, jeśli brak jest podstaw do odrzucenia hipotezy:
H 0 : qo = q,
βi = 0, i = 1, 2,K , p + n + 1 .
Powyższy test umożliwia zidentyfikowanie nieprawidłowego „pomiaru”
przedstawionego wzorem (12), którego nie odrzucają klasyczne testy liczby
i niezależności przekroczeń. Test powyższy jest uogólnioną wersją testu:
H o : ∀s corr ( I t , I t − s ) = 0
H1 : ∃s
corr ( I t , I t − s ) ≠ 0
(14)
Dla dziennych wartości zagrożonych, maksymalny rząd testowanych opóźnień
wybiera się zazwyczaj jako 5, co odpowiada liczbie dni sesyjnych w tygodniu.
5
Podejście dane wzorem (13) umożliwia wykrycie odstępstw od niezależności
przekroczeń opisywanych przez łańcuchy Markowa rzędów wyższych niż 1.
Warto też zaznaczyć, iż w ogólności testy oparte na podejściu Christoffersena
(por. wzór (7)) oraz uproszczonej postaci testu danego wzorem (13) mogą
prowadzić do sprzecznych wniosków (por. [10]).
3. Testy wykorzystujące funkcje strat
Odmienny w swej istocie test oparty na funkcji straty zaproponował Lopez
(por. [8]). Podejście to doczekało się później szeregu uogólnień (por. [10],[11]).
Dla każdego analizowanego okresu, na podstawie historycznych informacji
o zrealizowanej stopie zwrotu i korespondującej wartości zagrożonej
wyznaczana jest odpowiednia wartość tzw. funkcji strat:
 f (VaRr ,t ( q ) ,rt +1 ) rt +1 ≤ −VaRr ,t ( q )
(15)
L (VaRr ,t ( q ) ,rt +1 ) = 
 g (VaRr ,t ( q ) ,rt +1 ) rt +1 > −VaRr ,t ( q ) .
Podejście to analizowane jest zazwyczaj z punktu widzenia regulatora rynku
(nadzorcy), który dba o zwiększenie bezpieczeństwa. Z tego też powodu
przyjmuje się iż:
f (VaRr ,t ( q ) ,rt +1 ) ≥ g (VaRr ,t ( q ) ,rt +1 ) .
(16)
Ostateczna wartość funkcji strat dla całego okresu, w którym testowany jest
model, wyznaczana jest ze wzoru:
1 T −1
L=
(17)
∑ L (VaRr ,t (q), rt +1 ) .
T − 1 t =1
Pierwotna propozycja Lopeza polegała na uwzględnieniu informacji nie tylko
o występującym przekroczeniu, lecz również o wielkości tego przekroczenia:
2
1 + ( rt +1 + VaRr ,t ) rt +1 ≤ −VaRr ,t ( q )
Lt +1 (VaRr ,t ( q ) , rt +1 ) = 
(18)
0
rt +1 > −VaRr ,t ( q ) .

Na podstawie analizy informacji wynikającej z wartości funkcji strat możliwe są
dwa podejścia:
1) wybór techniki pomiary VaR, dla której wartość funkcji strat przyjmuje
minimum,
2) przyjęcie lub odrzucenie modelu VaR poprzez porównanie wartości funkcji
strat dla danych historycznych z wartością krytyczną testu uzyskiwaną
poprzez symulację Monte Carlo szeregów stóp zwrotu z założonego modelu
(tego samego, który leży u podstaw modelu VaR – np. modele VARMAMGARCH).
6
W niektórych technikach wyznaczania VaR (np. w metodzie historycznej)
podejście 2 nie jest możliwe (bez szeregu silnych założeń) i stosuje się
kryterium 1 – minimalizację funkcji strat.
Funkcja strat zaproponowana przez Lopeza, jakkolwiek najbardziej popularna,
nie jest w żadnym wypadku jedynym możliwym rozwiązaniem.
Wykorzystywane bywają również funkcje o następującej postaci (por. [1],[11]):
f (VaRt ( q ) ,rt +1 )
(r
=
t +1
− VaRr ,t
VaRr ,t
)
2
lub f (VaRt ( q ) ,rt +1 ) = 1 −
rt +1
. (19)
VaRr ,t
W powyższych rozwiązaniach (por. wzory (15)-(19)) zakłada się zazwyczaj iż
g (VaRr ,t ( q ) ,rt +1 ) = 0 .
Sarma, Thomas, Shah (por. [10]) zaproponowali jednak następującą postać
funkcji strat, tzw. Firm’s Loss Function. Podejście to stanowi próbę rozwiązania
oczywistego konfliktu pomiędzy bezpieczeństwem oraz maksymalizacją wyniku
finansowego:
2
 ( rt +1 + VaRr ,t ) rt +1 ≤ −VaRr ,t ( q )
(20).
Lt +1 (VaRr ,t ( q ) , rt +1 ) = 
rt +1 > −VaRr ,t ( q )
 ϕVaRr ,t
W podejściu takim „karze” podlega zbyt wysoki poziom VaR skutkujący
przesadnie wysokim kapitałem zabezpieczającym. Kryterium decyzyjne wyboru
optymalnej metody pomiaru VaR jest analogiczne jak w przypadku klasycznej
funkcji zaproponowanej przez Lopeza.
Pojawiają się też propozycje, aby rozdzielić w funkcji strat aspekt ilości
przekroczeń oraz wielkości przekroczeń. Rozwiązanie takie przedstawili Blanco,
Ihle (por. [10]):
(21)
1; rt +1 ≤ −VaRr ,t ( q )
Ltfreq
+1 ( q ) = 
0; rt +1 > −VaRr ,t ( q )
magn
t +1
L
 rt +1 + VaRr ,t
 VaR
=
r ,t

0

rt +1 ≤ −VaRr ,t ( q )
(22)
rt +1 > −VaRr ,t ( q )
freq
Lt +1 (VaRt ( q ) , rt +1 ) = λ Lmagn
t +1 + (1 − λ ) Lt +1
(23)
Wartość parametru λ wybierana jest w sposób subiektywny, w zależności od
wagi przyznawanej liczbie i wielkości przekroczeń.
4. Testy kwantyli rozkładów stóp zwrotu
7
Ponieważ wartości VaR wyrażane są poprzez bezwarunkowe lub
warunkowe kwantyle rozkładów stóp zwrotu, sugeruje się testy oparte
bezpośrednio na tych rozkładach i kwantylach. Konieczne jest założenie
o postaci warunkowego lub bezwarunkowego rozkładu stóp zwrotu2 f ( rt ) .
Analizie podlega szereg prawdopodobieństw odpowiadających odpowiednim
kwantylom (wartości funkcji dystrybuanty założonego rozkładu dla
zrealizowanych stóp zwrotu).
Kolejne testy opierają się na tzw. transformacji Rosenblatta (por. wzór
(24), por. [1],[3]).
Pierwsze prezentowane podejście wykorzystuje modyfikacje tzw. testu
Crnkovica i Drachmana. (por. [1],[4],[1]). Dla obserwowanych ex post stóp
zwrotu wyznacza się szereg:
rt
zt = F ( rt ) = ∫ f (u )du
(24)
−∞
Jeśli model VaR jest prawidłowy, to:
zt ~ iid U ( 0,1) ,
(25)
gdzie U(0,1) – rozkład jednostkowy na przedziale [0,1].
Dalsza procedura sprowadza się zazwyczaj do wykorzystania odpowiedniej
statystyki testu postaci rozkładu (por. [2]). Zazwyczaj wykorzystuje się
klasyczne statystyki:
K = max Fz (v) − Fu (v) ,
(26)
v
Fz (v) − Fu (v)
AD = max
Fu (v) (1 − Fu (v) )
v
,
(27)
Kuiper = max ( Fz ( v ) − Fu ( v ) ) + max ( Fu ( v ) − Fz ( v ) ) ,
v
v
w1Kuiper = max
v
Fz (v) − Fu (v)
Fu (v) (1 − Fu (v) )
+ max
v
Fu ( v ) − Fz (v)
Fu (v) (1 − Fu (v) )
Fz (v) − Fu (v)
 1

w2 Kuiper = max  −
+ ...

v
 2 ln ( Fu (v) (1 − Fu (v) ) ) 
 1

Fu (v) − Fz (v)
... + max  −
,
v
2 ln ( Fu (v) (1 − Fu (v) ) ) 


2
(28)
(29)
(30)
Podejście to możliwe jest również w metodzie historycznej, w której konieczne jest jednak wyznaczenie
rozkładu empirycznego, co jest jedynie pewną niedogodnością.
8
gdzie: Fz ( v ) oraz Fu ( v ) to odpowiednio wartość dystrybuanty dla zmiennej
zt oraz wartość dystrybuanty rozkładu jednostkowego dla argumentu v.
Statystyki dane wzorami (27), (29) i (30) silniej uwypuklają niezgodności
w ogonach rozkładów, co jest ważne w przypadku miar zagrożenia.
Rozszerzenie powyższej metody pozwalające w prosty sposób testować
nie tylko zgodność rozkładów, ale także niezależność (por. wzór (25))
zaproponował Berkowitz (por. [2][1]).
Zmienna zt ulega kolejnej transformacji według wzoru:
 rt

yt = Φ −1 ( zt ) = Φ −1  ∫ f (u )du  ,
(31)
 −∞



gdzie Φ −1 ( ) to funkcja odwrotna do dystrybuanty standaryzowanego rozkładu
normalnego.
Jeśli model VaR jest prawidłowy, to:
yt ~ iid N ( 0,1) .
(32)
Powyższy warunek sprawdza się zazwyczaj poprzez równanie regresji:
yt − µ = ρ1 ( yt −1 − µ ) + ρ 2 rt 2−1 + ε t
(33)
gdzie var ( ε t ) = σ 2 .
Model jest prawidłowy, jeśli brak jest podstaw do odrzucenia hipotezy
zerowej:
H 0 : ( µ , ρ1 , ρ 2 ,σ 2 ) = ( 0,0,0,1) .
(34)
Zaprezentowane podejście staje się coraz popularniejsze, choć niewątpliwym
utrudnieniem w jego stosowaniu jest konieczność przyjęcia lub wyznaczenia
z danych empirycznych warunkowego lub bezwarunkowego rozkładu stóp
zwrotu.
Dla wszystkich powyższych testów możliwe jest stworzenie miar oceny
VaR łączących w sobie oceny modeli wartości zagrożonej dla różnych
poziomów tolerancji VaR, np. 0,01, 0,025 oraz 0,05. Rozwiązanie to jest jednak
stosunkowo rzadko wykorzystywane.
Podsumowanie
Nauka oraz praktyka wypracowały cały szereg metod oceny pomiaru
wartości zagrożonej. Prezentowane w tej pracy rozwiązania są metodami
najbardziej popularnymi oraz reprezentatywnymi dla większych grup metod.
9
Żadne z rozwiązań nie jest wolne od wad oraz każde posiada też pewne zalety.
Testy klasyczne cechuje niska moc, lecz są bardzo proste oraz intuicyjne, gdyż
korespondują wprost z definicją miary VaR i występującymi przekroczeniami.
Testy oparte o funkcję strat ujmują aspekt bezpieczeństwa instytucji oraz/lub
ekonomiki związanej z wielkością kapitału wymaganego. Ich wadą pozostaje
subiektywny wybór postaci funkcji strat oraz fakt, że pojedyncze duże
przekroczenie może prowadzić do odrzucenia w ogólności prawidłowego
modelu. Najciekawszymi i uzyskującymi coraz większą popularność, wydają się
być testy oparte na transformacji Rosenblatta. Pozwalają one skuteczniej
identyfikować modele nieprawidłowe. Niedogodnością w ich stosowaniu
pozostaje jednak konieczność określenia postaci rozkładu stóp zwrotu
(warunkowego lub bezwarunkowego) w wykorzystywanym modelu VaR.
Warto wyraźnie podkreślić, iż w sposób formalny przydatność
powyższych testów oceniona być powinna poprzez analizę błędów I i II rodzaju.
Obszarem dalszej pracy autora w tym zakresie będzie empiryczna analiza mocy
poszczególnych testów w zależności od wielkości symulowanego odstępstwa
(nieprawidłowa częstość przekroczeń, brak niezależności przekroczeń) oraz od
długości próby. Celem będzie odpowiedź na pytanie, który z prezentowanych
testów jakości pomiaru VaR powinien być stosowany w celu minimalizacji
błędu II rodzaju (przyjęcia modelu niepoprawnego jako model poprawny). W
przypadku pomiaru ryzyka, błąd II rodzaju jest bowiem błędem w oczywisty
sposób znacznie bardziej niebezpiecznym, z punktu widzenia instytucji
finansowych, niż błąd I rodzaju (odrzucenia prawidłowego modelu). Analiza
mocy odpowiednich testów jest jednak w wielu przypadkach całkowicie
pomijana a testy stosowane są w sposób bezkrytyczny.
Literatura:
1. Abdelazim Reffat Mohamed, Would Student's t-GARCH Improve VaR
Estimates, University of Jyvaskyla, 2005, www.gloriamundi.org
2.
Barbachan J., Farias A., Ornelas J., Goodness-of-fit Tests focus on
VaR Estimation, Finance Lab Working Papers, Finance Lab, Ibmec
São Paulo, 2003, www.ibmec.br/sub/SP/download.php?recid=2664
3. Berkowitz J., Testing Density Forecasts with Applications to Risk
Management, University of California, Irvine, 2000,
www.uh.edu/~jberkowi/back.pdf
4. Campbell S., A Review of Backtesting and Backtesting Procedures, Federal
Reserve Board, Washington, 2005,
www.federalreserve.gov/Pubs/Feds/2005/
10
5. Hass M., New Methods in Backtesting,. CAESAR, 2001,
www.caesar.de/uploads/media/ cae_pp_0010_haas_2002-02-05_01.pdf
6. Jorion P., Value at Risk 2nd edition, McGraw-Hill, 2001
7. Kuester K., Mittnik S., Paolella M., Value–at–Risk Prediction: A
Comparison of Alternative Strategies, 2005,
www.isb.unizh.ch/institut/staff/paolella.marc/cv_paolella_marc_2005-12.pdf
8. Lopez J., Methods for Evaluating Value-at-Risk. Estimates. Federal Reserve
Bank of Nwe York, www.ny.frb.org/research/epr/98v04n3/9810lope.pdf
9. Piontek K., Papla D., Wykorzystanie wielorównaniowych modeli AR-
GARCH w pomiarze ryzyka metodą VaR. PN 1088 Akademii
Ekonomicznej we Wrocławiu, Wrocław, 2005, www.kpiontek.prv.pl
10. Sarma M., Thomas S., Shah A., Selection of Value-at-Risk Models, 2003,
ideas.repec.org/s/jof/jforec.html
11. Yan Liu, Value-at-Risk Models Combination, Emory University, 2005,
www.gloriamundi.org/detailpopup.asp?ID=453057617
Streszczenie
Przegląd i porównanie metod oceny modeli VaR
Testowanie wsteczne wyników pomiaru wartości zagrożonej jest
procedurą mającą odpowiedzieć na pytanie czy dane podejście można
stosować, lub które z większej ilości konkurencyjnych rozwiązań
powinno zostać wybrane. W pracy zaprezentowane zostały klasyczne
testy wykorzystujące szereg przekroczeń oraz nowsze testy
uwzględniające pełną informację – testy oparte na wartości odpowiednio
zdefiniowanej funkcji strat oraz testy bazujące na analizie własności
szeregu uzyskanego za pomocą tzw. transformacji Rosenblatta.
Zaprezentowane zostały zalety i wady poszczególnych rozwiązań.
Abstrakt
A Survey and a Comparison of Backtesting Procedures
Backtesting is the necessary procedure to choose and to evaluate the
goodness of a VaR models, however, the selection is usually controversial. This
articles presents and summarizes some typical, statistical methods based on the
11
hit function as well as newer procedures using some kind of loss functions and
some quantile measures. Advantages and disadvantages of those methods are
discussed.