Statistische Risikomaße für institutionelle Investoren
Ein Überblick über gängige Risikomaße und die Anwendung in der institutionellen Portfoliosteuerung
Risikomodelle sind aus dem Alltag institutioneller Investoren nicht mehr wegzudenken. Geht es um die Steuerung komplexer Vermögen ist es wichtig, diese auf fundierte, wissenschaftliche Beine zu stellen. Hierbei stützen die meisten Modelle auf statistischen Approximationen, so dass für ein besseres Verständnis das Bewusstsein von Verteilungsmodellen in Erinnerung gerufen werden muss. Anwendung finden Risikomodelle sowohl bei Controllingaufgaben als auch bei der Anpassung von SAA und Neuinvestitionen zur indikativen Einschätzung von Risiken.
Aus diesem Grund wollen wir uns auf den nächsten Seiten einen kurzen Überblick über die wichtigsten statistischen Risikomodelle verschaffen und sowohl kurz deren Berechnungsweisen als auch Besonderheiten und Charakteristika diskutieren.
Risikomessung
Für die Risikomessung gibt es im Wesentlichen zwei Unterschiede in der Berechnungsbasis, zum einen statistische Nährungsweisen und zum anderen Methoden, die auf Preisbewegungen basieren.Zur ersteren Gruppe zählen Berechnungen wie Value at Risk (VaR) und der Conditional Value at Risk (CVaR), auf die in diesem Artikel näher eingegangen werden sollen. Zum zweiten Bereich Methoden wie die Volatilität, Trecking Error oder das Bestimmtheitsmaß R². Werden VaR und CVaR über statistische Verteilungen approximiert, so werden Kennziffern wie die Volatilität und Tracking Error auf Grundlage der realen Renditehistorie berechnet. Statistische Methoden versuchen aktuelle Szenarien wiederzugeben, während sonst historische Fakten abgebildet werden. Es lässt sich also festhalten, dass man mit statistischen Berechnungen bei richtiger Parameterwahl näher an der Realität liegen kann als mit Vergangenheitsmaßen.
Die die statistischen Methoden sind wiederum in unbedingte und bedingte Modelle zu unterscheiden. Auf der Grafik rechts ist diese Methodik kurz skizziert. Unbedingte Risikomaße wie der VaR bilden einen Punkt ab und beachten nach diesem Punkt keine weiteren Faktoren. Bedingte Risikomaße wie der CVaR oder LPM beruhen nicht nur auf einer Punktbetrachtung, sondern beziehen die Verteilung hinter diesen Punkten mit in die Berechnungen ein.
Bevor die einzelnen Modelle dargestellt werden, soll noch kurz die Besonderheit von Verteilungsmodellen in Bezug auf historische Renditen erläutert werden. Es ist wichtig zu erwähnen, dass mit der Approximation von Renditen und Verteilungen die Berechnungen ihre Validität erhalten und ein Modell immer nur so gut sein kann wie es die zugrundeliegenden Daten erlauben. Es muss bei der Anwendung der Modelle immer auch ein Hauptaugenmerk auf die Datenqualität gelegt werden. Zeitreihen zu pflegen, Redundanzen zu minimieren und den Modellen somit eine valide Basis zu schaffen ist die wichtigste Grundlage um unverzerrte Risikoschätzer zu erhalten.
Verteilung von Renditen
Grundlegend zur Berechnung von statistischen Modellen ist die Approximation der Renditenverteilung. Hierbei muss approximiert werden wie sich die Renditen des Portfolios tatsächlich verteilen. Grundsätzlich geht man in der Finanzindustrie von normalverteilten Renditen aus. Das Problem mit dieser Annahme ist die sogenannte Leptokurtose also das häufige Auftreten von Extrempunkten in Kombination mit zu häufig auftretenden Werten um den Mittelwert. Dies äußert sich in der Berechnung der Kurtosis oder über eine simple grafische Auswertung:
Es ist zu erkennen, dass die Renditen in den Extrempunkten stärker schwanken und eine Annahme der Normalverteilung zu verzerrten Ergebnissen führen sollte. Es wird die Häufigkeit extremer Renditeausprägungen, sogenannte Fat Tails, nicht adäquat abgebildet und somit das Risiko teilweise dramatisch unterschätzt. Nach Emmanuel Odai Okley et al. (Financial Mathematics: Distribution of Stock Returns) wird empfohlen eine T-Verteilung der Renditen anzunehmen. Hierdurch erhält man eine gute Approximation und kann die Fat Tails mit in die Berechnungen ein fließen lassen. Mittels Kolmogorov-Smirnov-Tests ist es möglich zu verifizieren ob die Renditen tatsächlich einer T-Verteilung folgen. Da die Berechnungen relativ komplex sind sollen sie hier nicht weiter ausgeführt werden. Es ist aber festzuhalten, dass es statistisch möglich ist die tatsächlichen Verteilungen abzubilden und in die Berechnung des Risikos einzubeziehen.
Im nächsten Teil wollen wir kurz die einzelnen Modelle aufzeigen und deren Berechnungsweisen erläutern.
VaR
Der Value at Risk ist das bekannteste Risikomaß unter den statistischen Methoden und findet eine breite Verwendung bei institutionellen Investoren. Der VaR gibt mit einer gewissen Wahrscheinlichkeit an welche Verlusthöhe im gegebenen Zeitraum zu erwarten ist. Es wird also ein Punkt auf einer Kurve bestimmt der aussagt wie hoch der anzunehmende Verlust mit einer gegebenen Wahrscheinlichkeit sein wird. Es gibt drei verschiedene Berechnungsweisen des VaRs, Monte Carlo, historische Berechnung und die nachfolgend erläuterte Delta Gamma Methode. Berechnet wird der VaR mittels dem statistischen Verteilungswert, dem sogenannten Z-Wert und über die Volatilität des Portfolios, die über eine Korrelationsmatrix approximiert wird.
Der VaR ist ein gängiges Risikomaß, dass intuitiv verständlich und statistisch nachvollziehbar ist. Dies macht es zu einer sinnvollen Ergänzung bei der Risikosteuerung. Es ist jedoch anzuraten den VaR nicht als alleiniges Steuerungsinstrument zu verwenden. Da es sich um eine Punktbetrachtung handelt ist es möglich, dass die Verteilung hinter dem VaR-Punkt extreme Häufungen ausprägen. Es ist somit sinnvoll zusätzlich zum unbedingten Risikomaß VaR ein bedingtes Risikomaß wie den nachfolgend vorgestellten CVaR zu verwenden.
CVaR
Der Conditional Value at Risk hat folgende Aussage: Wird der VaR überschritten verliert man im Mittel den CVaR. Es handelt sich hierbei also nicht nur um eine Punktbetrachtung, sondern um die Betrachtung der gesamten Verteilung nach dem VaR-Punkt. Damit kann ausgeschlossen werden, dass eine Verteilung besonders fette Tails hat und somit auch über den VaR-Punkt hinaus lineare Rückgänge der negativen Renditen zu erwarten sind.
Die Berechnung des CVaR sieht wie folgt aus und ist aufgrund der Tatsache, dass der Mittelwert eines Quantils berechnet wird ein wenig komplexer als die VaR Berechnung.
Die Formel besteht aus dem VaR und der mittleren Überschreitung nach dem der VaR-Punkt überschritten wurde.
Es lässt sich also Schlussfolgern, dass der CVaR eine verlässlichere Größe als der VaR ist, da er den gesamten Bereich hinter dem VaR Punkt einbezieht. Es muss aber auch erwähnt werden, dass hier besonders die zugrundliegende Verteilung eine wichtige Rolle für ein realistisches Ergebnis ist. Fokussiert man sich auf die stringente Approximation einer passenden Verteilung, sind mit dem CVaR transparente Aussagen zur Risikolage eines Vermögens zu treffen.
Lower Partial Moments
LPM Modelle sind in der Finanzindustrie noch nicht so weit verbreitet. Dies liegt zum einen an der zusätzlichen Komplexität im Berechnungsprozess und zu Anderen an der Dominanz der VaR Modelle. Eine Daseinsberechtigung ist aber durch ihre extrem variable Betrachtung gegeben. LPM berechnen die Wahrscheinlichkeit einer Unterschreitung eines selbst definierten Ereignisses. Diese Flexibilität eigene Ziele festzulegen und das Risiko einer Unterschreitung zu berechnen kann vielfältig Anwendung finden.
Ist beispielsweise eine Mindestrendite gefordert kann diese als Erwartungswert definiert werden und die Wahrscheinlichkeit einer Unterschreitung wird mittels LPM Modell berechnet. Weitere Anwendungsmöglichkeiten sind die Berechnung einer Wahrscheinlichkeit zum Kapitalerhalt des Portfolios oder das Unterschreiten von Kapitalerhaltsgrenzen. Hierdurch ist es statistisch möglich die Wahrscheinlichkeit selbst definierter Ziele zu quantifizieren. Dies kann zur Transparenz des Risikos eines Portfolios beitragen und somit ein besseres Gespür für die Sensibilität der Kapitalanlage vermitteln.
Fazit
Wir denken, dass zu einem unbedingten Risikomaß auch immer ein bedingtes Risikomaß gerechnet werden sollte. Hiermit wird ausgeschlossen, dass sich Anomalien in den Extrempunkten der Verteilung befinden und der erwartete Verlust überschritten wird.
Extreme Sorgfalt sollte man bei der Erhebung der Datengrundlage zugrunde legen. Hier bewahrheitet sich der in der Statistik so gern gesagte Satz „garbage in garbage out“. Sind Fehler in den zugrundeliegenden Datensätzen, ist eine Risikoberechnung sinnlos und wird extreme Verzerrungen aufweisen. Ein weiterer wichtiger Faktor ist die Approximation der Verteilung. Hier kann es bei falscher Wahl der Verteilung zu einer Verzerrung des Risikoprofil kommen, wodurch extreme Risiken unterschätzt werden können.
Hat man das passende Risikomaß gefunden und auch die Gefahren der Datenaufbereitung gemeistert, ist die Risikoeinschätzung großer Vermögen relativ stabil. Vor allem bei relativer Ansicht hat man hiermit eine solide Basis zur Portfoliosteuerung gelegt.
Niels Raabe | A.L.M. Berlin asset consult GmbH | www.berlin-asset-consult.de
Hinweis:
Den Grafiken und Tabellen liegen Informationen zugrunde, die wir zum Zeitpunkt es Erstellens für verlässlich gehalten haben. Trotz sorgfältiger Auswahl der Quellen wird keine Haftung für die Richtigkeit des Inhalts des Artikels übernommen.