input license here

ein bayesianischer Ansatz – Bank Underground



Jackpage









Systemische Finanzkrisen treten selten auf, sodass relativ wenige Krisenbeobachtungen in die Modelle einfließen, die versuchen, vor einer Krise zu warnen. Wie sicher sind diese Modelle? Und können die politischen Entscheidungsträger ihnen vertrauen, wenn sie wichtige Entscheidungen im Zusammenhang mit der Finanzstabilität treffen? In diesem Blog baue ich einen Bayesian neurales Netzwerk um Finanzkrisen vorherzusagen. Ich zeige, dass ein solcher Rahmen die der Vorhersage innewohnende Unsicherheit effektiv quantifizieren kann.









Die Vorhersage von Finanzkrisen ist schwierig und ungewiss





Systemische Finanzkrisen verwüsten Nationen in allen wirtschaftlichen, sozialen und politischen Dimensionen. Daher ist es wichtig, vorherzusagen, wann sie auftreten werden. Es überrascht nicht, dass Ökonomen einen Weg erkundet haben, um den politischen Entscheidungsträgern dabei zu helfen, die Wahrscheinlichkeit des Auftretens einer Krise anhand von Daten über die Wirtschaft zu modellieren. Traditionell haben sich Forscher, die in diesem Bereich arbeiten, auf Modelle wie z logistische Regression zu helfen Vorhersage. In jüngerer Zeit spannende Forschung von Bluwstein et al. (2020) hat gezeigt, dass Methoden des maschinellen Lernens auch in diesem Bereich einen Wert haben.





Diese Methoden sind neu oder alt frequentist in der Anwendung. Damit meine ich, dass die Gewichte des Modells als einzelne deterministische Werte geschätzt werden. Um dies zu verstehen, nehmen wir an, man hat jährliche Daten zum BIP und zur Verschuldung des Vereinigten Königreichs zwischen 1950 und 2000 sowie eine Liste, ob in diesen Jahren eine Krise aufgetreten ist. Angesichts dieser Daten wäre ein fairer Vorschlag für die Modellierung der Wahrscheinlichkeit des Auftretens einer Krise in der Zukunft als Funktion des heutigen BIP und der heutigen Verschuldung die Schätzung eines linearen Modells wie dem in Gleichung (1). Die Vorhersagen aus der Anpassung einer solchen geraden Linie wären jedoch unbegrenzt, und wir wissen per Definition, dass Wahrscheinlichkeiten zwischen 0 und 1 liegen müssen. Daher kann (1) durch a geleitet werden logistische Funktionwie in Gleichung (2), die im Wesentlichen die gerade Linie „staucht“, damit sie in die Grenzen der Wahrscheinlichkeit passt.







Yes = β0 + β1BIPi,t-1 + β2Schuldeni,t-1 + εes













Prob(Krise auftritt) = logit(Yes)











Die Gewichte (β0, β1 und β2) kann dann über geschätzt werden maximale Wahrscheinlichkeit. Angenommen, die „besten“ Gewichtungen werden auf 0,3 für das BIP und 0,7 für die Verschuldung geschätzt. Dies wäre die „beste“ Bedingung für die verfügbaren Informationen, dh die Daten zum BIP und zur Verschuldung. Und diese Daten sind endlich. Theoretisch könnte man Daten zu anderen Variablen erheben, den Datensatz über einen längeren Zeithorizont erweitern oder die Genauigkeit der bereits verfügbaren Daten verbessern. Aber in der Praxis ist es nicht möglich, vollständige Informationen zu erhalten, es wird immer Dinge geben, die wir nicht wissen. Folglich sind wir uns nicht sicher, welche Gewichte wirklich die „besten“ sind. Und im Zusammenhang mit der Vorhersage von Finanzkrisen, die selten und komplex sind, gilt dies ganz besonders.





Unsicherheit quantifizieren





Die Unsicherheit, die mit diesem Mangel an Informationen verbunden ist, kann möglicherweise quantifiziert werden. Dazu muss man aus der frequentistischen Welt heraustreten und in die Bayesianisch Welt. Dies bietet eine neue Perspektive, in der die Gewichtungen im Modell nicht länger einzelne „beste“ Werte annehmen. Stattdessen können sie eine Reihe von Werten aus a übernehmen Wahrscheinlichkeitsverteilung. Diese Verteilungen beschreiben alle Werte, die die Gewichtungen annehmen könnten, sowie die Wahrscheinlichkeit, dass diese Werte ausgewählt werden. Das Ziel besteht dann nicht mehr darin, die Gewichte zu schätzen, sondern die Parameter, die mit den Verteilungen verbunden sind, zu denen die Gewichte gehören.





Sobald die Gewichte eines frequentistischen Modells geschätzt wurden, können neue Daten in das Modell geleitet werden, um eine Vorhersage zu erhalten. Angenommen, man arbeitet wieder mit den zuvor besprochenen Spielzeugdaten und es sind Zahlen für das BIP und die Verschuldung für das laufende Jahr verfügbar. Ob nächstes Jahr eine Krise eintreten wird oder nicht, ist unbekannt, daher werden die BIP- und Schuldendaten in das geschätzte Modell übernommen. Da es für jede Gewichtung einen Wert gibt, wird ein einziger Wert für die Wahrscheinlichkeit des Auftretens einer Krise zurückgegeben. Im Fall eines Bayes'schen Modells können die BIP- und Schuldenzahlen für das laufende Jahr viele Male durch das Modell geleitet werden. Bei jedem Durchlauf kann aus den geschätzten Verteilungen eine Zufallsstichprobe von Gewichten gezogen werden, um eine Vorhersage zu treffen. Dadurch kann ein Ensemble von Vorhersagen erfasst werden. Diese Gesamtvorhersagen können dann verwendet werden, um eine mittlere Vorhersage sowie Unsicherheitsmaße wie die Standardabweichung und Konfidenzintervalle zu berechnen.





Ein Bayes'sches neuronales Netzwerk zur Vorhersage von Krisen





Um diese bayesschen Methoden auf die Probe zu stellen, verwende ich die Jordà-Schularick-Taylor Makrohistorie-Datenbank – im Einklang mit Bluwstein et al. (2020) – zu versuchen und vorherzusagen, ob Krisen auftreten werden oder nicht. Dies führt vergleichbare makroökonomische Daten aus einer Vielzahl von Quellen zusammen, um einen Panel-Datensatz zu erstellen, der 18 fortgeschrittene Volkswirtschaften im Zeitraum von 1870 bis 2017 abdeckt. Bewaffnet mit diesem Datensatz konstruiere ich dann ein Bayes'sches neuronales Netzwerk, mit dem (a) Krisen vorhergesagt werden eine wettbewerbsfähige Genauigkeit und (b) quantifiziert die Unsicherheit um jede Vorhersage.





Diagramm 1 unten zeigt stilisierte Darstellungen eines standardmäßigen neuronalen Netzwerks und eines bayesschen neuronalen Netzwerks, die jeweils als „Schichten“ von „Knoten“ konstruiert sind. Man beginnt mit der „Eingabe“-Schicht, die einfach die Anfangsdaten sind. Im Fall des einfachen Beispiels von Gleichung (1) wären es drei Knoten. Jeweils eine für das BIP und die Schulden und eine weitere, die den Wert 1 annimmt (dies ist analog zur Einbeziehung eines Achsenabschnitts in die lineare Regression). Alle Knoten in der Eingabeschicht werden dann mit allen Knoten in der „verborgenen“ Schicht verbunden (einige Netzwerke haben viele verborgene Schichten), und jeder Verbindung wird eine Gewichtung zugeordnet. Diagramm 1 zeigt als Beispiel die Eingänge zu einem Knoten in der verborgenen Schicht. (Die Abbildung zeigt eine Auswahl von Verbindungen im Netzwerk. In der Praxis sind die besprochenen Netzwerke 'vollständig verbunden', dh alle Knoten einer Schicht sind mit allen Knoten der nächsten Schicht verbunden). Als nächstes werden an jedem Knoten in der verborgenen Schicht die Eingaben aggregiert und durch eine geleitet 'Aktivierungsfunktion'. Dieser Teil des Prozesses ist sehr ähnlich zur logistischen Regression, bei der die Daten und ein Schnittpunkt über (1) aggregiert und dann durch die Logit-Funktion geleitet werden, um die Ausgabe nichtlinear zu machen.





Die Ausgänge jedes Knotens in der verborgenen Schicht werden dann an den einzelnen Knoten in der Ausgangsschicht weitergegeben, wo die Verbindungen erneut gewichtet werden. Am Ausgangsknoten findet wiederum eine Aggregation und Aktivierung statt, was zu einem Wert zwischen 0 und 1 führt, der der Wahrscheinlichkeit einer Krise entspricht! Das Ziel des Standardnetzwerks besteht darin, die Modelldaten so anzuzeigen, dass es die „besten“ Gewichtungen zum Kombinieren von Eingaben lernen kann, ein Prozess, der als 'Ausbildung'. Im Fall des Bayes'schen neuronalen Netzes wird jedes Gewicht als Zufallsvariable mit einer Wahrscheinlichkeitsverteilung behandelt. Das bedeutet, dass das Ziel nun darin besteht, die Modelldaten so anzuzeigen, dass sie die „besten“ Schätzungen des Mittelwerts und der Standardabweichung jeder Verteilung lernen können – wie ausführlich in erläutert Jospin et al. (2020).





Diagramm 1: Stilisierte Darstellung von standardmäßigen und Bayes'schen neuronalen Netzen









Um die Fähigkeiten des Bayesianischen neuronalen Netzwerks bei der Quantifizierung der Unsicherheit in der Vorhersage zu demonstrieren, trainiere ich das Modell mit relevanten Variablen aus der Macrohistory Database über den gesamten Stichprobenzeitraum (1870–2017). Allerdings halte ich die Stichprobe für das Vereinigte Königreich im Jahr 2006 (zwei Jahre vor der Finanzkrise 2008) zurück, um sie als Out-of-Sample-Test zu verwenden. Die Probe wird 200 Mal durch das Netz geführt. Bei jedem Durchlauf wird jede Gewichtung als zufällige Ziehung aus ihrer geschätzten Verteilung bestimmt, wodurch jedes Mal eine eindeutige Ausgabe bereitgestellt wird. Diese Ausgaben können verwendet werden, um eine mittlere Vorhersage mit einer Standardabweichung und Konfidenzintervallen zu berechnen.





Vorhersagen in der Praxis





Die blauen Rauten drin Diagramm 2 zeigen die durchschnittlich vorhergesagte Wahrscheinlichkeit des Auftretens einer Krise aus den Ensemble-Vorhersagen des Netzwerks. Im Durchschnitt prognostiziert das Netzwerk, dass im Jahr 2006 die Wahrscheinlichkeit, dass Großbritannien entweder 2007 oder 2008 eine Finanzkrise erlebt, 0,83 betrug. Umgekehrt weist das Netzwerk eine Wahrscheinlichkeit von 0,17 zu, dass keine Krise vorliegt. Das Modell liefert auch ein Maß für die Unsicherheit, indem das 95-%-Konfidenzintervall um die Schätzungen (graue Balken) aufgetragen wird. Einfach ausgedrückt zeigen diese den Bereich der Schätzungen, die das Modell für die mittlere Wahrscheinlichkeit mit 95 %iger Sicherheit annehmen könnte. Daher ordnet das Modell (a) dem Auftreten einer Finanzkrise richtigerweise eine hohe Wahrscheinlichkeit und (b) eine hohe Wahrscheinlichkeit zu (wie durch die relativ kleinen grauen Balken angezeigt).





Grafik 2: Schätzungen zur Wahrscheinlichkeit der Finanzkrise für das Vereinigte Königreich im Jahr 2006









Vorwärts gehen





Angesichts der Bedeutung von Entscheidungen, die von politischen Entscheidungsträgern getroffen werden – insbesondere in Bezug auf die Finanzstabilität – kann es wünschenswert sein, die Modellunsicherheit bei der Erstellung von Vorhersagen zu quantifizieren. Ich habe argumentiert, dass bayessche neuronale Netze eine praktikable Option dafür sein könnten. Daher könnten diese Modelle in Zukunft nützliche Techniken für Regulierungsbehörden bereitstellen, die sie beim Umgang mit Modellunsicherheiten berücksichtigen sollten.










Jack Page arbeitet in der International Surveillance Division der Bank.





Kommentare werden nur angezeigt, wenn sie von einem Moderator genehmigt wurden, und werden nur veröffentlicht, wenn ein vollständiger Name angegeben wird. Bank Underground ist ein Blog für Mitarbeiter der Bank of England, um Ansichten auszutauschen, die die vorherrschenden politischen Orthodoxien in Frage stellen – oder unterstützen. Die hier geäußerten Ansichten sind die der Autoren und nicht unbedingt die der Bank of England oder ihrer politischen Ausschüsse.





Wenn Sie mit uns Kontakt aufnehmen möchten, senden Sie uns bitte eine E-Mail an bankunderground@bankofengland.co.uk oder hinterlassen Sie unten einen Kommentar.



Related Posts
Diệp Quân
Nguyen Manh Cuong is the author and founder of the vmwareplayerfree blog. With over 14 years of experience in Online Marketing, he now runs a number of successful websites, and occasionally shares his experience & knowledge on this blog.
SHARE

Related Posts

Subscribe to get free updates

Post a Comment

Sticky