Kiedy modele ryzyka ulegają halucynacjom

Zjawisko halucynacji w modelach ryzyka zdarza się, kiedy wymusza się na nich prognozowanie prawdopodobieństwa wystąpienia ekstremalnych zdarzeń w przypadkach, w których nie trenowano takich modeli pod kątem takich ekstremalnych wyników. Zdarza się to zaskakująco często w takich zastosowaniach jak regulacje finansowe, fundusze emerytalne, reasekuracja, a także powstrzymywanie szoków rynkowych i kryzysów finansowych.
Kiedy modele ryzyka ulegają halucynacjom

(©Envato)

W artykule stwierdzamy, że pomiar systemowego ryzyka finansowego musi uwzględniać zmieniające się zachowanie podmiotów i instytucji w okresach napięć rynkowych. Takie podejście stanowi większe wyzwanie i jest trudniejsze do sformalizowania, ale ma kluczowe znaczenie w procesie uczenia się, jak rozwijać odporność finansową.

Modele ryzyka finansowego mają zasadnicze znaczenie dla funkcjonowania instytucji finansowych i regulacji finansowych. Zaskakujący jest jednak fakt, że wiedza na temat ich dokładności jest niewielka. Generatywne modele sztucznej inteligencji (AI), takie jak chatGPT, zostały zaprojektowane tak, aby zawsze udzielać odpowiedzi, nawet jeśli ich wiedza jest ograniczona lub wręcz nie mają wiedzy na temat zadawanego pytania, co stanowi zjawisko znane jako „halucynacja” AI (Taliaferro 2023). W celu nadania znaczenia halucynacji AI, odpowiedź musi brzmieć wiarygodnie dla użytkownika-człowieka.

Jak wygląda sytuacja w przypadku bardziej tradycyjnych modeli ryzyka? Czy one również ulegają halucynacjom, a jeśli tak, to czy prognozy ryzyka są traktowane jako wiarygodne?

W jaki sposób tworzone są modele ryzyka

Kiedy widzimy liczbę wyrażającą ryzyko finansowe, na przykład, zmienność, ryzyko zdarzeń skrajnych (tzw. tail risk), ryzyko kredytowe lub ryzyko systemowe, nie jest ona wynikiem pomiaru, takiego jak temperatura lub cena, ale jest to raczej wynik modelu. Jest to coś, co w artykule z 2009 roku nazwałem Ryzykometrem (Danielsson 2009). Powodem jest fakt, że ryzyko jest zmienną ukrytą, którą można wywnioskować jedynie na podstawie historycznych wahań cen, ale nie da się jej zmierzyć w taki sam sposób, jak temperaturę czy ceny. Nawet takie wybiegające w przyszłość wskaźniki ryzyka, które przekazują nastroje rynkowe, jak VIX i spread swapu ryzyka kredytowego (CDS), nie różnią się w istotny sposób, ponieważ opierają się na podobnych modelach.

Zobacz również:
Gdzie i dlaczego płynie kapitał lubiący ryzyko

W rezultacie nie jest możliwe uzyskanie jednoznacznego pomiaru ryzyka. Wręcz przeciwnie, istnieje nieskończona liczba wariantów ryzyka do wyboru dla tego samego wyniku, ponieważ występuje nieskończona liczba modeli, które można stworzyć w celu oszacowania ryzyka. Problem ten rozwiązujemy, wybierając techniki oszacowania ryzyka za pomocą mechanizmów konsensusu, w których preferowane są proste modele opierające się na łatwo dostępnych danych.

Wreszcie, problem wyboru modelu sprowadza się do słów George’a Boxa: „Wszystkie modele są błędne, a niektóre są przydatne”, co sugeruje, że powinniśmy przeprowadzać jakieś analizy dokładności modeli ryzyka. Każda osoba, która studiuje statystykę, jest od początku uczona, jak ważne są granice ufności. Dlaczego nie mielibyśmy uwzględniać przedziałów ufności w prognozach ryzyka? Odpowiedź nie jest taka prosta. Możemy zastosować standardowe techniki, ale tylko wtedy, jeśli założymy, że model jest prawdziwy, co oczywiście nigdy nie ma miejsca. Jak dowodzą Danielsson i Zhou (2015) w artykule opublikowanym w VoxEU, zatytułowanym „Dlaczego występują trudności z pomiarem ryzyka”, ocena wiarygodności prognoz ryzyka nie jest łatwa.

Co faktycznie mierzą modele ryzyka

Jak wykazują badania, prognozy ryzyka nie są zbyt dokładne.

Chociaż rynki finansowe generują ogromne ilości danych liczone w petabajtach na dzień, większość z nich dotyczy po prostu bardzo częstych zmian cen aktywów. Powszechnie stosowaną metodą uzyskiwania prognoz ryzyka jest wprowadzanie danych o stosunkowo wysokiej częstotliwości, np. ceny dzienne, do modelu statystycznego zaprojektowanego w celu reprezentowania stochastycznego procesu cen.

Dane wykorzystywane do oszacowania modelu stanowią codzienne wahania w środkowym przedziale rozkładu, ale te codzienne wydarzenia nie są zazwyczaj tak ważne. Liczą się tzw. ogony (dane krańcowe) – lewy dla dużych strat i kryzysów oraz prawy dla zysków i wzrostu gospodarczego. Ale to nie są miejsca, w których występują żywe dane.

Kiedy modele ulegają halucynacjom

Załóżmy, że modele ryzyka zostaną ustawione na analizę rzadziej występujących zdarzeń. Może to być krach na giełdzie raz na dekadę, katastrofa finansowa, bankructwo banku lub możliwość, że nasza emerytura nie będzie tak dobra, jak reklamowano.

Jednakże istnieje niewiele informacji na temat takich zdarzeń występujących na ogonie rozkładu. Na potrzeby przeprowadzenia dokładnej oceny ryzyka krachu giełdowego raz na dziesięć lat, potrzebujemy danych o stopie zwrotu z akcji z okresu dziesięciu lat. Z uwagi na fakt, że minimalna wielkość próby obejmuje setki danych, potrzebowalibyśmy danych obejmujących całe tysiąclecia. Dzieje się tak dlatego, że do obliczenia ryzyka danego zdarzenia potrzebujemy wystarczająco dużej próby zdarzeń skrajnych, znacznie większej niż wielkość próby, jaka jest niezbędna do przeprowadzenia analizy bardziej powszechnie występujących zdarzeń.

Zobacz również:
Niedoskonała informacja a cykle koniunkturalne

Taka sytuacja nie jest możliwa, ponieważ nie posiadamy danych, a zatem w praktyce wykorzystujemy obserwacje o wysokiej częstotliwości pochodzące ze środka rozkładu, aby oszacować w pierwszej kolejności proces stochastyczny, który zarządza danymi, a następnie wykorzystać go do obliczenia ryzyka wystąpienia tych ekstremalnych zdarzeń, o które nam chodzi.

Taki proces jest bardzo łatwy do przeprowadzenia. Wystarczy wprowadzić do modelu prawdopodobieństwo i pojawi się odpowiadające mu zdarzenie. Wychwytujemy zdarzenia mające miejsce raz w miesiącu, a także te, które występują co roku, w ciągu stulecia, a nawet raz w ciągu tysiąclecia.

Niestety, ze względu na to, że algorytm nie został przeszkolony na danych pochodzących z tak dramatycznych zdarzeń, po prostu wymyśla on liczby. Model ulega zatem tzw. halucynacjom. Generatywna AI funkcjonuje w taki sposób, ponieważ jest przeszkolona w zakresie udzielania odpowiedzi, niezależnie od tego, jak słabe potwierdzenie ma dana odpowiedź. Modele statystyczne działają tak samo.

Ryzyko endogeniczne i egzogeniczne oraz problem „jednego dnia na tysiąc”

Występują dwie kategorie ryzyka finansowego: egzogeniczne i endogeniczne, według Danielssona i Shina (2003) oraz Danielssona i in. (2009).

Ryzyko egzogeniczne opiera się na założeniu, że prawdopodobieństwo wyników z rynku pochodzi spoza systemu finansowego, podobnie jak potencjalna możliwość uderzenia asteroidy na Wall Street.

Założeniem ryzyka endogenicznego jest to, że interakcje między podmiotami gospodarczymi wpływają na wyniki całego systemu finansowego.

Pomiar ryzyka nie jest skomplikowany, jeśli ryzyko jest egzogeniczne, ponieważ potrzebne nam są tylko ceny historyczne w celu oszacowania procesu generowania danych. Nie jest zaskoczeniem, że niemal każdy stosowany obecnie model ryzyka zakłada, że ryzyko ma charakter egzogeniczny. Powodem takiego stanu rzeczy jest to, że modelowanie ryzyka egzogenicznego jest znacznie łatwiejsze, a takie modele są dobrze dostosowane do procesów regulacyjnych i procesów zapewnienia zgodności z przepisami.

W większości przypadków nie jest to główna przyczyna zmartwień. Łączny (zagregowany) wynik decyzji pochodzących z dużej liczby zróżnicowanych podmiotów rynkowych przez większość czasu przypomina losowy szum. Dzieje się tak pod warunkiem, że mają oni określone potrzeby, okoliczności i zobowiązania, które zmieniają się stosunkowo niezależnie od siebie, co powoduje, że ich decyzje będą również niezależne, a agregacja dużej ich liczby będzie prawie nieprzewidywalna, czyli nie da się ich odróżnić od szumu. W tych okolicznościach można bezpiecznie założyć, że ryzyko ma charakter egzogeniczny.

Niestety, założenie to zawodzi w najgorszym możliwym momencie. Klasyfikowanie skrajnych wyników jako losowych, które jest wymagane, jeśli chcemy traktować ryzyko jako egzogeniczne, jest błędem. Ekstremalne wyniki nie są przypadkowe. Natomiast istnieje ich logiczne wyjaśnienie, a ryzyko ich wystąpienia można ocenić.

Wyjaśnienie jest związane z motywacją uczestników rynku. Zazwyczaj najbardziej liczy się zysk, może nawet przez 999 dni na tysiąc. Jednakże w tym jednym ostatnim dniu, kiedy system przeżywa wielki wstrząs, a na horyzoncie pojawia się kryzys, to przetrwanie, a nie zysk, jest tym, na czym najbardziej im zależy – oto problem „jednego dnia na tysiąc”.

Kiedy instytucje finansowe traktują przetrwanie priorytetowo, ich zachowanie raptownie się zmienia. Zaczynają gromadzić płynność, wybierając najbardziej bezpieczne, płynne aktywa, takie jak rezerwy banku centralnego, co prowadzi do paniki bankowej, wyprzedaży, zapaści kredytowej i innych niepożądanych zachowań związanych z kryzysami. W takim zachowaniu nie ma jednak nic niewłaściwego i nie da się go łatwo uregulować.

Instynkt przetrwania jest najsilniejszą siłą stymulującą zawirowania i kryzysy finansowe. Właśnie w takich sytuacjach najbardziej istotne staje się ryzyko endogeniczne, ponieważ odzwierciedla ryzyko interakcji uczestników rynku, które nie przypominają już losowego szumu. Wręcz przeciwnie, w takiej sytuacji uczestnicy rynku działają o wiele bardziej harmonijnie. Kupowanie i sprzedawanie tych samych aktywów w tym samym czasie.

Zmiana zachowania z maksymalizacji zysku na przetrwanie powoduje strukturalną przerwę w stochastycznym procesie wyników pochodzących z rynku finansowego.

Jak mierzymy ryzyko ekstremalne?

Nie powinniśmy wykorzystywać procesu stochastycznego oszacowanego na podstawie codziennych obserwacji do przewidywania zdarzeń bardziej ekstremalnych. Wszystkie wyniki, jakie otrzymujemy, wynikają bowiem z halucynacji modelu ryzyka.

Problem ekstremalnych konsekwencji należy rozwiązać w inny sposób. Należy zacząć od uznania, że zdarzenia ekstremalne pokazują, co dzieje się, kiedy wygodne założenie ryzyka egzogenicznego załamuje się. Każda rozsądna analiza uwzględnia podstawowe czynniki wywołujące napięcia na rynku: instynkt przetrwania stymulowany przez dźwignię finansową, płynność i asymetrię informacji.

Kiedy badamy, jak instytucje finansowe zachowują się w okresach napięć, mamy sposoby na odwzorowanie składu ich portfeli na ich zachowanie. Po zagregowaniu tych danych w całym systemie można uzyskać pomiar systemowego ryzyka finansowego i, co jeszcze ważniejsze, można dowiedzieć się, w jaki sposób należy rozwijać odporność. Przynajmniej teoretycznie.

Istnieją dwa główne powody, dla których może się to nie udać.

Po pierwsze, jest to znacznie trudniejsze technicznie. Zamiast po prostu wprowadzać wcześniejsze ceny do algorytmu i dać mu zadanie wygenerowania ryzyka dla zdarzeń, na których nam zależy, musimy zagłębić się w strukturę instytucji finansowych i systemu, aby zrozumieć ich wzajemne interakcje. Jest to znacznie trudniejsze zadanie.

Ponadto, taka analiza jest bardziej subiektywna i trudniejsza do sformalizowania, a zatem nie sprzyja ani opracowaniu regulacji finansowych, ani zapewnieniu zgodności z przepisami.

Zobacz również:
W świecie finansów nie ma darmowych obiadów

Pomiędzy wymaganiem rygorystycznej analizy a żądaniem podania tylko liczby występuje konflikt. Drugie podejście jest łatwiejsze, ponieważ jest proste pod względem komunikacji, a użytkownicy nie muszą rozumieć, w jaki sposób uzyskano liczby lub co one oznaczają. Sądzę, że często występuje pragnienie, aby nie wiedzieć, w jaki sposób tworzone są dane dotyczące ryzyka, ponieważ pozwala to na wiarygodne zaprzeczenie. Znacznie łatwiejsze jest wykonanie zadania, jeśli dane liczbowe są postrzegane jako prawdziwe.

Zastosowania

System finansowy generuje ogromną ilość danych, co może sugerować, że oszacowanie rozkładu wyników rynkowych jest stosunkowo łatwe. W takim przypadku możemy bezpiecznie zignorować wpływ poszczególnych działań i traktować łączne zachowanie wszystkich graczy rynkowych jako losowy szum. Innymi słowy, jeśli założymy, że ryzyko jest egzogeniczne.

Niestety, nie uwzględnia to motywacji instytucji finansowych – zysku w normalnych czasach i przetrwania w czasie kryzysu. Taka zmiana zachowania powoduje przerwy strukturalne w procesie stochastycznym rynków aktywów, co oznacza, że model oszacowany w normalnych czasach nie daje zbyt wielu informacji o wynikach w warunkach skrajnych.

Łatwo jest ustawić model na wygenerowanie szacunkowego prawdopodobieństwa dla dowolnego wyniku, nawet jeśli model nie został przetrenowany na takich danych. Jest to jednak tylko halucynacja modelu ryzyka, nawet jeśli wielu użytkowników uznaje te dane liczbowe za wiarygodne. Otrzymujemy liczby, które w najlepszym razie mają słaby związek z rzeczywistością, co podważa decyzje podejmowane na ich podstawie.

Halucynacja modelu ryzyka jest szczególnie istotna w zastosowaniach, które dotyczą skrajności, takich jak fundusze emerytalne, reasekuracja, państwowe fundusze majątkowe i, co najważniejsze, regulacje finansowe.

Jon Danielsson, dyrektor Centrum Ryzyka Systemowego, Londyńska Szkoła Ekonomii i Nauk Politycznych

Artykuł ukazał się w wersji oryginalnej na platformie VoxEU, tam też dostępne są przypisy i bibliografia.

(©Envato)

Tagi


Artykuły powiązane

Globalny wyścig regulacyjny w zakresie AI

Kategoria: Trendy gospodarcze
Dlaczego UE powinna skoncentrować się na jakości danych i zasadach przypisania odpowiedzialności za jakość produktu?
Globalny wyścig regulacyjny w zakresie AI

Dokąd zmierza polityka pieniężna

Kategoria: Trendy gospodarcze
W latach 90. XX w. wydawało się, że patent na prowadzenie polityki pieniężnej jest znany. Kraje małe, o otwartej gospodarce i swobodnych przepływach finansowych, powinny zrezygnować z prowadzenia własnej polityki monetarnej i przywiązać kurs swojego pieniądza do zagranicznej waluty dominującej w obrotach handlu zagranicznego. Oczywiście takie rozwiązanie wymagało prowadzenia odpowiedzialnej polityki budżetowej i zaufania rynków finansowych wykluczające raptowny odpływ zagranicznego finansowania.
Dokąd zmierza polityka pieniężna

Prosta ekonomia paniki: Nagroda Nobla 2022 w perspektywie

Kategoria: VoxEU
Nagroda Nobla w dziedzinie nauk ekonomicznych w 2022 roku przypadła Benowi Bernankemu oraz Douglasowi Diamondowi i Philipowi Dybvigowi, w dużej mierze z powodu prac, które opublikowali w 1983 roku. Autor niniejszego artykułu odnosi się do krytyki, według której Diamond i Dybvig nie zrobili niczego poza matematyczną formalizacją czegoś, o czym wszyscy już wcześniej wiedzieli lub powinni wiedzieć, natomiast Bernanke został nagrodzony w mniejszym stopniu za swoje badania, a w większym za swoją późniejszą rolę decydenta w obszarze polityki publicznej.
Prosta ekonomia paniki: Nagroda Nobla 2022 w perspektywie