Autor: Andrzej Raczko

Doktor nauk ekonomicznych, doradca Prezesa NBP. Minister finansów w latach 2003-2004.

Modelować czy nie modelować – oto jest pytanie

Zastosowanie matematyki w naukach społecznych od początku budziło kontrowersje. Sceptycznie nastawione były nie tylko te osoby, którym matematyka „szła” źle w szkole i dlatego analizę relacji społecznych trzymały z daleka od matematycznych formuł, ale również sami matematycy.
Modelować czy nie modelować - oto jest pytanie

Andrzej Raczko (Fot. NBP)

Słynny polski matematyk Stanisław Ulam wypowiedział znane słowa: „Pokażcie mi twierdzenie z nauk społecznych, które byłoby prawdziwe i równocześnie nietrywialne”. Polemizując z nim Paul Samuelson wskazywał, że twierdzenie o kosztach komparatywnych daje się matematycznie sformułować i empirycznie zweryfikować. Co ciekawe, ekonomiści nawet ze szkoły austriackiej nie kwestionowali użyteczności informacji statystycznych do opisu zjawisk ekonomicznych. Statystyka używana była do wyjaśnienia tego „jak było”, natomiast kuszącym pytaniem jest to „jak będzie”.

Początkowa formalizacja matematyczna była eleganckim zapisem prowadzonego rozumowania przy użyciu odpowiednio zdefiniowanych i możliwych do matematycznej interpretacji pojęć. Teorie mikroekonomiczne, zbudowane jeszcze w końcu dziewiętnastego wieku, ładnie wyglądały w formie, ale ich treść, używając słów Ulama, była dość trywialna. Sprawy uległy zmianie wraz z rewolucją keynesowską i pojawieniem się interwencjonizmu państwowego. Pojawił się popyt na analizy, które były w stanie przedstawić skutki określonej polityki budżetowej i pieniężnej. To zapotrzebowanie pchnęło ekonomistów do połączenia formalizacji matematycznej z informacjami statystycznymi i w ten sposób powstała ekonometria. Rozpoczęto budowę złożonych modeli gospodarki, których parametry były szacowane za pomocą danych statystycznych z przeszłości. Co więcej, manipulując wielkościami będącymi pod kontrolą państwa, starano się oszacować skutki określonej polityki interwencyjnej na mierzalne wyniki gospodarcze. Wydawało się, że ekonomiści, posługując się modelami, są w stanie odpowiedzieć na nurtujące pytanie „jak będzie”.

Wydawało się, że polityka gospodarcza zyskała nowy instrument badawczy. Niestety modele DSGE nie zaprognozowały ostatniego kryzysu finansowego.

Doskonalenie modeli szło w dwóch kierunkach, po pierwsze rozbudowywano wielkość modeli (potrafiły liczyć ponad tysiąc równań), po drugie starano się zbierać coraz więcej informacji statystycznych.

Większość ekonomistów dostrzegała pewne wady modeli. Struktura liniowa modeli powodowała, że sprawdzały się one wtedy, gdy nie zmieniały się trendy obserwowanych zjawisk gospodarczych. Kryzysy naftowe lat siedemdziesiątych, kiedy „rozsypała się” kluczowa zależność pomiędzy inflacją i stopą bezrobocia, pokazały bezradność keynesowskich modeli ekonometrycznych w prognozowaniu zjawisk gospodarczych. Co więcej, Robert Lucas wykazał, dlaczego koncepcja symulacji polityki gospodarczej za pomocą modeli keynesowskich obarczona jest błędem metodologicznym. W rezultacie nastąpiła głęboka rewizja modelowania, która polegała na inkorporowaniu do modeli mechanizmu zachowania mikroekonomicznego podmiotów gospodarczych. Modelowanie kładło teraz nacisk na identyfikowanie zaburzeń, jakie uderzają w gospodarkę i reakcję systemu gospodarczego na te szoki. W ten sposób pojawiły się modele DSGE (dynamic stochastic general equilibrium). Mikroekonomiczne fundamenty tych modeli powinny pozwolić na wyjaśnienie przebiegu procesów cyklicznych zachodzących w gospodarce. Wydawało się, że polityka gospodarcza zyskała nowy instrument badawczy. Niestety modele DSGE nie zaprognozowały ostatniego kryzysu finansowego i następującej równolegle wielkiej depresji.

Z inicjatywy Uniwersytetu w Oxfordzie opublikowano zestaw artykułów poświęconych przyszłości modeli makroekonomicznych („Oxford Review of Economic Policy”, vol. 34, nr 1-2, 2018; autorzy to: Blanchard, Carlin i Soskice, Ghironi, Haldane i Turrell, Hendry i Muellbauer, Krugman, Linde, McKibbin i Stoeckel, Reis, Stiglitz, Vines i Willis, Wren-Lewis, Wright).

Czołowi ekonomiści próbowali odpowiedzieć na kilka pytań: czego brakuje modelom DSGE, czy modele te są oparte na właściwych podstawach teoretycznych, jaką wartość dodaną niosą te modele a na jakie pytania nie są one w stanie odpowiedzieć, czy informacje jakimi modele są zasilane są właściwe i wystarczające, czy modele DSGE powinny dominować.

W odniesieniu do pierwszego pytania panowała pełna zgoda, że istniejące modele DSGE nie uwzględniają szeregu elementów, na przykład: opisu sektora finansowego, zróżnicowania gospodarstw domowych, powiązań na rynku pracy, czynników determinujących handel międzynarodowy. Odpowiedzi na pytania dotyczące podstaw teoretycznych nie były jednolite. Rozwój modeli DSGE pozwolił na wchłonięcie koncepcji nowokeynesowskich, dlatego większość ekonomistów uznała je za dobrze osadzone w teorii, w sensie budowy modeli opartych na mikropodstawach funkcjonowania podmiotów gospodarczych. Odmiennej opinii był Stiglitz, który uważa, że modele DSGE ignorują dorobek teorii informacji i ekonomii behawioralnej. Za wartość dodaną modeli uznawano ich spójność z zasadami prowadzenia polityki pieniężnej starającej się stabilizować oczekiwania inflacyjne. Brak opisu sektora finansowego nie pozwala natomiast na wychwycenie zmian jego stabilności.

Krugman przedstawił ciekawą tezę, według której nie braki w konstrukcji modeli DSGE były przyczyną ich ostatniej porażki, ale zły sposób ich zasilania w informacje. Mechanizm powstawania nierównowagi na rynku finansowym był znany i ujęty w modelach. Modele nie były jednak zasilane informacjami o nieregulowanym systemie finansowym, stanie rozwoju rynku operacji sekurytyzacyjnych, zasięgu i formach rynku międzybankowego. W rezultacie pomijania tych informacji nie był widoczny proces rozsadzający stabilność sektora finansowego.

Nadszarpnięta przez kryzys reputacja ekonomistów wymaga zbudowania modeli zdolnych sygnalizować kumulację negatywnych zjawisk gospodarczych, jeśli się to nie uda, wiara w naukowe podstawy ekonomii zostanie podważona.

Blanchard swój artykuł poświęcił ostatniej kwestii: kierunkom rozwoju modelowania makroekonomicznego. Jego zdaniem nie można zbudować idealnego modelu, który by pełnił wszystkie funkcje. Blanchard zaakcentował potrzebę powrotu do modeli czysto teoretycznych, które nie mają odzwierciedlać dokładnie gospodarczej rzeczywistości, ale pozwalać analizować skutki, jakie wynikają z przyjętych założeń teoretycznych. Eleganckie modele DSGE, mające wspólny fundament mikroekonomiczny, po niezbędnych uzupełnieniach, mogą dalej służyć analizie skutków wywołanych przez różne szoki. Jednak dla celów prowadzenia polityki gospodarczej modele te muszą być zmienione w taki sposób, by mogły uchwycić bieżącą dynamikę wielkości gospodarczych. Oddzielną klasę stanowią modele prognostyczne, których konstrukcja nie musi idealnie pasować do teoretycznych koncepcji, wyznacznikiem ich przydatności powinna być trafność prognoz. Blanchard postuluje również konstrukcję modeli – zabawek, które stosując proste konstrukcje, będą wskazywać drogę odpowiedzi na pytania inspirowane przez bieżące zmiany gospodarcze.

Jak widać, czołowi ekonomiści nie tracą wiary w przydatność modeli. Kluczową kwestią dla nich nie jest pytanie: czy modelować, ale jak to robić. Nadszarpnięta przez kryzys reputacja ekonomistów wymaga jednak zbudowania modeli zdolnych sygnalizować kumulację negatywnych zjawisk gospodarczych, jeśli się to nie uda, wiara w naukowe podstawy ekonomii zostanie podważona. Znów okaże się aktualne pytanie brytyjskiej królowej: Dlaczego nikt nie widział, że kryzys nadchodzi?

Andrzej Raczko jest doradcą prezesa NBP, był członkiem zarządu NBP w latach 2010-2016 i ministrem finansów w latach 2003-2004.

Andrzej Raczko (Fot. NBP)

Tagi