Autor: Ewa Rzeszutek

Zastępca redaktora naczelnego

Prognozowanie pozwala lepiej zrozumieć otaczającą nas rzeczywistość

W badaniach usiłuję zrozumieć, które modele ekonomiczne lub ekonometryczne pozwalają nam opowiadać trafne historie na temat przyszłości. Jakość prognoz traktuję przy tym jako metodę weryfikacji wiarygodności modelimówi prof. Michał Rubaszek, kierownik Zakładu Modelowania Rynków Finansowych w SGH.  
Prognozowanie pozwala lepiej zrozumieć otaczającą nas rzeczywistość

Prof. Michał Rubaszek (archiwum autora)

Obserwator Finansowy: Lista Pana publikacji pokazuje nie tylko pokaźny dorobek naukowy, ale także wyraźną koncentrację na modelowaniu i prognozowaniu zjawisk gospodarczo – finansowych. Skąd taka specjalizacja?

Michał Rubaszek: Moje zamiłowanie do prognozowania rozpoczęło się dwie dekady temu, kiedy w ramach pracy w NBP byłem odpowiedzialny za opracowywanie założeń dotyczących rozwoju sytuacji gospodarczej w głównych gospodarkach światowych. Przygotowanie prognoz makroekonomicznych wymagało, aby na podstawie dostępnych opracowań zewnętrznych instytucji, takich jak EBC, MFW czy OECD, jak również własnych analiz przeszłych tendencji przygotować spójną historię na temat tego, co się wydarzy w przyszłości.

Kiedy pomyślę o mojej pracy z tamtych czasów, to przychodzi mi na myśl następujące zdanie „We are pattern-seeking, story-telling animals”, pochodzące z książki Edwarda Leamera pt. „Macroeconomic Patterns and Stories”. W wolnym tłumaczeniu oznacza to, że jesteśmy istotami, które lubią snuć opowieść na temat przyszłości na podstawie prawidłowości zaobserwowanych w przeszłości. Zdanie to idealnie obrazuje to, co jest zazwyczaj postrzegane jako wiarygodna prognoza. Jest to przekonująca opowieść spójna z przeszłymi trendami. W tym świetle obecna pandemia była tak dużym zaskoczeniem zarówno dla prognostów jak i decydentów. Pandemia po prostu nie była częścią naszych opowieści na temat przyszłości.

Wracając do początków mojej pracy zawodowej, pamiętam, że kiedy opracowywałem prognozy dla gospodarek światowych, zastanawiało mnie, na ile formalne modele ekonomiczne, które dostarczają spójnych opowieści makroekonomicznych, pozwalają uzyskać trafne prognozy. Postanowiłem to sprawdzić poprzez zbudowanie modelu klasy DSGE (Dynamic Stochastic General Equilibriium) opisującego gospodarki strefy euro i Stanów Zjednoczonych. Powstał model o roboczej nazwie EURUS, z którego wyniki wykorzystywałem w wewnętrznych materiałach prognostycznych.

Jednak samo zbudowanie modelu prognostycznego nie do końca zaspokoiło moją ciekawość, bo nie wiedziałem, na ile model ten dostarcza wiarygodnych predykcji na tle prognoz pochodzących z głównych instytucji międzynarodowych. Mogłem zaobserwować jedynie, że prognozy z modelu DSGE były zdecydowanie inne niż prognozy rynkowe.

Czyli wyniki modelu trzeba było skonfrontować z prognozami ekspertów?

Zgadza się. Moment, kiedy postanowiłem to sprawdzić jest początkiem moich artykułów o tematyce prognostycznej. Uzyskane wyniki moich badań okazały się na tyle ciekawe, że ich opis został przyjęty do publikacji w najważniejszym czasopiśmie prognostycznym, tj. International Journal of Forecasting. Artykuł opracowany wspólnie z Pawłem Skrzypczyńskim pt. On the forecasting performance of a small-scale DSGE model okazał się bowiem pierwszym opracowaniem porównującym prognozy z modelu DSGE z prognozami eksperckimi. Co ciekawe, informację o przyjęciu artykułu do publikacji otrzymałem dokładnie w dniu 30 urodzin.

Od tego momentu przeprowadziłem ponad tuzin badań, w których usiłuję zrozumieć, które modele ekonomiczne lub ekonometryczne pozwalają nam opowiadać trafne historie na temat przyszłości. Jakość prognoz traktuję przy tym jako metodę weryfikacji wiarygodności modeli.

Aby doprecyzować, co mam na myśli, posłużę się moim ulubionym fragmentem z opracowania pt. „Methodology of Positive Economics” autorstwa Miltona Friedmana, a mianowicie, że celem nauki pozytywnej jest rozwijanie teorii dostarczających wiarygodnych predykcji dla zjawisk, które nie zostały jeszcze zaobserwowane. Kiedy się zastanawiam, w jaki sposób możemy ocenić, która narracja na temat otaczającej nas rzeczywistości jest wiarygodna, trafność prognoz wydaje się bardzo uczciwym kryterium.

Ostatnio literaturę prognostyczną wzbogacił artykuł 74 międzynarodowych autorów „Forecasting: theory and practice”. Pozycja wydaje się szczególnie aktualna i potrzebna teraz – w okresie kryzysu pandemicznego. Jaki jest Pana wkład do tej publikacji?

Opracowanie to stanowi swojego rodzaju kompendium wiedzy na temat najnowszych trendów w prognozowaniu różnych dziedzin życia gospodarczego i społecznego. Mam tu swoje dwa rozdziały.

W rozdziale teoretycznym pt. „Model complexity” opisuję, jaka jest zależność między stopniem złożoności modelu a jakością prognoz. Prowadzone przeze mnie badania wskazują, że proste modele, które są oparte na teorii ekonomii oraz umiejętnie kontrolują błąd estymacji parametrów, zazwyczaj dostarczają trafniejszych prognoz niż modele złożone. Co ciekawe, nasze zamiłowanie do snucia rozbudowanych opowieści na temat przyszłości sprawia, że dużym zaufaniem darzymy skomplikowane modele, co prowadzi do ich nadmiernego wykorzystywania w praktyce (dyskusja na ten temat jest zawarta w artykule pod linkiem.

Kurs równowagi: któremu modelowi powinniśmy zaufać?

Przyznam, że w przeszłości sam wpadłem w taką pułapkę w pracach nad kursem równowagi. Jeden z moich ostatnich artykułów, którego opis ukazał się na łamach OF pt. Kurs równowagi: któremu modelowi powinniśmy zaufać? wskazuje bowiem, że rozbudowany model kursu równowagi fundamentalnej, który przez wiele lat traktowałem jako najlepszą metodę wyznaczania niedopasowania kursu walutowego, nie przechodzi testu opartego na ocenie jakości prognoz.

Wracając do pytania Pani Redaktor, w rozdziale praktycznym przeglądowego artykułu na temat prognozowania, pt. „Exchange rate forecasting” opisuję światowe badania dotyczące prognozowania kursu walutowego.

W przypadku kursów walutowych utarła się opinia w wielu kręgach ekonomistów, że nie da się prognozować ich zmian. Czy zgadza się Pan z tym?

Dominujący pogląd jest taki, że kursów walutowych nie da się prognozować. Hipoteza ta pojawiła się na początku lat 80. wraz z publikacją „Empirical exchange rate models of the seventies : Do they fit out of sample?”, w której Meese i Rogoff wskazali, że modele monetarne dostarczają gorszych prognoz niż prosty model zakładający brak zmian kursu. Od tego czasu poszukiwanie modelu prognozującego kurs było przedmiotem licznych opracowań naukowych. Można śmiało powiedzieć, że kurs walutowy jest najczęściej prognozowaną zmienną w literaturze ekonomicznej.

Osobiście jestem zdania, że kursy walutowe są prognozowalne. W serii artykułów, wraz z moim włoskim imiennikiem, Michele Ca’Zorzi, pokazujemy, że można przewidzieć przyszłe zmiany kursów, jeżeli w umiejętny sposób wykorzystamy fakt, że w dłuższym horyzoncie kursy realne powracają do poziomu spójnego z teorią parytetu siły nabywczej. Prosta metoda zakładająca stopniowy powrót kursu do parytetu siły nabywczej sprawdza się dużo lepiej niż metoda zakładająca brak zmian kursu wymiany.

W ostatnich latach pojawiło się kilka bardzo ciekawych opracowań dotyczących strategii inwestycyjnych na rynku walutowym, takich jak momentum, carry, value, czy strategie oparte na czynnikach makroekonomicznych. Moim ulubionym przykładem jest niedawne opracowanie pt. „Business cycles and currency returns”, które pokazuje, że uszeregowanie walut względem pewnej cechy, np. w strategii carry jest to poziom krajowej stopy procentowej, pozwala uzyskać atrakcyjną stopę zwrotu przy danym poziomie ryzyka. Wyniki te pośrednio sugerują, że waluty są prognozowalne.

A jak przebiegała ewolucja metod prognozowania makroekonomicznego, czyli dojście do aktualnie wykorzystywanych modeli?

W latach 60. i 70. bardzo popularne były duże modele makroekonometryczne, budowane zgodnie z zaleceniami Komisji Cowlesa. Elastyczna i rozbudowana struktura tych modeli, pozwalająca uwzględnić wiele zmiennych endogenicznych i egzogenicznych, była niewątpliwie zaletą, ale też i wadą. Okazało się bowiem, że prognozy z tych modeli są niskiej jakości.

Przykładowo, na początku lat 70. Charles Nelson pokazał, że prognozy z modelu FRB-MIT-Penn, opracowanego w trzech topowych ośrodkach amerykańskich, są gorsze od prognoz z prostych modeli autoregresyjnych typu ARMA. Kilka lat później Robert Lucas przeprowadził krytykę własności symulacyjnych modeli makroekonometrycznych. Wskazał, że skutki decyzji z zakresu polityki gospodarczej, zależą od tego, czy wprowadzone zmiany były oczekiwane, czy nie. Tradycyjne modele makroekonomiczne nie były w stanie uwzględnić tej zależności ponieważ nie uwzględniają w odpowiedni sposób oczekiwań. Na końcu, Christopher Sims przeprowadził krytykę ekonometrycznej metodologii modeli makroekonometrycznych. Wskazał, że arbitralnie dzielą one zmienne na endogeniczne i egzogeniczne oraz odgórnie ustalają dynamiczną specyfikację zależności między tymi zmiennymi.

Trzy powyższe ciosy sprawiły, że modele makroekonometryczne utraciły swój blask i rozpoczęły się poszukiwania nowych struktur.

Krytyka Lucasa sprawiła, że nastąpił rozwój teoretycznych modeli z racjonalnymi oczekiwaniami, m.in. modeli realnego cyklu koniunkturalnego oraz modeli nowokeynesowskich. Z kolei krytyka Simsa była bodźcem do rozwoju empirycznych modeli wektorowej autoregresji. Synteza tych dwóch nurtów w literaturze nastąpiła w 2003 r., gdy Smets i Wouters pokazali jak dopasować model nowokeynesowski do danych i uzyskać prognozy, które są trafniejsze niż prognozy z modelu wektorowej autoregresji.

To był początek dynamicznego rozwoju modeli klasy DSGE, które aktualnie są dominującym narzędziem prognostyczno-symulacyjnym w makroekonomii. Warto jednak dodać, że ze względu na bardzo dużą elastyczność tradycyjnych modeli makroekonometrycznych, wciąż pozostają one w użyciu w wielu instytucjach. W moim odczuciu jest to jak najbardziej uzasadnione.

Z czego wynika wysoka popularność modeli klasy DSGE jako narzędzia symulacyjno-prognostycznego w takich ośrodkach jak banki centralne, międzynarodowe instytucje finansowe czy uczelnie?

Moim zdaniem powody są trojakie. Po pierwsze, modele te są bardzo eleganckie od strony matematycznej. Na podstawie jawnie zdefiniowanych problemów optymalizacyjnych podmiotów gospodarczych wyprowadzana jest dynamika zmiennych mikroekonomicznych, które następnie są agregowane do zmiennych makroekonomicznych. W tym sensie, modele te są wewnętrznie spójne. Drugi powód jest taki, że modele te dostarczają opisu otaczającej nas rzeczywistości, spełniającego oczekiwania odbiorców. Pozwalają one snuć opowieść na temat otaczającej nas rzeczywistości, która jest spójna z przeszłymi tendencjami (“pattern-seeking, story-telling model”). Po trzecie, okazuje się, że modele DSGE dostarczają relatywnie trafnych prognoz makroekonomicznych.

Wydaje mi się, że w ramach prowadzonych badań na temat własności prognostycznych modeli DSGE udało mi się wytłumaczyć dlaczego modele te dostarczają względnie dokładnych prognoz. Moje wyniki wskazują, że dzieje się tak, ponieważ modele te mają dobrze zdefiniowany poziom równowagi, tzw. stan ustalony, który jest spójny z teorią ekonomii, a ich struktura mocno ogranicza nadmierną dynamikę krótkookresową w porównaniu z modelami ekonometrycznymi, np. modelami wektorowej autoregresji.

Pytanie praktyczne – jak już zbudujemy model makroekonomiczny, to jak często powinniśmy aktualizować jego parametry?

Powszechną praktyką w instytucjach wykorzystujących makromodele do prognozowania i symulacji jest jedynie sporadyczna re-estymacja ich parametrów. Głównym powodem tej praktyki jest to, że ponowne oszacowanie parametrów modelu utrudnia rozliczenie różnic w prognozach pochodzących z kolejnych rund prognostycznych. Dodatkowo, aktualizacja parametrów zmienia własności modelu, a tym samym utrudnia komunikację między twórcami modelu oraz jego użytkownikami.

W artykule How frequently should we reestimate DSGE models? razem z Marcinem Kolasą pokazaliśmy, że aktualizacja parametrów modelu raz w roku z reguły nie prowadzi do znaczącego pogorszenia dokładności prognoz w porównaniu do re-estymacji kwartalnej. Jednakże, zbyt niska częstotliwość aktualizacji parametrów, np. co dwa lata, prowadzi do istotnego obniżenia jakości prognoz. Nasza rekomendacja jest zatem bardzo przejrzysta: najlepiej aktualizować parametry modelu raz w roku.

Rozumiem, że na trafność prognozy modelowej wpływa specyfikacja modelu oraz odpowiedni dobór jego parametrów. A jaka jest rola i skuteczność ekspertów w procesie prognostycznym?

Moje postrzeganie procesu prognostycznego w makroekonomii jest takie, że formułujemy prognozy przy wykorzystaniu modeli, aby uzyskać zarówno wartości liczbowe, jak również opowieść na temat przyszłości. Chcielibyśmy, aby prognoza była wewnętrznie spójna i pokrywała się z tym, jak postrzegamy zachodzące procesy gospodarcze. Tutaj pojawia się bardzo duża przestrzeń do wykazania się przez ekspertów. Przeprowadzenie dyskusji na temat tego, co się dzieje w gospodarce pozwala nam lepiej zrozumieć otaczającą nas rzeczywistość, która w większości przypadków jest dużo bardziej złożona niż model makroekonomiczny. Eksperci potrafią dostrzec dużo więcej niż nawet bardzo rozbudowany model.

Jeżeli zawęziłbym pytanie do poziomu stricte technicznego, tj. czy eksperci pomagają czy przeszkadzają w prognozowaniu, to mogę powiedzieć, że w literaturze nie znajdziemy jednoznacznych odpowiedzi. Przykładowo, porównanie ekspertów i modeli DSGE wskazuje na ekspertów przy prognozowaniu inflacji, ale z kolei na modele DSGE przy prognozowaniu PKB. Takie wyniki uzyskaliśmy z Pawłem Skrzypczyńskim i Marcinem Kolasą w artykule „Putting the New Keynesian DSGE model to the real-time forecasting test”.

Ogólnie, moja opinia jest taka, że eksperci potencjalnie dobrze potrafią ocenić bieżącą sytuację gospodarczą i tym samym są skuteczni w prognozowaniu krótkookresowym, natomiast do prognoz długookresowych bardziej przydatne są modele. Inna sprawa jest taka, że wykorzystanie wiedzy eksperckiej też powinno być w jakiś sposób sformalizowane, aby wyeliminować proste błędy, np. związane z nadmiernym przywiązaniem pojedynczych ekspertów do swoich przekonań na temat tendencji w gospodarce. W literaturze anglojęzycznej określne to jest jako „overconfidence”, co w wolnym tłumaczeniu na język polski określiłbym jako upór. Przykładem jest na przykład metoda delficka.

W jakim stopniu w prognozowaniu są wykorzystywane metody uczenia maszynowego?

Jest to aktualnie jedno z ważniejszych pytań w literaturze prognostycznej. Z jednej strony widzimy coraz szersze wykorzystanie metod uczenia maszynowego w problemach klasyfikacyjnych opartych o duże zbiory danych. Z drugiej strony ich wykorzystanie w prognozowaniu makroekonomicznym pozostaje marginalne.

Dlaczego?

Zauważmy, że przy wyborze modelu prognostycznego główny dylemat polega na tym, że im bardziej skomplikowany jest model, tym mniejszy jest błąd prognozy związany z jego złą specyfikacją (bias), ale tym większy jest błąd prognozy związany z tym, że nieznane parametry muszą zostać skalibrowane lub oszacowane (variance). Nawiązuję tutaj do dylematu określanego w literaturze jako „bias-variance tradeoff”.

Błąd estymacji (variance) można ograniczyć przez wzrost liczebności próby, na podstawie której oszacowane są parametry modelu. Błąd specyfikacji nie zależy natomiast od tego, ile mamy obserwacji. A zatem, jeżeli mamy do dyspozycji milion obserwacji, to możemy podjąć próbę zbudowania modelu, który ma tysiąc parametrów i nieliniowe zależności funkcyjne. Przykładem takiego modelu jest głęboka sieć neuronowa. Jeżeli jednak modelujemy gospodarkę polską, wykorzystując dane kwartalne od 1995 roku, czyli mamy do dyspozycji około 100 obserwacji, nasze możliwości wyboru postaci funkcyjnej są mocno ograniczone. A tym samym metody uczenia maszynowego tracą swoją przewagę nad tradycyjnymi modelami ekonometrycznymi.

W tym zakresie warto jednak wspomnieć, że w szerszym kontekście prognozowania szeregów czasowych, niekoniecznie dla danych makroekonmicznych, pojawia się coraz więcej prób stosowania metod uczenia maszynowego. W piątej edycji jednego z popularniejszych konkursów prognostycznych, tj. M Competition organizowanego przez Spyriosa Makradakisa, po raz pierwszy modele uczenia maszynowego okazały się lepsze niż tradycyjne modele ekonometryczne, w tym przypadku w prognozowaniu sprzedaży dziennej dla wybranych produktów.

Moja interpretacja tego wyniku jest taka, że w tej edycji konkursu zadanie oparte było o dane dzienne i modele mogły być uczone na relatywnie dużej liczbie obserwacji. Ponadto, sukces modeli uczenia maszynowego w tym konkursie może wynikać z prostego faktu, że relatywnie duża liczba uczestników zdecydowała się sprawdzić modele tego typu, co w naturalny sposób zwiększyło szansę na ich dobry wynik .

Wykorzystam teraz Pana doświadczenie i wiedzę w zakresie zagadnień globalnych. Pandemia ożywiła dyskusje wokół ważnych dla gospodarki światowej wyzwań. Problemy te narastały od lat, ale obecny kryzys je zaostrza.

Opowieść o przyszłości, rozpocząłbym od krótkiego spojrzenia na przeszłość. A jest na co spoglądać, bo w ostatnich latach byliśmy świadkami najszybszych przemian gospodarczych w historii ludzkości. Obserwowaliśmy niesamowity wzrost potęgi gospodarczej Chin. W zakresie zmian technologicznych nastąpił gwałtowny rozwój mocy obliczeniowej komputerów, Internetu, telefonii komórkowej, portali społecznościowych, sztucznej inteligencji czy w zakresie wykorzystania dużych baz danych. A to wszystko właściwie na przestrzeni pierwszych dwóch dekad XXI wieku. Tym szybkim zmianom towarzyszyły również inne, mniej korzystne tendencje. Są to przede wszystkim postępujące zmiany klimatyczne, rosnące rozwarstwienie społeczeństwa, narastająca polaryzacja na scenie politycznej, czy rosnące problemy związane z zanikaniem więzi społecznych.

Które z nich są najważniejsze dla przyszłości?

Patrząc na te przeszłe trendy, w mojej ocenie najważniejszym i kluczowym wyzwaniem na poziomie globalnym jest koordynacja działań w zakresie zmian klimatycznych. Tutaj przywołałbym Thomasa Malthusa, który pod koniec XVIII wieku, w ramach statycznej teorii zasobów prognozował, że produkcja rolna nie nadąży nad wzrostem populacji. Predykcja ta okazała się bardzo nietrafioną prognozą na dwa kolejne wieki, tj. okres bardzo intensywnej eksploracji zasobów naturalnych przez człowieka. I chciałbym, aby prognoza ta okazała się również mylna w XXI wieku. Wiele sygnałów wskazuje jednak na to, że wymagać to będzie ogromnego wysiłku w zakresie tego, jak dbamy o naszą planetę. Pandemia pozwoliła wyhamować, a nawet w niektórych przypadkach odwrócić niekorzystne trendy, np. w zakresie wykorzystania paliw kopalnianych.

Drugie wyzwanie na poziomie globalnym jest związane ze wzrostem potęgi gospodarczej i militarnej Chin oraz innych krajów rozwijających się, przy stopniowym spadku znaczenia krajów europejskich i Stanów Zjednoczonych. Warto jednak pamiętać, że przed rewolucją przemysłową udział Indii i Chin w globalnym PKB wynosił około 70 proc., na co wskazują m.in. szacunki Agnusa Maddisona. Obecnie udział Chin wynosi niecałe 20 proc., zaś dla Indii jest to około 7 proc. Kraje te mają zatem jeszcze sporo przestrzeni do odrobienia strat z ostatnich wieków, co może prowadzić do konfliktów politycznych, miejmy nadzieję, że nie militarnych, o zasięgu międzynarodowym.

Dla polityki gospodarczej wydaje się, że najważniejsze wyzwania w dłuższym horyzoncie czasowym są związane z automatyzacją i globalizacją, które wywierają presję na wzrost nierówności dochodowych. Istotne problemy wynikają także ze starzenia się społeczeństw.

Wymienił Pan automatyzację, która prowadzi do wzrostu nierówności dochodów. Zdaniem prof. Andrzeja Zybertowicza – Zostaną kapitaliści, najbardziej utalentowani i prekariat. Czy zgadza się Pan z taką opinią?

Pytanie to ponownie przywołuje moje myśli w kierunku zdania Leamera, że jesteśmy istotami, które lubią snuć opowieści i ekstrapolować przeszłe trendy. Przedstawię zatem kilka opowieści na temat tego, do czego może doprowadzić automatyzacja oraz jakie może nieść ze sobą wyzwania.

W spojrzeniu makroekonomicznym automatyzacja oznacza, że wytworzenie tego samego produktu wymagać będzie mniejszego nakładu pracy. To jest dobra informacja, ponieważ oznacza, że przy danym poziomie produkcji jako społeczeństwo zyskamy dużo wolnego czasu. Sugeruje to także, że zasadna jest prognoza, że średni czas pracy znacząco się obniży. Dokładnie tego typu wnioskowanie na temat wpływu postępu technologicznego na czas pracy przeprowadził w 1930 r. John Maynard Keynes, który prognozował, że jego wnuki będzie obowiązywał 15-godzinny tydzień pracy. Prognoza Keynesa okazała się bardzo nietrafiona. Powstaje jednak pytanie, czy tym razem będzie inaczej? Przyznam szczerze, że nie wiem.

Załóżmy, że zrealizuje się scenariusz prof. Zybertowicza, tj. automatyzacja doprowadzi do spadku płac i popytu na pracę osób o wybranych kwalifikacjach, co będzie prowadziło do wzrostu nierówności dochodowych. Rozwarstwienie społeczeństwa będzie wyzwaniem dla polityki gospodarczej oraz rosnącej presji na wprowadzenie dochodu podstawowego, zapewniającego pewien poziom egzystencji materialnej osób znajdujących się poza rynkiem pracy. Powstaje jednak pytanie, co w tym scenariuszu osoby znajdujące się poza rynkiem pracy będą robiły z wolnym czasem. Przecież wiemy, że praca, poza źródłem dochodu, pełni również inne, ważne społecznie funkcje. Można ułożyć scenariusz optymistyczny, że osoby te skupią się na realizowaniu własnych pasji, zaś automatyzacja doprowadzi do stworzenia społeczeństwa opartego na wartościach humanizmu i sztuki, tak jak to ma miejsce w utopijnym świecie opisanym np. przez Oscara Wilde’a. W takim wypadku automatyzacja nie wydaje się aż taka straszna.

Wielki Rozwód, albo kto sięgnie po technologiczny prymat?

Możliwy jest też scenariusz bardziej pesymistyczny, że wyrzucenie dużej części społeczeństwa poza rynek pracy doprowadzi do licznych problemów związanych z izolacją i zanikaniem więzów społecznych. Ten pesymistyczny scenariusz jest jednak według mnie możliwy jedynie w krótkim okresie, ponieważ w dojrzałych społeczeństwach istnieją mechanizmy samoregulujące, które prowadzą do eliminacji tego typu patologii w dłuższym horyzoncie.

Dlatego moją wersją opowieści na temat przyszłości jest to, że wraz z automatyzacją będą się pojawiały nowe zawody, o których aktualnie nie wiemy. Przykładowo, w jednym z moich ulubionych podkastów, EconTalks, Andrew McAfee spekuluje, że płatną pracą może być na przykład wychowywanie własnych dzieci. Aktualnie wydaje są to dziwne, ale czy będzie to dziwne za 20 lat?

Uczestniczy Pan w panelu ekonomistów polskich, który opiniuje tematy ważne dla rozwoju naszej gospodarki. Jakie wyzwania są dla nas nadal aktualne?

Od kilku miesięcy mam przyjemność być częścią panelu ekonomistów „Rzeczpospolitej” i „Parkietu”. Każdego miesiąca mogę przesyłać swoje opinie i komentarze na temat aktualnych zagadnień dotyczących krajowej polityki gospodarczej. Jest to dla mnie wyśmienita okazja, aby na chwilę oderwać się od bardzo szczegółowych zagadnień badawczych i zastanowić się nad problemami ekonomicznymi o bardziej ogólnym charakterze.

Odnośnie wyzwań dla polskiej gospodarki, wydaje mi się, że najważniejsze na najbliższą dekadę jest zakończenie transformacji rozpoczętej w 1989 roku i zrównanie poziomu życia na terenie całego kraju do standardów krajów Europy Zachodniej. Mam nadzieję, że uda się to osiągnąć w nadchodzącej dekadzie. Jest też wiele wyzwań szczegółowych, ale o tym może już porozmawiamy przy innej okazji.

 

Michał Rubaszek jest profesorem SGH, kierownikiem Zakładu Modelowania Rynków Finansowych. W przeszłości wieloletni pracownik Narodowego Banku Polskiego. Główne obszary badawcze to modelowanie makroekonomiczne oraz prognozowanie.

Prof. Michał Rubaszek (archiwum autora)

Otwarta licencja


Tagi