Obawa przed deflacją jest przesadzona

Ekonomiści, którzy uważają deflację za zagrożenie dla wzrostu gospodarczego podają zwykle następujący argument: Spadające ceny sprawiają, że konsument powstrzymuje się z zakupem towaru. Czas działa na jego korzyść. Za kilka miesięcy, za rok lub dwa będzie taniej, więc należy odłożyć zakup. Oznacza to nadmierny wzrost oszczędności, które nie są przeznaczane na inwestycje.
Obawa przed deflacją jest przesadzona

(infografika Dariusz Gąszczyk)

Producenci nie inwestują gdyż także zdają sobie sprawę z tego, że deflacja prowadzi do zahamowania popytu konsumpcyjnego, więc w odpowiedzi na nią powstrzymują się z rozbudową mocy produkcyjnych.

Tego typu psychologizowanie wydaje się uproszczone. Nie bierze ono pod uwagę trzech istotnych spraw.

Po pierwsze – odłożenie konsumpcji oznacza także zrezygnowanie na jakiś czas z użyteczności danego towaru. W przypadku usług, które stanowią ok. 30 proc. koszyka dóbr i usług stosowanego przez Główny Urząd Statystyczny przy obliczaniu zmian cen, w ogóle nie ma mowy o odłożeniu konsumpcji. Trudno sobie wyobrazić, by ktoś zrezygnował z podróży lub z korzystania z energii elektrycznej w nadziei, że za jakiś czas będzie taniej. Oczywiście cena wpływa na popyt na usługi, ale nie w ten sposób, że odkładamy konsumpcję w oczekiwaniu na spadek cen.

To samo odnosi się do towarów pierwszej potrzeby – na przykład żywności, której waga w koszyku GUS-owskim wynosi ok. 25 proc. Możliwa jest substytucja – kupowanie żywności tańszej lub droższej, a także odkładanie konsumpcji towarów sezonowych, których ceny na początku sezonu są drogie, a potem spadają. Jest to jednak zjawisko normalne, nie mające nic wspólnego z deflacją.

(infografika Dariusz Gąszczyk)

(infografika Dariusz Gąszczyk)

 

Po drugie – odkładanie konsumpcji dotyczy konkretnych towarów, a nie całości wydatków konsumpcyjnych. W ostatnich czterech latach wiele towarów okresowo taniało. Według Głównego Urzędu Statystycznego przeciętny garnitur męski kosztował w grudniu 2011 roku 484,87 zł, zaś po 18 miesiącach, w czerwcu 2013 roku 466,11 zł. Spadek cen (o ile obserwacja GUS była dokładna) wyniósł prawie 4 proc. , ale nie mamy sygnałów, by informacja o spadających cenach garniturów była dla konsumentów istotna i spowodowała odłożenie zakupów. Od lipca 2013 roku garnitury zaczęły drożeć i w czerwcu 2014 kosztowały średnio 474,66, czyli o 2 proc. więcej niż przed rokiem, ale taniej niż w grudniu 2011 roku.

Powody stopniowego spadku cen garniturów, a następnie wzrostu są trudne do wyjaśnienia. Nie wykluczone, że wynikają z błędu pomiaru. Konsument, który w okresie od grudnia 2011 do lipca 2013 uznał, że powinien kupić garnitur, kierował się różnymi motywami, ale z pewnością nie „deflacją” w segmencie garniturów.

(infografika Dariusz Gąszczyk)

(infografika Dariusz Gąszczyk)

Po trzecie wreszcie, subiektywne odczucie inflacji (lub deflacji) rozmija się z pomiarami statystycznymi, zwłaszcza jeśli jesteśmy przyzwyczajeni do długotrwałej inflacji. W takiej sytuacji ludzie zazwyczaj przeceniają wysokość inflacji. Oznacza to, że nie zauważają niewielkiej deflacji, rzędu 1 – 2 proc.

Nowe produkty, a pomiar inflacji

W 1995 roku w Senat USA powołał komisję do zbadania sposobu obliczania indeksów cen. Na jej czele stanął szef doradców ekonomicznych byłego prezydenta George Busha profesor Michael Boskin. W grudniu 1996 roku komisja Boskina opublikowała raport zatytułowany „W kierunku dokładniejszej miary kosztów utrzymania”, w którym stwierdzono, że oficjalny indeks cen CPI w roku 1996 został zawyżony o 1,1 punktu procentowego, a w latach wcześniejszych o 1,3 punktu.

Ponieważ w USA, podobnie jak w Polsce emerytury i świadczenia socjalne są indeksowane o wskaźnik inflacji, zawyżenie go ma skutki budżetowe. Komisja Boskina wyliczyła, że w ciągu 10 lat dług publiczny USA wzrośnie o 691 mld dolarów tylko na skutek przesadnych szacunków inflacji.

Raport wymienił cztery przyczyny zawyżenia wskaźnika:

– Stosowanie niewłaściwego koszyka badanych produktów. Konsumenci bardziej elastycznie niż urzędy statystyczne dostosowują się do zmieniających się cen i kupują tańsze zamienniki.

– Przechodzenie klientów do supermarketów, gdzie ceny są niższe. Dziś należałoby do tego dodać handel internetowy oraz internetowe narzędzia pozwalające na wyszukiwanie najtańszych towarów.

– Nie uwzględnianie w koszyku nowych produktów i usług lub wprowadzanie ich z opóźnieniem.

– Zmiany jakości towarów i usług, których nie uwzględniają urzędy statystyczne.

Dwie ostatnie przyczyny, według komisji Boskina powodują, że faktyczny indeks cen powinien zostać obniżony o 0,6 punktu procentowego. Towary-reprezentanty, znajdujące się w statystycznym koszyku mają krótkie charakterystyki (np. chłodziarko-zamrażarka domowa, pojemności. ok. 300 l), lecz nie uwzględnia się wielu istotnych dla klienta cech, takich jak trwałość, konieczność dokonywania okresowych przeglądów i napraw, energochłonność. Obecnie wiele produktów ma dłuższy okres użytkowania (np. samochody z 7-letnią gwarancją), a przede wszystkim zużywają one mniej energii. W sumie ich użyteczność jest większa niż produktów starej generacji, co oznacza, że tak naprawdę są tańsze niż wykazują oficjalne statystyki.

Równie ważny jest wpływ na indeksy cenowe nowych produktów wprowadzanych na rynek. Po pierwsze, zmieniają realny koszyk dóbr i usług, co urzędy statystyczne odnotowują z opóźnieniem. Po drugie, cena nowych produktów zwykle szybko spada, więc niedoważenie ich w koszyku dóbr i usług daje w efekcie zawyżenie wskaźnika inflacji. Niektóre nowe produkty zaspokajają dotychczasowe potrzeby (np. sprzęty AGD nowej generacji), inne same stwarzają potrzeby klientów – np. smartfony.

Gdy nowe produkty nie pojawiają się na rynku masowo, błąd, wynikający z nieuwzględniania ich przez statystyki jest niewielki. Ale fala nowych produktów IT (laptopy, tablety, smartfony, czytniki książek, nowe aplikacje do tych urządzeń) jest tak intensywna, że wpływa na indeks cen w stopniu większym niż wyliczała przed blisko 20 laty komisja Boskina. Dotyczy to także Polski.

Główny Urząd Statystyczny nie podaje cen laptopów, tabletów, czy smartfonów, będących na wyposażeniu dużej części gospodarstw domowych. Są one ujęte w agregacie „sprzęt audiowizualny, fotograficzny i informatyczny” i zakup tego sprzętu jest zaliczany do „wydatków na rekreację i kulturę”. Co ciekawe, waga „sprzętu audiowizualnego, fotograficznego i informatycznego” w koszyku kupowanych dóbr i usług GUS spadła z 0,91 w roku 2010 do 0,73 w roku 2014. Nawet uwzględniając wyraźne obniżki cen wyrobów IT, spadek ich wagi w koszyku wydaje się niezrozumiały, jeśli weźmiemy pod uwagę rosnącą wartość obrotów tym sprzętem. Według szacunków Gfk Polonia w ubiegłym roku sprzedaż tabletów w Polsce wzrosła 2,5 krotnie. W poprzednich latach podobną dynamikę notowano na rynku laptopów i notebooków. GUS nie dysponuje jednak dokładniejszymi danymi na ten temat.

Jeśli uwzględnimy „poprawkę Boskina” i założymy, że wynosi ona 1 punkt procentowy (a więc mniej niż wyliczyła komisja Boskina), to polska gospodarka jest w stanie deflacji już od kwietnia 2013 roku. Podobne okresy deflacji (z uwzględnieniem „poprawki Boskina”) zdarzały się dwukrotnie w ostatnich kilkunastu latach: od listopada 2002 do września 2003 oraz od grudnia 2005 do czerwca 2006. W obu tych okresach gospodarka wyraźnie przyspieszała.

W IV kwartale 2002 r. wzrost PKB (do analogicznego kwartału 2001) wyniósł 2,2 proc. (w I kwartale zaledwie 0,6 proc.), a w III kwartale 2003 wzrost wynosił już 4 proc.

W IV kwartale 2005 r. wzrost PKB wynosił 4,5 proc., a w II kwartale 2006 r. 5,5 proc. Deflacja z „poprawką Boskina” lub jak kto woli wyliczona przez GUS inflacja niższa niż 1 proc. w skali roku, nie hamowała gospodarki. Wydaje się zatem, że obawy przed negatywnymi skutkami deflacji są przesadzone. To nie deflacja jest przyczyną spowolnienia gospodarczego. Zależność jest odwrotna. To spowolnienie, wywołane na przykład niepewnością na rynku, niechęcią inwestorów do ryzyka, powoduje zahamowanie wzrostu cen i deflację.

 

(infografika Dariusz Gąszczyk)

(infografika Dariusz Gąszczyk)

Wskaźniki-12-miesięcznej-inflacji

Prawo Moore’a

Gordon Moore, jeden z założycieli firmy Intel, w 1965 r. zaobserwował, że liczba tranzystorów w układzie scalonym podwaja się co 12 miesięcy. Potem wielkość ta została skorygowana i nazwana „prawem Moore’a”. Dziś przyjmuje się, że liczba tranzystorów w mikroprocesorach podwaja się co ok. 24 miesiące i podobne tempo obserwowane jest w wielu innych parametrach sprzętu komputerowego: pojemności dysków twardych, wielkości pamięci operacyjnej.

Termin „Prawo Moore’a” stosowany jest też szerzej do dowolnego postępu technologicznego. Dotyczy także stosunku mocy obliczeniowej komputera do kosztu. Nawet jeśli koszt komputerów nie spada w tempie „prawa Moore’a” to spadek ten jest znaczący.

Przed 20 laty typowy komputer PC, kupowany w Polsce był „składakiem”, produkowanym z części sprowadzonych nie zawsze w sposób legalny. Miał zainstalowany, często nielegalnie program operacyjny Windows, pamięć RAM 8 MB, pojemność dysku 500 MB. Miał duży, niewygodny monitor z ekranem czarnobiałym. Kosztował około 4-5 ówczesnych średnich miesięcznych pensji.

Dziś za jedną trzecią średniego wynagrodzenia można kupić komputer przenośny z pamięcią RAM 4 GB i z dyskiem twardym o pojemności 500 GB. W dodatku komputer jest legalny, serwisowany, ma legalny system operacyjny, który jest uaktualniany. Ma też stały dostęp do Internetu, co przed 20 laty było rzadkością. Na jednostkę pamięci komputery osobiste sprzedawane w Polsce staniały w ostatnich 20 latach kilka lub kilkanaście tysięcy razy.

Nawet jeśli uznamy ten szacunek za zawyżony, możemy przyjąć, że w ciągu 20 lat cena komputera PC w relacji do jego jakości spadała co roku w tempie dwucyfrowym i „deflacja” ta była tak znaczna, że oczywista dla konsumentów. Racjonalnym zachowaniem byłoby zatem odłożenie zakupu komputera osobistego w oczekiwaniu aż stanieje. Co kilka lat pojawiały się nowe ulepszone wersje programów operacyjnych, a także podstawowych programów niezbędnych dla użytkownika komputerów domowych.

Konsument, który przeczekał emisje kilku kolejnych wersji Windowsa zachował się racjonalnie i zaoszczędził kilka tysięcy złotych. Często jednak w pierwszym dniu sprzedaży nowych programów operacyjnych lub nowych urządzeń informatycznych przed sklepami ustawiały się kolejki. Wprowadzanie co kilka lat na rynek nowego produktu jest w branży informatycznej sprawdzoną strategią marketingową. Konsumenci wiedzą, że cena wprowadzanego produktu szybko spadnie, a produkt poprzedniej generacji można kupić za cenę wielokrotnie niższą niż nowej, lecz nie hamuje to sprzedaży. Popyt na nowe produkty jest napędzany snobizmem, przywiązaniem do marki, ciekawością, a nie ceną.

W XIX wieku wzrost wydajności pracy i wprowadzanie na rynek nowych produktów, przy jednocześnie wolnym wzroście podaży pieniądza wymienialnego na złoto, powodował długotrwałą deflację, która nie szkodziła gospodarce. Według niektórych prognoz jesteśmy w przededniu kolejnej rewolucji technicznej, związanej między innymi z nowymi materiałami, robotami, drukiem 3D, wykorzystanie komputerów wielkiej mocy, gromadzeniem danych w „chmurach”. Prawdopodobnie w najbliższych latach pojawią się na rynku nowe produkty, których ceny szybko będą spadały, przyczyniając się do deflacji, a jednocześnie wzrostu gospodarczego.

OF

(infografika Dariusz Gąszczyk)
(infografika Dariusz Gąszczyk)
(infografika Dariusz Gąszczyk)
(infografika Dariusz Gąszczyk)
Wskaźniki-12-miesięcznej-inflacji

Otwarta licencja


Tagi