Autor: Katarzyna Kozłowska

Publicystka, wydawca książek ekonomicznych, koordynator projektów medialnych.

Błędy wysokiej częstotliwości

Knight Capital Group, dom maklerski, który dzięki wykorzystaniu wysokoefektywnego systemu zleceń komputerowych obsługuje niemal 10 procent wszystkich transakcji papierami wartościowymi na amerykańskiej giełdzie, 1 sierpnia o mało nie przypłacił swojej innowacyjności bankructwem. Błąd algorytmu wygenerował bowiem zlecenia masowego zakupu akcji.
Błędy wysokiej częstotliwości

Potężne serwery to serce handlu algorytmowego (CC BY-SA getButterfly)

2 sierpnia KCG musiał nerwowo wyprzedawać owoce ponad czterdziestominutowych niepożądanych zakupów. Stracił 440 mln dolarów. To nie pierwsza taka sytuacja. Czy automatyzacja giełdy, a zwłaszcza handel algorytmiczny i jego odmiany High Frequency Trading (HFT) i Low Latency Trading (LLT), to błogosławieństwo czy zagrożenie dla inwestorów i rynków?

Od końca lat 90. klasyczni analitycy, maklerzy i traderzy odchodzą do lamusa. Wypiera ich handel automatyczny, komputerowy, prowadzony przy użyciu unikalnych algorytmów. Udoskonalanie przez największe giełdy świata systemów transakcyjnych, umożliwiło już dobrych kilka lat temu korzystanie z dobrodziejstwa (lub przekleństwa) handlu algorytmicznego wysokiej częstotliwości. Dla dużych domów maklerskich, takich jak Knight Capital czy Getco (firma, która zapewniła Kinght płynność podczas sierpniowego kryzysu), od dawna to specjalne algorytmy na podstawie zmian cen i ruchów rynku, decydują „kupuj” lub „sprzedawaj”, a multitransakcje zajmują im milisekundy.

Wielość transakcji i różnego rodzaju możliwości, które płyną z zastosowania handlu wysokiej częstotliwości (na przykład możliwość podglądu zleceń innych graczy i możliwość zarobku na prowizjach) znacznie podnoszą ponoć efektywność finansową tych instytucji. Praktycznie wszyscy giganci inwestycyjni, tacy jak np. Goldman Sachs, Morgan Stanley czy JP Morgan prowadzą handel algorytmiczny wysokiej częstotliwości. Ich apetyty podsycają szefowie światowych giełd, takich jak London Stock Exchange czy New York Stock Exchange, którzy zmieniając oprogramowanie, pozwalają na jeszcze większe obniżenie kosztów transakcji i jeszcze silniejsze zwiększenie przepustowości. W 2007 roku NYSE zainicjowało nowy system transakcyjny Nyse Hybrid Market, w 2011 roku LSE zamieniło dotychczasowego TradEleca na linuksowego Millenium Exchange. Z każdą zmianą, argumenty do zautomatyzowanej gry rosną. Kiedy Eurex (European Exchange), a więc największa  giełda derywatów na świecie, wprowadził w 2008 roku ETS (Enhanced Trading Solutions) czas, który płynie od zlecenia do transakcji skrócił się do jednej milisekundy (im większa odległość od budynku giełdy, gdzie znajdują się serwery, tym ten czas bardziej się wydłuża).

Postęp nie dokonuje się jednak bez kosztów. Z technologicznej euforii rynek wyrywa czasami spektakularne wydarzenie, podobne do tego z 1 sierpnia. Inwestorzy zaczynają wtedy drżeć o swoje pieniądze. Menedżerowie zadają sobie pytania, skąd wziąć pieniądze na pokrycie strat. Nadzorcy – czy można takim sytuacjom zapobiegać.

– Komputery się nie mylą, ale programistom to się zdarza. Tu nie chodzi o prosty błąd, tylko o nieprzewidzenie przez matematyków lub programistów jakiejś sytuacji na giełdzie, być może bardzo rzadkiej, która wymaga niestandardowej decyzji. Taki brak wyobraźni może skutkować błędną oceną i w konsekwencji złymi decyzjami i ogromnymi stratami – mówi prof. Wojciech Cellary z Uniwersytetu Ekonomicznego w Poznaniu.

6 maja 2010 roku podobny „błąd algorytmu” wstrząsnął najstarszym amerykańskim indeksem giełdowym Dow Jones Industrial Average. Po godzinie 14 doszło do sytuacji, którą dziś praktycy rynku nazywają „Flash Crash” (błyskawicznym krachem). Okazało się, że jeden z funduszy wykorzystujących HFT wystawił na sprzedaż dużą pulę kontraktów E-Mini S&P500. Sprzedawał, potęgując nerwową reakcję rynków, bo jego handel stanowiły tamtego dnia duży procent ogółu transakcji. Po kilku minutach mechanizm zabezpieczający zatrzymał handel. Ale inne automaty już rozpoczęły reakcję – „sprzedaj”. Rozpoczęły się masowe wyprzedaże. DJIA spadł w sumie o 1000 punktów. Szybko zresztą odrobił straty. Sytuacja badana była przez Komisję Papierów Wartościowych i Giełdy (SEC) i inne instytucje nadzorcze jeszcze przez wiele miesięcy. Do dziś zresztą, jak pokazują kolejne przykłady, nie podjęto żadnych efektywnych działań, by zapobiegać takim sytuacjom.

W maju 2012 roku bank inwestycyjny Morgan Stanley ukarany został karą 55 tysięcy dolarów za to, że błąd logarytmu zatrząsł w listopadzie 2011 roku giełdą w Sztokholmie. System zaczął omyłkowo dokonywać zleceń zakupu i sprzedaży dwóch rodzajów papierów, wprowadzając rzeszę graczy w błąd co do wartości rynku. Wcześniej – jak ustalono – Morgan Stanley nie zrobił nic, żeby zapobiegać takim sytuacjom.

W marcu 2012 roku i maju 2012 roku elektroniczne błędy storpedowały oferty publiczne amerykańskiej giełdy elektronicznej (BATS) i prawdopodobnie Facebooka. Kurs tej pierwszej spadł w ciągu sekundy od debiutu z 16 dolarów do 0,02 centa i firma była zmuszona uciekać z parkietu. O wynikach debiutu Facebooka nie trzeba przypominać.

Mimo wszystko, eksperci od technologii oraz specjaliści ds. rynków kapitałowych z optymizmem patrzą na rozwój automatycznych procesów inwestowania.

– Człowiek jest zdecydowanie mniej dokładny i wolniejszy od robota, ale nie przetnie laserem pacjenta na pół, a robotowi to się może teoretycznie zdarzyć, jeśli jego programista czegoś nie przewidział w algorytmie. Dlatego obok robota zawsze stoi lekarz i może wcisnąć czerwony przycisk „stop”. Niestety w przypadku giełdy, zanim makler połapie się, że to błąd i wciśnie taki czerwony przycisk, to oprogramowanie może już spowodować miliardowe straty. Takie ryzyko – bardzo małe, ale jednak większe od zera – nie oznacza, że nie należy stosować oprogramowania do gry na giełdzie i sterowania robotami medycznymi. To tylko oznacza, że należy to programowanie bardzo dokładnie testować i stosować wyrafinowane zabezpieczenia -komentuje prof. Cellary.

Kiedy o zleceniach „kup” i „sprzedaj” decydują ludzie, także dochodzi do błędów. Mają one również spektakularne konsekwencje. Wystarczy przypomnieć sobie przypadek upadku banku Barings w 1995 roku.

Lawinę strat (które do dziś w świadomości uczestników rynku, ale uczestników sfery popkultury symbolizuje postać Nicka Leesona, bohatera książki i filmu „Rogue Trader”) zapoczątkował w 1992 roku jeden z pracowników instytucji. Przez pomyłkowe zlecenie zakupu 20 kontraktów terminowych stracił 20 tys. dolarów, które do poniedziałku zamieniły się w 60 tys. Leesonowi nie udało się jej odrobić przez dwa lata, zwłaszcza, że jego metody były kontrowersyjne, a czasy mało sprzyjające ryzykownym operacjom (trzęsienie ziemi, spadki na giełdach itd.). Na koniec 1992 roku miał już 2 mln funtów straty. Pod koniec 1994 – ponad 200 mln.

– Poprzez automatyzację procesów i systemów można redukować narażanie instytucji finansowych na ryzyko czynnika ludzkiego, jednak z drugiej strony zwiększamy jej zależność od wykorzystywanych systemów teleinformatycznych, które jak się czasem okazuje, nie są wolne od błędów. W żadnej sferze życia nie da się wyeliminować ryzyka do zera. Możemy starać się je ograniczać na różne sposoby, ale najlepiej – po prostu nim zarządzać – mówi Iwona Sroka, prezes Krajowego Depozytu Papierów Wartościowych.

Zarządzanie ryzykiem

Podkreśla, za amerykańskim specjalistą od bezpieczeństwa informatycznego, Brucem Schneiderem, że bezpieczeństwo to proces, a nie produkt.

– Nie da się go po prostu kupić i mieć – trzeba nim umiejętnie zarządzać, a jak wiadomo zarządzanie jest procesem stałym, który na bieżąco analizuje otoczenie i zmieniającą się wokół nas rzeczywistość, wprowadzając odpowiednie modyfikacje, by lepiej przygotować nas na przyszłość – przekonuje.

Amerykańska Komisja Papierów Wartościowych i Giełd (SEC) pracuje właśnie nad nowymi przepisami, mającymi obligować spółki takie jak Knight Capital do ujawniania swoich problemów systemowych, a także do testowania zmian w oprogramowaniu, zanim wprowadzone zostaną na rynek. Szefowa SEC, Mary Schapiro, już w marcu 2011 roku mówiła o potrzebie rozszerzenia tzw. Automation Review Policy z 1998 roku (http://www.sec.gov/divisions/marketreg/arp-i.htm) o wyżej wymienione zapisy. Do tej pory przestrzeganie ARP jest dobrowolne. “Wraz z rosnącym ryzykiem, które niosą ze sobą transakcje zawierane za pomocą algorytmów oraz z uwagi na fakt funkcjonowania w  środowisku hakerów, SEC powinna rozważyć wprowadzenie przepisów ARP jako obligatoryjne”, mówiła już wówczas Schapiro.

Dlaczego szczegółowe przepisy nie powstały już po „Flash Crashu” z 2010 roku? Być może z tego powodu, że regulatorzy byli zainteresowani cichym wspieraniem wielkich domów maklerskich prowadzących automatyczny handel, takich jak KCG, gdyż dzięki swemu wolumenowi pełnią oni funkcję market makerów – są „dostawcami płynności”. Dobrze to zresztą było widać, gdy na ratunek KCG ruszył podobny podmiot, Getco, wraz z kilkoma innymi spółkami.

Czy w Polsce handel algorytmiczny jest popularny i czy możliwy jest trading wysokiej częstotliwości? Z pewnością ta branża dopiero rozkwitnie. W listopadzie 2012 roku Giełda Papierów Wartościowych zmieni dotychczasowy system transakcyjny z Warsetu (obowiązywał od 2000 roku) na tzw. UTP.

– Planowana wymiana systemu informatycznego warszawskiej Giełdy Papierów Wartościowych na znacznie bardziej wydajny, czyli zdolny do realizacji większej liczby transakcji na sekundę, ma na celu między innymi ułatwienie handlu algorytmicznego, a dzięki niemu poprawę płynności – mówi prof. Cellary.

Warset obsługuje od 180 do ponad 300 zleceń na sekundę. UTP umożliwi ich w tym czasie 20 tysięcy.

W porównaniu z Warsetem, system UTP będzie szybszy, bardziej wydajny, skalowalny i przepustowy, czyli umożliwiający wysłanie znacznie większej liczby zleceń w danej jednostce czasu. Jednocześnie czas odpowiedzi na wysłane zlecenia skróci się do ułamków milisekundy Dzięki UTP GPW i polski rynek kapitałowy otworzą się na nowe kategorie inwestorów, w tym takich, którzy stosują handel wysokich częstotliwości i wysokich wolumenów przy wykorzystaniu zaawansowanych programów komputerowych. W rezultacie zwiększy się płynność i obniżą się koszty zawierania transakcji dla wszystkich inwestorów”, czytamy na stronie Giełdy Papierów Wartościowych.

Na stronach domów inwestycyjnych, takich jak DI BRE można już znaleźć ogłoszenia o pracę dla informatyków projektujących narzędzia handlu algorytmicznego.

Katarzyna Kozłowska

Potężne serwery to serce handlu algorytmowego (CC BY-SA getButterfly)

Otwarta licencja


Tagi