Sztuczna inteligencja w finansach może stworzyć nowe ryzyko systemowe

29.11.2017
Rada ds. Stabilności Finansowej uważa, że rozwój sztucznej inteligencji w finansach zwiększy efektywność w systemie finansowym. Z drugiej strony może jednak doprowadzić do powstania bardzo złożonych i trudnych do zrozumienia systemów, co stworzy poważne zagrożenie dla stabilności finansowej.

(CC0 pixabay, geralt)


W raporcie na temat sztucznej inteligencji (artificial intelligence, AI) i uczenia maszynowego (machine learning) w usługach finansowych Rada ds. Stabilności Finansowej (Financial Stability Board, FSB) wskazuje, że technologie te znajdują coraz szersze zastosowanie w systemie finansowym. Dzięki nim zmienia się sposób podejmowania decyzji przez podmioty rynku finansowego dotyczących m.in. dokonywania transakcji, alokacji kapitału i udzielania kredytów.

Istnieje wiele aplikacji wykorzystujących technologie sztucznej inteligencji i uczenia maszynowego w systemie finansowym. Wynika to z czynników zarówno podażowych (takich jak rozwój technologiczny i dostępność danych oraz infrastruktury systemu finansowego), jak i popytowych (do których można zaliczyć kwestie zyskowności, konkurencji z innymi podmiotami rynkowymi oraz wymogi regulacyjne). Technologie te wykorzystuje się m.in. do oceny jakości kredytowej kontrahentów, wyceny i sprzedaży umów ubezpieczenia, automatyzacji interakcji z klientami, optymalizacji wykorzystania kapitału i transakcji handlowych, a także zarządzania ryzykiem i zapobiegania nadużyciom, oceny jakości danych, zgodności z przepisami.

Sztuczna inteligencja to teoria i praktyka tworzenia inteligentnych systemów komputerowych będących w stanie wspomagać lub zastąpić pracę umysłową człowieka, a także umożliwiających głębsze zrozumienie ludzkiego sposobu rozumowania. Z kolei uczenie maszynowe polega na analizie procesów uczenia się oraz tworzeniu systemów, które doskonalą swoje działanie na podstawie doświadczeń z przeszłości – dzięki wykorzystaniu algorytmów samooptymalizujących się, które stymulują proces uczenia.

Najbardziej zaawansowane techniki w ramach sztucznej inteligencji umożliwiają przetwarzanie dużych ilości danych, co pozwala na odróżnienie trendów lub sygnałów w całym zbiorze danych. FSB zauważa, że dzięki temu system finansowy stanie się bardziej efektywny. Może to także spowodować pojawienie się nowych graczy rynkowych (w tym ważnych systemowo), nowych powiązań i nowych rodzajów ryzyka.

Złożoność systemów sztucznej inteligencji może spowodować, że staną się one niezrozumiałe dla człowieka. Technika uczenia maszynowego deep-lerning jest trudna do zinterpretowania ze względu na skomplikowany sposób przetwarzania danych. Podczas gdy tradycyjne algorytmy uczenia maszynowego mają charakter linearny, algorytmy uczenia głębokiego są ułożone hierarchicznie wedle rosnącej złożoności i abstrakcji, a dane muszą przejść przez kilka warstw przetwarzania. Utrudnia to bieżącą analizę procesu przez użytkownika.

W związku z tym FSB uważa, że brak możliwości interpretacji i bieżącego sprawdzania wykorzystywanych metod sztucznej inteligencji i uczenia maszynowego mogą sprawić, że technologie te staną się źródłem ryzyka dla systemu finansowego. Ich powszechne wykorzystanie może doprowadzić do niekorzystnych i nieprzewidzianych konsekwencji, co jest szczególnie istotne w warunkach niekorzystnej koniunktury rynkowej. Wówczas bowiem trudne do przewidzenia będzie zachowanie systemów sztucznej inteligencji, a jedynym wyjściem może być wtedy tylko całkowite ich wyłączenie. To z kolei mogłoby spowodować skutki makroekonomiczne o nieznanym rodzaju i skali.

W tym kontekście należy także pamiętać, że istniejące systemy sztucznej inteligencji są obecnie testowane w warunkach historycznie niskiej zmienności na rynkach finansowych. Nie wiadomo zatem, czy będą one odporne i skuteczne w warunkach podwyższonej zmienności rynkowej.

Ponadto systemy sztucznej inteligencji powodują rozmycie odpowiedzialności, ponieważ nie jest jasne, czy odpowiedzialny za tę technologię ma być podmiot z niej korzystający, czy też jej twórca. Dodatkowo dużym wyzwaniem dla organów nadzoru jest trudność w zrozumieniu, w jaki sposób działają algorytmy w ramach systemów sztucznej inteligencji.

Z drugiej jednak strony technologie te mogą być wykorzystane przez organy nadzorcze, ponieważ techniki uczenia maszynowego są skuteczne w znajdowaniu powtarzalnych wzorców (np. zachowań), co może być przydatne na przykład do tworzenia aplikacji wykrywających oszustwa i inne nieprawidłowości. Sztuczna inteligencja może także zwiększyć skuteczność nadzoru finansowego i umożliwić lepszą analizę ryzyka systemowego.

Jak wskazuje FSB, na obecnym etapie ważna jest ocena aplikacji opartych na sztucznej inteligencji i uczeniu maszynowym pod kątem ryzyka, w tym przestrzegania odpowiednich protokołów dotyczących prywatności danych, ryzyka prowadzenia działalności i cyberbezpieczeństwa. Ważne jest, aby za postępem w zakresie sztucznej inteligencji i aplikacji uczenia maszynowego szedł również rozwój w zakresie interpretacji decyzji i wyników algorytmów.

>>Pełna treść raportu dostępna tutaj.

Autorka jest ekonomistką w Departamencie Stabilności Finansowej NBP.


Tagi


Artykuły powiązane

Popularne artykuły

test