Jak sztuczna inteligencja może zagrozić stabilności finansowej
Kategoria: Trendy gospodarcze
(@Getty Images)
To zaś stwarza perspektywę przyspieszenia i nasilenia kryzysów finansowych. Instytucje muszą więc (1) zbudować wewnętrzną bazę wiedzy na temat sztucznej inteligencji i jej systemów, (2) uznać sztuczną inteligencję za priorytet działania wydziałów odpowiedzialnych za stabilność finansową, (3) pozyskać systemy sztucznej inteligencji mające zdolność bezpośredniej współpracy z silnikami AI instytucji finansowych, (4) stworzyć automatycznie aktywowane instrumenty wsparcia płynności oraz (5) zlecić krytyczne funkcje sztucznej inteligencji zewnętrznym dostawcom.
Kierując się perspektywą znacznej poprawy wydajności, instytucje finansowe sektora prywatnego gorliwie wdrażają sztuczną inteligencję (AI). Zmiany te zasadniczo idą w dobrym kierunku, ale sztuczna inteligencja przynosi też pewne – niedostatecznie uświadamiane – zagrożenia dla stabilności systemu finansowego.
Konsekwencje sztucznej inteligencji dla stabilności finansowej są przedmiotem dyskusji. Niektórzy z dyskutantów podchodzą do tematu optymistycznie, twierdząc, że sztuczna inteligencja to tylko kolejna z długiej listy nowinek technologicznych zmieniających oblicze usług finansowych bez zasadniczej przebudowy systemu. Zgodnie z tym przekonaniem, sztuczna inteligencja nie generuje nowych ani nadzwyczajnych zagrożeń dla stabilności, a więc nadzór finansowy nie musi podejmować szczególnych działań w tym zakresie. Instytucje wyznające ten pogląd zapewne zlecą analizę skutków stosowania sztucznej inteligencji swoim działom IT lub statystyki.
Zobacz również:
Techniki cyfrowe i AI w sektorze finansowym
Moim zdaniem sprawy się mają inaczej. Sztuczną inteligencję od dotychczasowych zmian technologicznych różni zasadniczo fakt, że AI podejmuje samodzielne decyzje, a nie ogranicza się do dostarczania informacji ludzkim decydentom. Jest ona racjonalnym, optymalizującym podmiotem, który wykonuje powierzone mu zadania – co odpowiada jednemu z kryteriów sztucznej inteligencji Norviga i Russella (2021). W porównaniu z innowacjami technologicznymi z przeszłości, autonomia sztucznej inteligencji rodzi nowe, złożone problemy w zakresie stabilności finansowej. W związku z tym banki centralne i inne odpowiedzialne instytucje powinny uznać analizę wpływu sztucznej inteligencji za priorytet działań organów stabilności finansowej, zamiast po prostu cedować ją na działy IT albo zarządzania danymi.
AI a stabilność
Zagrożenia dla stabilności finansowej związane ze sztuczną inteligencją rodzą się na przecięciu technologii AI i tradycyjnych teorii kruchości systemu finansowego.
Sztuczna inteligencja celuje w szybkim, niezawodnym i tanim wykrywaniu i wykorzystywaniu wzorców w dużych zbiorach danych. Jej wydajność zależy jednak w znacznym stopniu – może nawet większym niż w przypadku ludzi – od tego, czy była ona ćwiczona na odpowiednich danych. Zdolność sztucznej inteligencji do natychmiastowej, zdecydowanej reakcji, w powiązaniu z jej nieprzejrzystym procesem decyzyjnym, zdolnością do „zmowy” z innymi silnikami i skłonnością do halucynacji, stanowi sedno związanych z nią zagrożeń dla stabilności.
Sztuczna inteligencja staje się integralną częścią instytucji finansowych, zdobywając zaufanie dzięki wyjątkowo sprawnemu wykonywaniu bardzo prostych zadań. W miarę podejmowania zadań coraz bardziej złożonych, możemy w końcu dojść do sytuacji, w której do AI będzie miała odniesienie zasada Petera.
A wtedy, bez względu na życzenia decydentów wysokiego szczebla, bez sztucznej inteligencji się nie obejdzie. Dopóki przynosi ona znaczne oszczędności i podwyższa wydajność, trudno poważnie traktować zaklęcia w stylu: „nigdy nie użylibyśmy sztucznej inteligencji do tego zadania” albo „nigdy nie wyłączymy ludzi z obiegu”.
Zwłaszcza trudno jest zagwarantować, że sztuczna inteligencja będzie robić to, czego od niej oczekujemy w przypadku zadań zaawansowanych. Potrzebuje ona bowiem ściślejszych wskazówek niż ludzie. Proste polecenie „zadbaj o bezpieczeństwo systemu” jest zbyt ogólne. Człowiek może wypełnić luki dzięki intuicji, szerokiemu wykształceniu i zbiorowej mądrości. Sztuczna inteligencja na razie tego nie potrafi.
Znamienny przykład tego, co może się stać, gdy sztuczna inteligencja podejmuje ważne decyzje finansowe, przytacza Scheurer i in. (2024). W tym przypadku model językowy został wyraźnie poinstruowany, aby zarówno przestrzegał przepisów dotyczących papierów wartościowych, jak i maksymalizował zysk. Gdy jednak model otrzymał prywatny „cynk”, bez wahania przystąpił do nielegalnych transakcji papierami wartościowymi z wykorzystaniem informacji poufnych, okłamując przy tym nadzorujących go ludzi.
Ze względu na wymogi prawa, zarządzający sektorem finansowym muszą się często tłumaczyć ze swoich decyzji. Przed zatrudnieniem kandydata na wysokie stanowisko żądamy, by przedstawił on, jak postąpiłby w pewnych hipotetycznych sytuacjach. Nie można tego zrobić z AI – przejrzystość jej dotychczasowych silników jest zbyt ograniczona, by pomóc człowiekowi zrozumieć, w jaki sposób modele AI dochodzą do pewnych wniosków, zwłaszcza na zaawansowanym poziomie podejmowania decyzji.
Sztuczna inteligencja łatwo ulega halucynacjom, co oznacza, że może bez wahania udzielać bezsensownych odpowiedzi. Zdarza się to zwłaszcza wtedy, gdy w danych treningowych nie było takich, z jakimi AI obecnie pracuje. Z tego m.in. powodu powinniśmy podchodzić z rezerwą do zlecania AI opracowywania scenariuszy warunków skrajnych.
Zobacz również:
Zwycięzcą technologicznego wyścigu zbrojeń będzie AGI
AI ułatwia zadanie tym, którzy chcieliby wykorzystać technologię do szkodliwych celów: wynajdywania luk w prawie, popełniania przestępstw, działalności terrorystycznej czy atakowania państw narodowych. Tacy ludzie nie będą się kierować wskazaniami moralnymi czy przepisami.
Rolą regulacji jest zgranie indywidualnych motywacji z interesem społecznym (Dewatripont i Tirole 1994). Jednak tradycyjne narzędzia regulacji – kij i marchewka – w przypadku sztucznej inteligencji nie działają. Nie obchodzą jej premie ani kary. Dlatego też przepisy będą się musiały radykalnie zmienić.
Ze względu na sposób uczenia się przez AI, obserwuje ona decyzje wszystkich innych systemów AI w sektorze prywatnym i publicznym. Oznacza to optymalizację silników pod kątem wzajemnego wpływania na siebie: silniki AI szkolą inne AI na dobre i na złe, co skutkuje pojawieniem się niewidocznych pętli sprzężenia zwrotnego, wzmacniających niepożądane zachowania (zob. Calvano i in. 2019). Te ukryte kanały AI-to-AI, nieobserwowalne dla ludzi i nie do zrozumienia w czasie rzeczywistym, mogą prowadzić do paniki bankowej, „ulatniania się” płynności czy kryzysów.
Kryzysom trudno jest zapobiegać przede wszystkim ze względu na sposób reakcji systemu na próby kontroli. Instytucje finansowe nie są skłonne potulnie wykonywać nakazy władz. One reagują zgodnie ze swoją strategią. Co gorsza, nie wiemy, jak zareagują na ewentualny kryzys. Podejrzewam, że nie wiedzą tego nawet one same. Funkcja reakcji zarówno podmiotów sektora publicznego, jak i prywatnego na skrajne warunki jest zasadniczo nieznana.
Między innymi dlatego właśnie mamy tak mało danych na temat zjawisk skrajnych. Innym tego powodem jest wyjątkowość poszczególnych kryzysów. Kryzysy są nieuniknione także dlatego, że nauczeni doświadczeniem po każdym z nich zmieniamy sposób zarządzania systemem. Żywioł niestabilności z natury rzeczy pojawia się tam, gdzie się go nie spodziewamy.
Sztuczna inteligencja polega na danych. System finansowy generuje ogromne ilości – eksabajty – danych dziennie, ale problem polega na tym, że większość z nich pochodzi ze środka rozkładu wyników systemu, a nie z jego ogonów. Kryzysy natomiast pojawiają się w ogonach.
Ten niedostatek danych jest przyczyną halucynacji i rodzi ryzyko pogarszania sytuacji. Ponieważ mamy tak mało danych na temat skrajnych wyników systemu finansowego i ze względu na unikalność każdego kryzysu, sztuczna inteligencja niewiele się nauczy z przeszłych sytuacji finansowych. Do tego AI niewiele wie o najważniejszych związkach przyczynowo-skutkowych. Takie związki pozostają na przeciwległym biegunie do tego, do czego sztuczna inteligencja się nadaje. W sytuacjach, w których AI jest najbardziej potrzebna, ma ona najmniej kompetencji, powodując ryzyko korelacji.
Zagrożenia dla stabilności stwarzane przez sztuczną inteligencję dodatkowo potęguje zjawisko monokultury ryzyka, które jest niezmiennie kluczowym czynnikiem wywołującym hossy i bessy. Technologia sztucznej inteligencji przynosi znaczne korzyści skali, których źródłem jest komplementarność kapitału ludzkiego, danych i mocy obliczeniowych. Trzech dostawców chce zdominować przestrzeń analityki finansowej AI, a każdy jest niemal monopolistą w swoim konkretnym obszarze. Zagrożenie dla stabilności finansowej pojawia się wtedy, gdy większość ludzi w sektorze prywatnym i publicznym ma do wyboru tylko jednego dostawcę. Konsekwencją takiej sytuacji jest monokultura ryzyka. Pompujemy te same bańki, nie dostrzegając tych samych systemowych słabości. Ludzie, którzy są bardziej zróżnicowani, mogą działać bardziej stabilizująco w obliczu poważnych, nieprzewidzianych zdarzeń.
Szybkość AI a kryzysy finansowe
W obliczu wstrząsów instytucje finansowe mają dwa wyjścia: uciekać (czyli przyczyniać się do destabilizacji) lub pozostać (czyli być czynnikiem stabilizacji). W przypadku sztucznej inteligencji, jej siła działa na niekorzyść systemu, między innymi dlatego, że sztuczna inteligencja całej branży szybko i jednomyślnie podejmuje tę samą decyzję.
Zobacz również:
Generatywna sztuczna inteligencja a wzrost gospodarczy
Gdy wstrząs jest niezbyt poważny, optymalne jest przetrzymanie go, a nawet działanie wbrew okolicznościom. Ponieważ reakcje silników AI szybko zbiegają się w punkcie równowagi, stają się czynnikiem stabilizacji, zapewniając rynkowi wsparcie – jeszcze zanim kryzys przybierze groźne rozmiary.
I przeciwnie, jeśli chęć uniknięcia bankructwa wymaga szybkich, zdecydowanych działań, na przykład sprzedaży aktywów na słabnącym rynku, skutkującym destabilizacją systemu finansowego – silniki AI nie omieszkają tego zrobić. Każdy z nich będzie chciał zminimalizować straty, wychodząc z rynku jako pierwszy. Ten, kto zrobi to na końcu, stanie w obliczu bankructwa. Silniki będą sprzedawać na wyścigi, żądać spłaty kredytów i podsycać panikę. To błędne koło będzie pogłębiać kryzys.
Szybkość i wydajność sztucznej inteligencji oznacza, że kryzysy z AI w tle będą błyskawiczne i dotkliwe (Danielsson i Uthemann, 2024). To, co kiedyś trwało dni czy tygodnie, może rozegrać się w ciągu minut lub godzin.
Rozwiązania systemowe
Tradycyjne mechanizmy zapobiegania kryzysom finansowym i łagodzenia ich mogą się nie sprawdzić w świecie rynków opartych na sztucznej inteligencji. Jeżeli ponadto władze nie będą przygotowane do reagowania na wstrząsy wywołane przez sztuczną inteligencję, prawdopodobieństwo wystąpienia kryzysu może wzrosnąć.
Aby móc skutecznie reagować na sztuczną inteligencję, instytucje powinny podjąć pięć podstawowych działań:
Zakończenie
Sztuczna inteligencja przyniesie znaczne korzyści systemowi finansowemu – wyższą wydajność, lepszą ocenę ryzyka i niższe koszty dla konsumentów. Jednocześnie jednak stworzy nowe zagrożenia dla stabilności finansowej, których nie wolno ignorować. Należy ponownie przemyśleć ramy regulacyjne, przystosować narzędzia zarządzania ryzykiem, instytucje zaś muszą być gotowe do działania w tempie dyktowanym przez sztuczną inteligencję.
To, w jaki sposób władze postanowią zareagować, będzie miało znaczny wpływ na prawdopodobieństwo i dotkliwość kolejnego kryzysu związanego ze sztuczną inteligencją.
Jon Danielsson – Director, Systemic Risk Centre at London School of Economics And Political Science
Artykuł ukazał się w wersji oryginalnej na platformie VoxEU, tam też dostępne są przypisy i bibliografia.