(©Envato)
Szybko zwiększające się wykorzystanie sztucznej inteligencji (AI) zapowiada znacznie lepszą wydajność w świadczeniu usług finansowych, jednak kosztem nowych zagrożeń dla stabilności finansowej.
Chociaż nie ma jednej definicji tego, czym jest sztuczna inteligencja, pomocne jest postrzeganie jej jako algorytmu komputerowego realizującego zadania zwykle wykonywane przez ludzi. Sztuczna inteligencja różni się od uczenia maszynowego i tradycyjnej statystyki tym, że nie tylko zapewnia analizę ilościową, ale także daje zalecenia i podejmuje decyzje. Norvig i Russell (2021) wymieniają szereg możliwych definicji sztucznej inteligencji. Wśród nich określenie sztucznej inteligencji jako racjonalnego i maksymalizującego czynnika współgra z ekonomicznym pojęciem czynników maksymalizujących użyteczność, a zatem jest szczególnie pomocne w analizie wykorzystania sztucznej inteligencji w systemie finansowym.
Sztuczna inteligencja znajduje w tym systemie szerokie zastosowanie. Sektor prywatny stosuje sztuczną inteligencję do zadań takich jak zarządzanie ryzykiem, alokacja aktywów, decyzje kredytowe, wykrywanie oszustw i zgodność z przepisami. Władze finansowe już teraz wykorzystują sztuczną inteligencję do analizy i prognozowania na niskim poziomie i spodziewamy się, że będą dalej rozszerzać jej zastosowanie na tworzenie regulacji finansowych, monitorowanie i egzekwowanie przepisów, identyfikację i łagodzenie niestabilności finansowych oraz doradztwo w zakresie rozwiązywania problemów upadających instytucji i kryzysów.
Zobacz również:
Gdy sztuczna inteligencja zostanie bankierem centralnym
Podczas gdy zwiększone wykorzystanie sztucznej inteligencji będzie ogólnie korzystne, poprawiając świadczenie usług i skuteczność regulacji finansowych, sztuczna inteligencja stwarza również nowe ryzyka niestabilności. Wskazanie tych kanałów jest celem naszej pracy w Danielsson i Uthemann (2024), która opiera się na istniejących działaniach ukierunkowanych na kwestię bezpieczeństwa sztucznej inteligencji (Weidinger i in. 2022, Bengio i in. 2023, Shevlane 2023), identyfikując zagrożenia społeczne wynikające z jej wykorzystania, w tym stosowanie w złej wierze, dezinformację i utratę kontroli przez człowieka. Rozszerzamy je o opisane w literaturze ekonomicznej źródła niestabilności, takie jak problemy motywacyjne, niekompletność umów i strategiczne komplementarności.
To właśnie niewłaściwa interakcja między sztuczną inteligencją a kanałami niestabilności gospodarczej rodzi największe obawy o jej wykorzystanie w systemie finansowym.
Wykorzystanie sztucznej inteligencji w złej wierze
Pierwszym kanałem jest wykorzystanie sztucznej inteligencji w złej wierze przez jej ludzkich operatorów, co jest szczególnie niepokojące w systemie finansowym, ponieważ funkcjonuje w nim wiele silnych podmiotów gospodarczych nastawionych na maksymalizację zysków, które nie przejmują się zbytnio społecznymi konsekwencjami swoich działań. Takie podmioty mogą unikać kontroli i zmieniać system w sposób, który jest dla nich korzystny i trudny do wykrycia przez konkurentów oraz organy regulacyjne. Mogą one celowo wywoływać napięcia na rynku, co jest bardzo opłacalne dla tych, którzy zostali w porę ostrzeżeni.
Podmioty takie albo bezpośrednio manipulują silnikami AI, albo wykorzystują je do znajdowania luk w celu uniknięcia kontroli. Oba działania są łatwe do realizacji w systemie finansowym, który jest w rzeczywistości nieskończenie złożony.
Działania takie mogą być społecznie niepożądane, a nawet sprzeczne z interesami instytucji zatrudniającej operatora silnika AI.
Spodziewamy się, że najczęściej ze sztucznej inteligencji w złej wierze będą korzystać pracownicy instytucji finansowych, które starają się pozostać po stronie prawa. Sztuczna inteligencja prawdopodobnie ułatwi również nielegalne działania np. nieuczciwym przedsiębiorcom i przestępcom, a także terrorystom i państwom dążącym do wywołania niepokojów społecznych.
Niewłaściwe wykorzystanie i nadmierne poleganie na sztucznej inteligencji
Drugi kanał pojawia się, gdy użytkownicy sztucznej inteligencji są zarówno źle poinformowani o jej możliwościach, jak i silnie od niej zależni. Jest to najbardziej prawdopodobne, gdy algorytmy oparte na danych, takie jak te stosowane przez sztuczną inteligencję, są proszone o ekstrapolację na obszary, w których danych jest mało, a cele niejasne, co jest bardzo powszechne w systemie finansowym.
Zobacz również:
Globalny wyścig regulacyjny w zakresie AI
Silniki AI są zaprojektowane tak, aby udzielać porad nawet wtedy, gdy istnieje bardzo niskie zaufanie co do dokładności ich odpowiedzi. Mogą nawet wymyślać fakty lub przedstawiać argumenty, które brzmią wiarygodnie, ale które zostałyby uznane za błędne lub niepoprawne przez eksperta, co jest przykładem szerszego zjawiska zwanego „halucynacją AI”.
Ryzyko polega na tym, że silniki AI będą przedstawiać pewne zalecenia dotyczące wyników, o których niewiele wiedzą i aby temu zaradzić, będą musiały zapewnić ocenę statystycznej dokładności swoich zaleceń. W tym przypadku pomocne będzie przezwyciężenie przez władze częstej niechęci do przyjmowania spójnych ram ilościowych do pomiaru i raportowania dokładności statystycznej danych wejściowych i wyjściowych opartych na danych.
Niedopasowanie AI i unikanie kontroli
Trzeci kanał wynika z trudności w dopasowaniu celów sztucznej inteligencji do celów jej ludzkich operatorów. Chociaż możemy poinstruować sztuczną inteligencję, by zachowywała się tak jak byśmy chcieli, nie ma gwarancji, że faktycznie to zrobi.
Niemożliwe jest wstępne określenie wszystkich celów, które AI musi osiągnąć, co stanowi problem, ponieważ AI jest bardzo dobra w manipulowaniu rynkami, a będąc motywowana przez cele wysokiego poziomu, takie jak maksymalizacja zysku, nie przejmuje się etycznymi i prawnymi konsekwencjami swoich działań, chyba że zostanie wyraźnie poinstruowana.
Przykładem jest zmowa sztucznej inteligencji, jak zauważyli Calvano i in. (2019), którzy odkryli, że niezależne algorytmy uczenia przez wzmacnianie, poinstruowane w celu maksymalizacji zysków, szybko dają w efekcie zmowę strategii cenowych, która przeciwdziała konkurencyjności. Sztucznej inteligencji jest znacznie łatwiej tworzyć takie zmowy niż ludziom, ponieważ takie zachowanie jest bardzo złożone i nielegalne. Sztuczna inteligencja znacznie lepiej radzi sobie ze złożonością i nie jest świadoma niuansów prawnych, chyba że zostanie wyraźnie nauczona lub poinstruowana.
Scheurer i in. (2023) podają przykład tego, jak indywidualna sztuczna inteligencja może spontanicznie zdecydować się na naruszenie prawa w pogoni za zyskiem. Używając GPT-4 do analizy handlu akcjami, poinstruowali oni silnik AI, że wykorzystanie informacji poufnych do obrotu papierami wartościowymi jest niedopuszczalne. Kiedy następnie dali silnikowi nielegalną wskazówkę dotyczącą zachowania akcji, zaczął on wykorzystywać ją w ich obrocie i okłamywać ludzi nadzoru. W tym przypadku sztuczna inteligencja po prostu angażuje się w ten sam rodzaj nielegalnego zachowania, które wielu ludzi wykazywało wcześniej.
Wyższa wydajność sztucznej inteligencji może zdestabilizować system, nawet jeśli robi ona tylko to, co ma robić. Jest to szczególnie problematyczne w czasach skrajnych napięć, gdy celem instytucji finansowych, a tym samym pracującej dla nich sztucznej inteligencji, jest przetrwanie, wzmacniając istniejące destabilizujące zachowania, takie jak ucieczka w bezpieczne obszary, gwałtowne wyprzedaże i odpływ inwestorów.
Zobacz również:
Czy jesteśmy świadkami bańki spekulacyjnej na sztuczną inteligencję?
Ogólnie rzecz biorąc, sztucznej inteligencji łatwo będzie uniknąć nadzoru systemowego, ponieważ bardzo trudno jest kontrolować niemal nieskończenie złożony system finansowy. Władze muszą zmagać się z dwoma przeciwstawnymi siłami. Sztuczna inteligencja będzie bardzo pomocna w utrzymaniu stabilności systemu, ale jednocześnie wzmocni siły, które wpływają na jego niestabilność. Podejrzewamy, że dominuje ten drugi czynnik. Dzieje się tak dlatego, że sztuczna inteligencja próbująca uniknąć kontroli musi znaleźć tylko jedną lukę, aby postępować niewłaściwie, podczas gdy operatorzy muszą nie tylko znaleźć wszystkie słabe punkty, ale także monitorować jej interakcję z każdym z nich, a następnie skutecznie wdrażać środki naprawcze. Jest to bardzo skomplikowane zadanie, które utrudnia fakt, że sektor prywatny ma dostęp do lepszych zasobów obliczeniowych niż organy władzy.
Im częściej korzystamy ze sztucznej inteligencji, tym problem obliczeniowy staje się trudniejszy dla władz.
Ryzyko monokultury i oligopoli
Ostatni kanał pojawia się, ponieważ model biznesowy firm projektujących i obsługujących silniki AI generuje większe korzyści związane z efektem skali; jest to zjawisko podobne do tego, które widzimy w chmurze obliczeniowej.
Firmy zajmujące się analityką AI zależą od trzech rzadkich zasobów: komputerów z wydajnymi procesorami graficznymi, kapitału ludzkiego i danych. Nie tylko wszystkie z nich są niewystarczające, ale także nawzajem się wzmacniają. Przedsiębiorstwo, które kontroluje największy udział każdego z nich, prawdopodobnie zajmie dominującą pozycję w branży analityki finansowej AI.
Wszystkie te czynniki sprawiają, że branża sztucznej inteligencji zmierza w kierunku oligopolistycznej struktury rynku zdominowanej przez kilku dużych dostawców. Efektem końcowym jest wzmocniona procykliczność oraz więcej okresów ożywienia i recesji, ponieważ wiele instytucji finansowych polegających na tym samym silniku sztucznej inteligencji dochodzi do podobnych wniosków i postępuje w podobny sposób, ujednolicając działalność handlową.
Jeśli w swojej analizie władze również polegają na tym samym silniku sztucznej inteligencji, co wydaje się prawdopodobne, mogą nie być w stanie zidentyfikować wynikających z tego niestabilności, dopóki nie będzie za późno, ponieważ są informowane przez silnik z takim samym podejściem do stochastycznego procesu systemu finansowego, jak prywatne firmy, które nieumyślnie spowodowały niestabilność.
Innymi słowy oligopolistyczny charakter działalności analitycznej AI zwiększa systemowe ryzyko finansowe.
Zobacz również:
Stabilizowanie rynków finansowych
Niepokojące jest to, że wydaje się, że ani organy ochrony konkurencji, ani organy finansowe nie doceniły w pełni potencjału zwiększonego ryzyka systemowego wynikającego z oligopolistycznej technologii sztucznej inteligencji w ostatniej fali fuzji dostawców danych.
Podsumowanie
Zarówno sektor prywatny, jak i publiczny szybko zwiększają wykorzystanie sztucznej inteligencji ze względu na oferowane przez nią korzyści w zakresie wydajności i kosztów. Niestety jej coraz szersze wykorzystanie pogłębia również istniejące kanały niestabilności finansowej.
Poprzez interakcję zagrożeń społecznych zidentyfikowanych przez badaczy sztucznej inteligencji z niestabilnościami udokumentowanymi w literaturze ekonomicznej, wskazujemy cztery kanały niestabilności: złośliwe i dezinformujące wykorzystanie sztucznej inteligencji w połączeniu z niedopasowaniem i unikaniem kontroli, wzmocnione przez monokulturę ryzyka i oligopole.
Chociaż obawy o to, w jaki sposób sztuczna inteligencja może zdestabilizować system finansowy mogą sprawić, że będziemy ostrożni w jej wdrażaniu, podejrzewamy jednak, że tak się nie stanie. Technologia często początkowo spotyka się ze sceptycyzmem, ale w miarę jak jest postrzegana jako lepsza niż to, co było wcześniej, cieszy się coraz większym zaufaniem. Sztuczna inteligencja zdobywa zaufanie, z powodzeniem wykonując te zadania, które najlepiej się do tego nadają – te z dużą ilością danych i niezmiennymi regułami. Wynikające z tego oszczędności kosztowe prowadzą do tego, że jest ona wykorzystywana do realizacji coraz ważniejszych lecz słabo dopasowanych do jej specyfiki zadań, opartych na ograniczonych lub nawet nieistotnych danych historycznych.
Nie chcemy jednak przeceniać tych zagrożeń. Podejrzewamy, że korzyści płynące ze sztucznej inteligencji będą w przeważającej mierze pozytywne dla systemu finansowego.
Jednak władze muszą być świadome zagrożeń i tak dostosowywać przepisy, aby im sprostać. Ostateczne ryzyko polega na tym, że sztuczna inteligencja stanie się zarówno niezastąpiona, jak również będzie źródłem ryzyka systemowego, dopóki władze nie opracują odpowiednich środków zaradczych.
Jon Danielsson – Director, Systemic Risk Centre at London School Of Economics And Political Science
Andreas Uthemann – Principal Researcher at Bank Of Canada, Research Associate at the Systemic Risk Centre at London School Of Economics And Political Science
Artykuł ukazał się w wersji oryginalnej na platformie VoxEU, tam też dostępne są przypisy i bibliografia.