Globalny wyścig regulacyjny w zakresie AI
Kategoria: Innowacje w biznesie
(@Getty Images)
Sztuczna inteligencja (AI), a w szczególności jej generatywna odmiana (GenAI), szybko staje się siłą transformującą globalny system finansowy. Oczekuje się, że jej zastosowanie znacząco wzrośnie w najbliższej przyszłości, co doprowadzi do istotnych zmian w strukturze rynku poprzez np. szersze wykorzystanie handlu algorytmicznego oraz innowacyjnych strategii inwestycyjnych. Obecnie instytucje finansowe stosują AI głównie do usprawniania operacji wewnętrznych i poprawy zgodności regulacyjnej, choć obserwuje się również ostrożne eksperymenty z generatywną AI w celu zwiększania przychodów.
Technologia AI obiecuje znaczne zwiększenie efektywności i produktywności w wielu sektorach gospodarki, w tym w sektorze finansowym. Może ona umożliwić m.in. lepsze zarządzanie ryzykiem, poprawić płynność rynkową oraz usprawnić monitorowanie rynku zarówno przez uczestników, jak i organy regulacyjne. Wdrożenie AI – w tym GenAI – w obszarze cyberbezpieczeństwa i zwalczania oszustw ma potencjał do znaczącej poprawy jakości i efektywności kosztowej tych kluczowych funkcji.
Powszechne przyjęcie AI bez odpowiednich kontroli i nadzoru może jednak wprowadzić nowe, złożone ryzyka, które mogą wzmacniać istniejące słabości i mieć poważne konsekwencje dla stabilności finansowej. Z jednej strony AI oferuje bowiem narzędzia do zwiększania odporności i efektywności, z drugiej zaś może tworzyć nowe zagrożenia. Na przykład, Międzynarodowy Fundusz Walutowy (MFW) wskazuje na potencjalne korzyści, takie jak lepsze zarządzanie ryzykiem, jednocześnie wymieniając zagrożenia, takie jak zwiększona zmienność rynku i ryzyko operacyjne (ryzyko strat wynikających m.in. z niewłaściwych lub zawodnych procesów wewnętrznych, błędów ludzkich). Z kolei Bank Anglii stwierdza, że wpływ AI na cyberbezpieczeństwo jest zarówno pozytywny (np. skuteczniejsze zwalczanie oszustw), jak i negatywny (np. przeprowadzanie bardziej wyrafinowanych i skalowalnych cyberataków), co może prowadzić do „wyścigu zbrojeń technologicznych” – ponieważ zarówno instytucje finansowe, jak i cyberprzestępcy nieustannie rozwijają i wdrażają coraz bardziej zaawansowane narzędzia AI.
Niewidzialne ryzyka
W miarę jak sztuczna inteligencja coraz głębiej integruje się z tkanką systemu finansowego, pojawiają się nowe, potencjalnie destabilizujące zagrożenia. Te „niewidzialne zagrożenia” mogą wzmacniać wstrząsy na rynku finansowym, tworzyć nieprzewidziane zależności i podważać tradycyjne mechanizmy stabilności finansowej.
Jednym z najbardziej bezpośrednich zagrożeń jest potencjalne zwiększenie zmienności rynku w warunkach już istniejących zaburzeń i niestabilności. Większe wykorzystanie AI w decyzjach handlowych i inwestycyjnych może przyczynić się do wzrostu efektywności rynku, jednak istnieje ryzyko, że uczestnicy rynku, działając pod wpływem algorytmów, nieumyślnie podejmą skorelowane działania, co może wzmacniać wstrząsy. Na przykład, przyszłe zastosowanie bardziej zaawansowanych strategii handlowych opartych na AI może prowadzić do zajmowania przez podmioty rynkowe coraz bardziej podobnych pozycji i reagowania w identyczny sposób podczas kryzysu. Taka jednorodność zachowań może ostatecznie negatywnie wpłynąć na dostępność i koszt finansowania dla realnej gospodarki.
Konwergencja modeli AI w kierunku podobnych, optymalnych strategii, zasilanych wspólnymi zbiorami danych i z podobnymi celami, tworzy systemową słabość, w której lokalne napięcia rynkowe mogą być szybko wzmacniane i rozpowszechniane w całym systemie finansowym. Ten tzw. algorytmiczny efekt stadny może prowadzić do niestabilności rynkowej i wymagać nowych form nadzoru rynkowego w czasie rzeczywistym, również opartych na sztucznej inteligencji, a potencjalnie także mechanizmów dywersyfikacji odpowiedzi algorytmicznych.
Ponadto, brak przejrzystości procesu przetwarzania danych modeli AI (explainability/interpretability) oraz niewystarczającej jakości dane szkoleniowe znacznie komplikują procesy weryfikacji i monitorowania. Modele uczenia maszynowego często funkcjonują jako tzw. czarne skrzynki (black boxes), co sprawia, że rozszyfrowanie ich wewnętrznych procesów decyzyjnych jest niezwykle trudne. Jest to szczególnie problematyczne w takich zastosowaniach, jak np. ocena zdolności kredytowej, gdzie decyzje o odrzuceniu wniosku mogą być niemożliwe do wyjaśnienia, podważając tym samym przejrzystość tego procesu i odpowiedzialność za ostateczną decyzję.
Warto także zwrócić uwagę na to, że AI nie jest wolna od uprzedzeń – często są one wbudowane zarówno w algorytmy, jak i w dane, które są przez nie przetwarzane. Systemy AI, pomimo swojej zaawansowanej natury, nie są obiektywne i bezstronne. Może to prowadzić np. do konfabulacji faktów, rozpowszechniania dezinformacji i deepfake’ów, a także do niesprawiedliwych decyzji, takich jak np. wykluczanie określonych grup społecznych z rynków ubezpieczeniowych lub utrwalanie dysproporcji w dostępie do kredytu poprzez algorytmiczną dyskryminację. Tendencja modeli AI do „halucynowania”, czyli wytwarzania fałszywych lub wprowadzających w błąd wyników, dodatkowo wzmacnia te zagrożenia.
Nieprzejrzystość, wbudowane uprzedzenia i zależność od jakości danych w modelach AI stanowią zasadnicze ryzyko dla stabilności finansowej. Te kwestie podważają korzyści, które AI obiecuje (np. lepsze zarządzanie ryzykiem), i mogą przekształcić błędy na poziomie pojedynczych podmiotów w systemowe błędne oceny, prowadząc m.in. do ogólnej niestabilności, niewłaściwej alokacji kapitału i erozji zaufania publicznego. Wskazuje to na konieczność stworzenia ram zarządzania danymi, niezależnej weryfikacji modeli oraz rozwoju rozwiązań w zakresie tzw. wyjaśnialności (explainability) AI, co może wymagać nowych narzędzi regulacyjnych.
Ryzyko operacyjne i nadmierne poleganie na automatyzacji
Instytucje finansowe coraz częściej polegają na niewielkiej liczbie dostawców usług AI, co prowadzi do potencjalnych zagrożeń systemowych w przypadku zakłóceń, zwłaszcza gdy szybkie „przełączenie” na alternatywnych dostawców jest niemożliwe. Rosnąca zależność od wyspecjalizowanych usług sprzętowych i infrastrukturalnych, skoncentrowanych u kilku kluczowych dostawców, stanowi istotny czynnik ryzyka. Dodatkowo zwiększone poleganie na dostawcach zewnętrznych i związane z tym zagrożenia, takie jak integralność danych i ich pochodzenie, zmniejsza przejrzystość oraz komplikuje nadzór ostrożnościowy.
Rosnąca koncentracja infrastruktury i świadczenia usług AI przez ograniczoną liczbę dostawców zewnętrznych tworzą istotne niebezpieczeństwo dla globalnego systemu finansowego. Ryzyko operacyjne dotyczące pojedynczego podmiotu rynku finansowego może stać się ryzykiem systemowym, gdy zakłócenie u jednego dostawcy może kaskadowo rozprzestrzenić się na wzajemnie połączone instytucje finansowe, potencjalnie prowadząc do powszechnych zaburzeń w świadczeniu usług, problemów z integralnością danych i utraty zaufania rynkowego.
AI – pomimo swojego potencjału do wzmacniania zdolności zarządzania cyberbezpieczeństwem – może również zwiększyć ryzyko udanych cyberataków na system finansowy i tworzyć nowe zagrożenia. Obniża bowiem bariery wejścia dla hakerów, umożliwiając im przeprowadzanie bardziej wyrafinowanych ataków, takich jak np. zatruwanie modeli i kampanie dezinformacyjne. Jednocześnie koszty incydentów cybernetycznych stale rosną: w 2023 r., wg IBM, wyniosły około 4,45 mln dol.
Jednym z najbardziej podstępnych zagrożeń są awarie operacyjne wynikające z nadmiernego polegania na zautomatyzowanych systemach. Technologia AI może stwarzać „iluzję wszechwiedzy”, prowadząc do bezkrytycznego zaufania do jej wyników, nawet jeśli są błędne. Pojawiają się ostrzeżenia, że zagrożeniem ze strony AI jest potencjalny kryzys finansowy napędzany przez sztuczną inteligencję w ciągu najbliższej dekady, jeśli zabraknie interwencji regulacyjnej. Czynnik ludzki – a konkretnie możliwe nadmierne poleganie na zautomatyzowanych rozwiązaniach, zmniejszona zdolność do krytycznego nadzoru i brak ekspertyzy w zakresie AI na wyższych szczeblach zarządczych – wprowadza znaczące ryzyko systemowe. „Iluzja wszechwiedzy” może prowadzić do „ślepych zaułków”, gdy błędy lub uprzedzenia w powszechnie stosowanych systemach AI pozostają niewykryte, dopóki nie objawią się jako duża niestabilność finansowa. Podkreśla to kluczową potrzebę ciągłego szkolenia, jasnych ram odpowiedzialności oraz ładu korporacyjnego (np. na wzór brytyjskiego Senior Managers and Certification Regime), które priorytetowo traktują nadzór ludzki (human in the loop) i zrozumienie ograniczeń AI, zamiast bezkrytycznego automatyzowania decyzji.
W poszukiwaniu odporności
W obliczu rosnących zagrożeń związanych ze sztuczną inteligencją, organy regulacyjne na całym świecie intensyfikują swoje działania, dążąc do zapewnienia stabilności finansowej. Instytucje międzynarodowe, takie jak m.in. MFW i Rada Stabilności Finansowej (FSB), aktywnie monitorują i oceniają skutki AI dla stabilności finansowej. FSB podkreśla potrzebę wzmocnienia zarządzania danymi, oceny ram regulacyjnych i inwestowania w narzędzia nadzorcze, w tym technologie oparte na sztucznej inteligencji. Obie instytucje promują również międzynarodową współpracę oraz dzielenie się informacjami i dobrymi praktykami.
Istota zastosowań AI w sektorze finansowym, która z natury rzeczy przekracza granice, w połączeniu z ryzykiem arbitrażu regulacyjnego, sprawia, że koordynacja międzynarodowa jest nie tylko pożądana, ale wręcz niezbędna do skutecznego łagodzenia ryzyka systemowego w skali globalnej. Bez zharmonizowanych standardów i wspólnych podejść nadzorczych, fragmentaryczne regulacje krajowe umożliwią bowiem powstanie „bezpiecznych przystani AI” (o niższych standardach regulacyjnych), gdzie niebezpieczeństwa i słabości mogą zwiększać się bez kontroli, ostatecznie zagrażając stabilności systemu finansowego na świecie.
Rozwiązania krajowe koncentrują się m.in. na zwiększonym wykorzystaniu AI w kluczowych funkcjach decyzyjnych banków i ubezpieczycieli, na rynkach finansowych, ryzykach operacyjnych związanych z dostawcami usług AI oraz zmieniającym się środowisku zagrożeń cybernetycznych (Bank Anglii), a także na opracowaniu wspólnego leksykonu sztucznej inteligencji, poprawie wymiany danych o oszustwach i rozszerzeniu ram zarządzania ryzykiem AI (Departament Skarbu USA). Z kolei w Unii Europejskiej, poprzez EU AI Act wprowadzono podejście oparte na ryzyku, kategoryzując systemy AI według czterech kategorii ryzyka: niedopuszczalnego, wysokiego, ograniczonego i minimalnego.
Głównym wyzwaniem jest to, że szybkie tempo i ogromna skala wykorzystania AI sprawiają, że reakcje regulacyjne nie nadążają za nimi. Złożona i często nieprzewidywalna natura technologii AI, zwłaszcza modeli uczenia maszynowego, dodatkowo komplikuje tę sytuację. Również brak wystarczającej wiedzy eksperckiej wśród kierownictwa i wyższej kadry zarządzającej instytucjami finansowymi utrudnia skuteczne wypełnianie obowiązków w zakresie ładu korporacyjnego AI, ocenę szerszych skutków biznesowych i utrzymanie przejrzystych systemów AI.
Organy regulacyjne ciągle muszą nadrabiać zaległości w stosunku do innowacji AI. To opóźnienie regulacyjne, w połączeniu z nieprzejrzystością zaawansowanych modeli AI i niedostateczną wiedzą w tym zakresie na najwyższych szczeblach instytucji finansowych, tworzy znaczący deficyt zarządzania. Deficyt ten nie tylko utrudnia skuteczne zarządzanie ryzykiem w poszczególnych podmiotach, ale także komplikuje rozwój i wdrażanie odpowiednich polityk ostrożnościowych, zwiększając prawdopodobieństwo nieprzewidzianych zdarzeń systemowych i potencjalnie podważając stabilność finansową.
Mimo rozwoju AI, ludzki nadzór pozostaje kluczowy dla weryfikacji wyników i zapewnienia bezpieczeństwa operacyjnego. Konieczne jest budowanie kompetencji w zakresie sztucznej inteligencji na wszystkich szczeblach, od zarządów po personel operacyjny, aby zminimalizować ryzyko nadmiernego polegania na automatyzacji i zapewnić krytyczną ocenę wyników AI.
Obecny okres względnej stabilności finansowej może stwarzać fałszywe poczucie bezpieczeństwa w odniesieniu do systemowego wpływu AI. Może to maskować gromadzenie się słabości związanych z AI – takich jak m.in. algorytmiczny efekt stadny, ryzyka koncentracji u stron trzecich i niewykryte uprzedzenia modeli – które, jeśli pozostaną bez kontroli, mogą wzmocnić przyszłe wstrząsy i doprowadzić do poważniejszego oraz szybszego ujawnienia się zagrożenia. Wymaga to proaktywnego, a nie reaktywnego, podejścia do polityki stabilności finansowej, które przewiduje ewoluującą naturę ryzyka systemowego w krajobrazie finansowym napędzanym przez AI, zapewniając przy tym, że dążenie do optymalizacji efektywności nie podważy długoterminowej stabilności.
Odporność systemu finansowego w erze sztucznej inteligencji będzie zależała od zdolności do szybkiego dostosowywania się do sytuacji, inwestowania w odpowiednie zabezpieczenia i promowania kultury odpowiedzialnego wdrażania AI. Tylko w ten sposób można w pełni wykorzystać transformacyjny potencjał sztucznej inteligencji, jednocześnie chroniąc stabilność finansową przed jej „niewidzialnymi ryzykami”.
Autorka wyraża własne opinie, a nie oficjalne stanowisko NBP.