NBP strażnikiem stabilności systemu finansowego
Kategoria: Instytucje finansowe
Michał Nowakowski (fot. arch. prywatne)
„OBSERWATOR FINANSOWY”: Co właściwie reguluje AI Act, nazywany przez niektórych konstytucją sztucznej inteligencji?
MICHAŁ NOWAKOWSKI: Rozporządzenie 2024/1689, czyli AI Act, nie obejmuje całego ekosystemu sztucznej inteligencji, ale skupia się na tych systemach, które mogą stwarzać ryzyko dla praw i wolności człowieka. AI Act klasyfikuje je według poziomu ryzyka: od nieakceptowalnego przez wysokie, umiarkowane aż po minimalne. Dodatkowo – dla modeli ogólnego przeznaczenia, jak te wykorzystywane w popularnych narzędziach AI – wprowadza się kategorię ryzyka systemowego.
W praktyce nie każda technologia nazywana dziś AI zostanie objęta tym rozporządzeniem.
Tak. Z powodu nieostrej definicji systemu AI – tu dla uproszczenia przyjmijmy, że chodzi o rozwiązania oparte m.in. na uczeniu maszynowym czy przetwarzaniu języka naturalnego – część obecnie używanych technologii wypadnie spod działania AI Act. Nie było jednak intencją unijnego prawodawcy objęcie nim wszystkich rozwiązań, lecz tych najbardziej „szkodliwych”. Czas pokaże, czy to podejście było słuszne. Warto też pamiętać, że przepisy dotyczą rozwiązań, które funkcjonują na terytorium UE lub dotyczą osób tam przebywających, nawet jeśli systemy AI nie zostały stworzone w Europie.
W UE obowiązuje już RODO. Czy jego przepisy nie będą kolidować z AI Act?
RODO i AI Act rzeczywiście mocno się przenikają. Problem w tym, że systemy AI bardzo często przetwarzają dane osobowe, więc nakłada się na nie wiele równoległych obowiązków. Pojawiają się też niejasności definicyjne. Na poziomie instytucjonalnym może to prowadzić do konfliktów kompetencyjnych – na przykład między Prezesem Urzędu Ochrony Danych Osobowych a nowym organem nadzoru odpowiedzialnym za AI Act. Dlatego tak ważne jest, by przygotowywana ustawa wprowadzająca do polskiego prawa niektóre obowiązki związane z wejściem w życie przepisów AI Act jednoznacznie rozstrzygała te kwestie.
Od lutego 2025 r. obowiązują przepisy dotyczące praktyk zakazanych. Co to oznacza dla sektora finansowego?
Zasada jest taka, że o zakazie decydują skala szkody oraz stopień, np. manipulacji czy wykorzystania słabości. Przykładowo: jeśli system AI wpływa na decyzje konsumenta w sposób istotny zniekształcający jego świadomość – na przykład przy zakupie usługi finansowej – i prowadzi to do poważnej szkody, może to zostać uznane za praktykę zakazaną. Możliwe, że subtelniejsze oddziaływania nie będą objęte zakazem, choć mogą rodzić poważne pytania etyczne.
Jakie rozwiązania są jednoznacznie zakazane?
Na przykład systemy służące do rozpoznawania emocji – także wobec pracowników – czy narzędzia oparte na niedozwolonej kategoryzacji biometrycznej. I to nawet wtedy, gdy służą takim celom jak przeciwdziałanie praniu pieniędzy czy finansowaniu terroryzmu.
Czy nowe regulacje w wystarczającym stopniu chronią konsumentów usług finansowych?
Sektor finansowy już teraz jest mocno uregulowany. Choćby artykuł 105a ust. 1a Prawa bankowego umożliwia podejmowanie decyzji na podstawie zautomatyzowanego przetwarzania danych pod warunkiem zapewnienia klientowi m.in. prawa do odwołania się i interwencji człowieka. AI Act porządkuje niektóre kwestie, ale prawdziwym problemem będzie egzekucja jego przepisów. Organy nadzoru i sądy muszą mieć nie tylko wiedzę prawną, lecz także technologiczną, a nawet odpowiednie narzędzia. A z tym może być różnie.
Czy polskie banki są gotowe na wdrażanie AI zgodnie z AI Act?
Banki są dobrze przygotowane. Wymogi dla systemów wysokiego ryzyka mogą być kosztowne, ale są w dużej mierze zgodne z tym, co już dziś te instytucje stosują. Zarządzanie jakością, systemy zgodności, ryzyko – to dla nich chleb powszedni. Nawet o specjalistów nie będzie aż tak trudno. Problem może pojawić się u mniejszych graczy.
Czyli w pozostałych podmiotach sektora finansowego sytuacja wygląda gorzej?
Tak, tam poziom przygotowania bywa bardzo różny. Zarządzanie danymi, jakością, bezpieczeństwem informacji często nie funkcjonuje na wystarczającym poziomie. Część firm może próbować opóźniać implementację AI Act, zakładając, że skoro jeszcze nic nie wdrażają, to nie muszą się dostosowywać. To krótkowzroczne podejście. Świat coraz bardziej opiera się na danych, więc AI i tak je wkrótce dosięgnie.
Czy UE nie działa przeciwko swojej konkurencyjności, stawiając na regulacje?
Europa od dawna stawia ochronę obywatela w centrum uwagi kosztem elastyczności biznesowej i dynamiki gospodarczej. Technologiczne opóźnienie nie wynika jednak z AI Act, ale jest efektem wieloletnich zaniedbań: niedofinansowania, braku strategii, słabej koordynacji. Intencje są dobre, lecz działania punktowe, nie systemowe. Moim zdaniem nie dogonimy już światowej czołówki – musimy znaleźć własną ścieżkę.
To po co nam AI Act?
Rozporządzenie daje większą pewność prawa, co jest kluczowe dla decyzji inwestycyjnych w innowacje. Tego dziś przedsiębiorcy potrzebują. Ma ono też potencjał, by stać się impulsem do rozwoju odpowiedzialnego zarządzania danymi.
Jak zbudować system AI, któremu można zaufać?
To nie tylko kwestia technologii, lecz także organizacji, procesów oraz kultury. Kluczowe są dobre praktyki zarządzania danymi (AI & Data Governance), przejrzystość modeli, systemy zarządzania jakością, narzędzia do oceny zgodności z regulacjami (compliance) i edukacja, w tym rozwój kompetencji pracowników w zakresie AI (AI literacy).
Etyczna AI to taka, która powstaje z głową – od projektowania przez dane po testowanie i użytkowanie. Pomocne są tutaj m.in. normy ISO 42001, standardy NIST, OWASP, stare dobre DAMA-BOK czy dokument ekspertów KE odnoszący się do AI godnej zaufania. Trzeba to po prostu wdrożyć.
Czy możliwe jest stworzenie globalnych standardów AI Governance?
Tak, zdecydowanie. Z chęcią uczestniczyłbym w takiej inicjatywie. AI Governance da się wystandaryzować, choć trzeba pamiętać, że każda organizacja musi potem dopasować ogólne standardy do własnych potrzeb i uwarunkowań. Europejskie organy nadzoru mają potencjał, by odegrać tu ważną rolę. Już w 2020 r. w ramach Digital Finance Strategy zapowiadano opracowanie wytycznych dotyczących stosowania AI w sektorze finansowym. Dziś mamy 2025 r. i… ciszę. Problemem może być to, że AI Governance wciąż jest na bardzo wczesnym etapie rozwoju i brak praktyki spowalnia proces. Potencjał jest jednak ogromny, więc warto wrócić do tematu.
Rozmawiała: Anna Słabosz-Pawłowska
Artykuł pochodzi z 21.wydania kwartalnika „Obserwator Finansowy” – czerwiec-sierpień 2025 r.


