Sztuczna inteligencja pod nadzorem: Europa chce być liderem etycznej AI

Unia Europejska jako pierwsza na świecie wdrożyła kompleksowe przepisy regulujące sztuczną inteligencję. Czy AI Act wystarczy, by zapewnić bezpieczeństwo obywatelom, a jednocześnie nie zahamować innowacji? – Na pewno to dobry krok, ale wciąż brakuje nam technologicznego przywództwa – mówi dr Michał Nowakowski, radca prawny i ekspert ds. etyki AI.
Sztuczna inteligencja pod nadzorem: Europa chce być liderem etycznej AI

Michał Nowakowski (fot. arch. prywatne)

„OBSERWATOR FINANSOWY”: Co właściwie reguluje AI Act, nazywany przez niektórych konstytucją sztucznej inteligencji?

MICHAŁ NOWAKOWSKI: Rozporządzenie 2024/1689, czyli AI Act, nie obejmuje całego ekosystemu sztucznej inteligencji, ale skupia się na tych systemach, które mogą stwarzać ryzyko dla praw i wolności człowieka. AI Act klasyfikuje je według poziomu ryzyka: od nieakceptowalnego przez wysokie, umiarkowane aż po minimalne. Dodatkowo – dla modeli ogólnego przeznaczenia, jak te wykorzystywane w popularnych narzędziach AI – wprowadza się kategorię ryzyka systemowego.

W praktyce nie każda technologia nazywana dziś AI zostanie objęta tym rozporządzeniem.

Tak. Z powodu nieostrej definicji systemu AI – tu dla uproszczenia przyjmijmy, że chodzi o rozwiązania oparte m.in. na uczeniu maszynowym czy przetwarzaniu języka naturalnego – część obecnie używanych technologii wypadnie spod działania AI Act. Nie było jednak intencją unijnego prawodawcy objęcie nim wszystkich rozwiązań, lecz tych najbardziej „szkodliwych”. Czas pokaże, czy to podejście było słuszne. Warto też pamiętać, że przepisy dotyczą rozwiązań, które funkcjonują na terytorium UE lub dotyczą osób tam przebywających, nawet jeśli systemy AI nie zostały stworzone w Europie.

W UE obowiązuje już RODO. Czy jego przepisy nie będą kolidować z AI Act?

RODO i AI Act rzeczywiście mocno się przenikają. Problem w tym, że systemy AI bardzo często przetwarzają dane osobowe, więc nakłada się na nie wiele równoległych obowiązków. Pojawiają się też niejasności definicyjne. Na poziomie instytucjonalnym może to prowadzić do konfliktów kompetencyjnych – na przykład między Prezesem Urzędu Ochrony Danych Osobowych a nowym organem nadzoru odpowiedzialnym za AI Act. Dlatego tak ważne jest, by przygotowywana ustawa wprowadzająca do polskiego prawa niektóre obowiązki związane z wejściem w życie przepisów AI Act jednoznacznie rozstrzygała te kwestie.

Od lutego 2025 r. obowiązują przepisy dotyczące praktyk zakazanych. Co to oznacza dla sektora finansowego?

Zasada jest taka, że o zakazie decydują skala szkody oraz stopień, np. manipulacji czy wykorzystania słabości. Przykładowo: jeśli system AI wpływa na decyzje konsumenta w sposób istotny zniekształcający jego świadomość – na przykład przy zakupie usługi finansowej – i prowadzi to do poważnej szkody, może to zostać uznane za praktykę zakazaną. Możliwe, że subtelniejsze oddziaływania nie będą objęte zakazem, choć mogą rodzić poważne pytania etyczne.

Rewolucja AI w sektorze finansowym

Jakie rozwiązania są jednoznacznie zakazane?

Na przykład systemy służące do rozpoznawania emocji – także wobec pracowników – czy narzędzia oparte na niedozwolonej kategoryzacji biometrycznej. I to nawet wtedy, gdy służą takim celom jak przeciwdziałanie praniu pieniędzy czy finansowaniu terroryzmu.

Czy nowe regulacje w wystarczającym stopniu chronią konsumentów usług finansowych?

Sektor finansowy już teraz jest mocno uregulowany. Choćby artykuł 105a ust. 1a Prawa bankowego umożliwia podejmowanie decyzji na podstawie zautomatyzowanego przetwarzania danych pod warunkiem zapewnienia klientowi m.in. prawa do odwołania się i interwencji człowieka. AI Act porządkuje niektóre kwestie, ale prawdziwym problemem będzie egzekucja jego przepisów. Organy nadzoru i sądy muszą mieć nie tylko wiedzę prawną, lecz także technologiczną, a nawet odpowiednie narzędzia. A z tym może być różnie.

Czy polskie banki są gotowe na wdrażanie AI zgodnie z AI Act?

Banki są dobrze przygotowane. Wymogi dla systemów wysokiego ryzyka mogą być kosztowne, ale są w dużej mierze zgodne z tym, co już dziś te instytucje stosują. Zarządzanie jakością, systemy zgodności, ryzyko – to dla nich chleb powszedni. Nawet o specjalistów nie będzie aż tak trudno. Problem może pojawić się u mniejszych graczy.

Czyli w pozostałych podmiotach sektora finansowego sytuacja wygląda gorzej?

Tak, tam poziom przygotowania bywa bardzo różny. Zarządzanie danymi, jakością, bezpieczeństwem informacji często nie funkcjonuje na wystarczającym poziomie. Część firm może próbować opóźniać implementację AI Act, zakładając, że skoro jeszcze nic nie wdrażają, to nie muszą się dostosowywać. To krótkowzroczne podejście. Świat coraz bardziej opiera się na danych, więc AI i tak je wkrótce dosięgnie.

Czy UE nie działa przeciwko swojej konkurencyjności, stawiając na regulacje?

Europa od dawna stawia ochronę obywatela w centrum uwagi kosztem elastyczności biznesowej i dynamiki gospodarczej. Technologiczne opóźnienie nie wynika jednak z AI Act, ale jest efektem wieloletnich zaniedbań: niedofinansowania, braku strategii, słabej koordynacji. Intencje są dobre, lecz działania punktowe, nie systemowe. Moim zdaniem nie dogonimy już światowej czołówki – musimy znaleźć własną ścieżkę.

To po co nam AI Act?

Rozporządzenie daje większą pewność prawa, co jest kluczowe dla decyzji inwestycyjnych w innowacje. Tego dziś przedsiębiorcy potrzebują. Ma ono też potencjał, by stać się impulsem do rozwoju odpowiedzialnego zarządzania danymi.

Władza ukryta w AI według Mühlhoffa

Jak zbudować system AI, któremu można zaufać?

To nie tylko kwestia technologii, lecz także organizacji, procesów oraz kultury. Kluczowe są dobre praktyki zarządzania danymi (AI & Data Governance), przejrzystość modeli, systemy zarządzania jakością, narzędzia do oceny zgodności z regulacjami (compliance) i edukacja, w tym rozwój kompetencji pracowników w zakresie AI (AI literacy).

Etyczna AI to taka, która powstaje z głową – od projektowania przez dane po testowanie i użytkowanie. Pomocne są tutaj m.in. normy ISO 42001, standardy NIST, OWASP, stare dobre DAMA-BOK czy dokument ekspertów KE odnoszący się do AI godnej zaufania. Trzeba to po prostu wdrożyć.

Czy możliwe jest stworzenie globalnych standardów AI Governance?

Tak, zdecydowanie. Z chęcią uczestniczyłbym w takiej inicjatywie. AI Governance da się wystandaryzować, choć trzeba pamiętać, że każda organizacja musi potem dopasować ogólne standardy do własnych potrzeb i uwarunkowań. Europejskie organy nadzoru mają potencjał, by odegrać tu ważną rolę. Już w 2020 r. w ramach Digital Finance Strategy zapowiadano opracowanie wytycznych dotyczących stosowania AI w sektorze finansowym. Dziś mamy 2025 r. i… ciszę. Problemem może być to, że AI Governance wciąż jest na bardzo wczesnym etapie rozwoju i brak praktyki spowalnia proces. Potencjał jest jednak ogromny, więc warto wrócić do tematu.

Rozmawiała: Anna Słabosz-Pawłowska

 

Artykuł pochodzi z 21.wydania kwartalnika „Obserwator Finansowy” – czerwiec-sierpień 2025 r.

Michał Nowakowski (fot. arch. prywatne)

Otwarta licencja


Tagi


Artykuły powiązane

NBP strażnikiem stabilności systemu finansowego

Kategoria: Instytucje finansowe
Narodowy Bank Polski pełni istotną rolę w zapewnieniu stabilności systemu finansowego, a szczególnie sektora bankowego. W zakresie nadzoru finansowego jego rola ulegała zmianom. W latach 1989-2007 NBP był bezpośrednio zaangażowany w nadzór nad bankami, a od 2015 r. pełni wiodącą funkcję w nadzorze makroostrożnościowym.
NBP strażnikiem stabilności systemu finansowego

Globalny wyścig regulacyjny w zakresie AI

Kategoria: Innowacje w biznesie
Dlaczego UE powinna skoncentrować się na jakości danych i zasadach przypisania odpowiedzialności za jakość produktu?
Globalny wyścig regulacyjny w zakresie AI

Sztuczna inteligencja ma potencjał, by zmienić zasady gry w bankowości

Kategoria: Innowacje w biznesie
SI może na nowo zdefiniować sposób działania banków, ich interakcje z klientami oraz sposób zarządzania ryzykiem. Zostanie wykorzystana do budowy inteligentnych pieniędzy, przekształcając sposób życia i pracy ludzi na całej planecie – uważa Rohit Talwar, znany futurolog, założyciel i CEO firmy Fast Future.
Sztuczna inteligencja ma potencjał, by zmienić zasady gry w bankowości