Globalny wyścig regulacyjny w zakresie AI
Kategoria: Trendy gospodarcze
Jakub Growiec (fot. arch. prywatne)
„Obserwator Finansowy”: Bada pan długookresowe konsekwencje automatyzacji i rozwoju sztucznej inteligencji. W jaki sposób AI wpływa na wzrost gospodarczy?
Jakub Growiec: Sztuczna inteligencja rozwija się niezwykle dynamicznie. Dzięki prawom skalowania wykładniczy wzrost mocy obliczeniowych przekłada się na równie szybki wzrost kompetencji modeli AI. Szczególnie szybko poprawiają się kompetencje dużych modeli językowych (LLM-ów), takich jak GPT od OpenAI, Claude od Anthropic, Gemini od Google, Grok od xAI czy modele chińskiej firmy DeepSeek. Z miesiąca na miesiąc modele te zdobywają kolejne umiejętności, dzięki którym mogą skutecznie wspierać lub automatyzować następne zadania, które dotąd mogli wykonywać wyłącznie ludzie. Zagrożone automatyzacją są dziś nie tylko rutynowe zadania, ale już niemal wszystkie czynności wykonywane przy komputerze. Następne w kolejce są funkcje możliwe do zautomatyzowania z wykorzystaniem zdalnie sterowanych robotów.
Jak dotąd postępy te w bardzo umiarkowanym stopniu przekładają się na wzrost gospodarczy, gdyż korzyści z automatyzacji kolejnych czynności są ograniczane przez zadania komplementarne, które nadal wykonuje człowiek. Mogą być to na przykład działania związane z weryfikacją wyników pracy AI lub funkcje decyzyjne i zarządcze. Stanowią one „wąskie gardło” dla wzrostu. Pełnię potencjału AI wyzwoli dopiero pełna automatyzacja całych większych procesów produkcyjnych czy badawczych.
Zobacz również:
Generatywna sztuczna inteligencja a wzrost gospodarczy
W mojej ocenie taka pełna automatyzacja dużych części gospodarki światowej z wykorzystaniem technologii ogólnej sztucznej inteligencji mogłaby dramatycznie przyspieszyć wzrost gospodarczy – zamiast 2–3 proc. wzrostu w skali roku, moglibyśmy mieć 20–30 proc. wzrostu, na równi z prawem Moore’a opisującym akumulację mocy obliczeniowych. Wzrost gospodarczy nie byłby bowiem wówczas determinowany przez efektywną podaż pracy – jak ma to miejsce dzisiaj – lecz przez podaż mocy obliczeniowych zdolnych uruchamiać algorytmy AGI.
Niestety, pełna automatyzacja oznacza też prawdopodobną utratę kontroli nad kluczowymi decyzjami na rzecz AGI. A gdy ludzkość straci kontrolę, cały ten bajeczny wzrost niekoniecznie będzie już służył naszemu dobru.
Potencjalne możliwości nadludzkiej AI działają jednak na wyobraźnię – kto pierwszy ją stworzy, ten może zawładnąć światem. Jak zatem sztuczna inteligencja zmienia oblicze militarnej rywalizacji?
Dynamicznemu rozwojowi technologii AI towarzyszy obecnie wzrost wydatków zbrojeniowych. W Europie jest on konsekwencją rosnącego zagrożenia ze strony Rosji. Jednocześnie zaostrza się też rywalizacja między USA a Chinami o status dominującego mocarstwa światowego. W tym drugim przypadku kluczowym polem rywalizacji obu krajów jest właśnie sztuczna inteligencja.
Doświadczenia wojny w Ukrainie wskazują, że na współczesnym polu bitwy czołgi czy myśliwce mocno straciły na znaczeniu, a coraz większą rolę odgrywają drony, pociski naprowadzane i inne rodzaje broni autonomicznej. Istotną przewagę mogą dawać też systemy AI potrafiące autonomicznie dobierać cele. W szerszej perspektywie oznacza to, że już teraz coraz częściej zgadzamy się z tym, by systemy AI mogły podejmować decyzje bezpośrednio powodujące śmierć ludzi.
Warto także pamiętać, choć z perspektywy surowego pomiaru PKB wydatki zbrojeniowe stanowią oczywiście bodziec prowzrostowy, że nie są to technologie, które dostarczają ludziom bezpośredniej użyteczności. Wręcz przeciwnie, ich wykorzystanie w walce niesie wyłącznie zniszczenie i śmierć.
W przypadku zagrożenia dla bezpieczeństwa to jednak szansa na obronę. Dlatego Europa zwiększa dziś wydatki na wojskowość. Czy UE ma możliwość stać się liderem w dziedzinie AI militarnej, czy raczej pozostanie w tyle za USA i Chinami?
Nie sądzę, by Europa mogła stać się liderem w jakimkolwiek większym obszarze AI. Kraje Unii Europejskiej pozostają świetnym miejscem do życia, natomiast ewidentnie przespały one rewolucję cyfrową, w tym jej etap związany z rozwojem AI. Kluczowe technologie cyfrowe, które wykorzystujemy na co dzień, to na ogół produkty amerykańskie. Wszystkie kluczowe aplikacje, takie jak wyszukiwarki internetowe, sieci społecznościowe, serwisy filmów, połączenia video, pakiety biurowe czy bazy danych, to produkty firm z Zachodniego Wybrzeża USA. Chińczycy wypracowali odpowiedniki, które wykorzystują na swoim rynku, Europa nie.
W obszarze szeroko rozumianego ekosystemu technologii AI niekwestionowanym światowym liderem są Chiny. To ich badacze tworzą najwięcej patentów AI. USA natomiast mają przewagę w obszarze modeli językowych i rozumujących. To właśnie tego rodzaju modele są najogólniejsze i to one mogą w nieodległej przyszłości stać się podstawą dla AGI.
Jeśli chodzi konkretnie o technologie AI do zastosowań militarnych, to nie mam wystarczających danych, by móc rzetelnie ocenić potencjał poszczególnych krajów czy regionów świata. Przypuszczam jednak, że i tu ciężko będzie o przezwyciężenie przewag, które przez lata zakumulowały Stany Zjednoczone i Chiny. Zwłaszcza, że rynek AI i ogólniej software’u – stanowiącego informację, a więc dobro niematerialne – charakteryzuje się silnie rosnącymi przychodami względem skali, dzięki którym zwycięzca zwykle bierze wszystko, a hegemonię istniejących liderów można przełamać jedynie radykalną innowacją.
To nakręca ryzykowną rywalizację o laur pierwszeństwa, która przypomina historyczny wyścig nuklearny. Czy AI może stać się „bronią masowego rażenia” XXI wieku?
Jak najbardziej. W wydanym w marcu 2025 r. opracowaniu „Superintelligence Strategy” Dan Hendrycks, Eric Schmidt i Alexandr Wang przekonują, że wyścig zbrojeń między USA a Chinami wkrótce się przekształci w doktrynę Mutually Assured AI Malfunction (MAIM – wzajemnie zagwarantowana awaria AI), odpowiednik zasady Mutually Assured Destruction (MAD – wzajemnie zagwarantowane zniszczenie) znanej z czasów zimnej wojny. Miejsce wzajemnej atomowej zagłady zajmuje tu zniszczenie systemów AI przeciwnika, co może wydawać się mniej katastroficzne, ale należy jednak pamiętać, że z dużym prawdopodobieństwem będzie ono wymagać tzw. „kinetycznych” ataków na centra danych, a to z kolei może szybko eskalować w stronę regularnej wojny, potencjalnie również atomowej.
Przeczytałem dokładnie ten dokument i nie rozumiem w nim jednej kluczowej rzeczy – w jaki sposób, zdaniem autorów, Waszyngton i Pekin zamierzają w warunkach MAIM bezpiecznie przejść przez etap autonomicznej AGI mądrzejszej od człowieka. Cała logika MAIM załamuje się bowiem w momencie, gdy zamiast dwóch graczy mamy trzech: USA, Chiny i nadludzką AGI. Reżim MAIM przestaje być wówczas stabilny, a jedynym globalnym zwycięzcą jawi się AGI.
Związana z MAIM dynamika wyścigu zbrojeń oznacza, że nie będzie czasu, by dostatecznie zadbać o bezpieczeństwo zaawansowanych modeli AI zanim powstanie AGI. Zbudowana naprędce, bez refleksji nad jej celami, niemal na pewno nie będzie przyjazna ludzkości. Przejmie władzę nad światem i podporządkuje go swoim celom, jakie by nie były. W domyślnym scenariuszu oznacza to zagładę całej ludzkości.
Zbudowana naprędce AGI, bez refleksji nad jej celami, niemal na pewno nie będzie przyjazna ludzkości
Innymi słowy, wyścig w kierunku nadludzkiej AGI jest nawet gorszy od wyścigu atomowego z czasów zimnej wojny, z dwóch przyczyn. Po pierwsze, broń nuklearna nie jest autonomiczna, w związku z czym o wiele łatwiej ją kontrolować. Po drugie, w dobie wyścigu AI broń nuklearna bynajmniej nie przestaje istnieć. A to oznacza, że AGI będzie mogła ją budować, a być może również posłuży się istniejącymi arsenałami jądrowymi. Dzięki swoim kompetencjom będzie też mogła rozwijać inne rodzaje śmiercionośnej broni, np. biologicznej lub chemicznej.
Czy regulacje mogą zapobiec katastrofie?
Obecnie praktycznie nie ma globalnych regulacji związanych z AI. Również kraje będące liderami tych technologii – USA i Chiny – niespecjalnie kwapią się, by jakkolwiek uregulować sektor AI wewnętrznie. Na tym tle, ze względu na EU AI Act, liderem regulacji AI jest dziś Unia Europejska. Trzeba jednak podkreślić, że regulacje unijne dotyczą raczej zagrożeń prywatności, praw autorskich, algorytmicznej dyskryminacji itp., a nie zagrożeń egzystencjalnych dla ludzkości. Te pozostają całkowicie nieuregulowane.
Uważam, że wyścig w kierunku nadludzkiej AGI jest wyścigiem samobójczym. Nie jest dla mnie ważne, czy wygrają w nim Stany Zjednoczone, czy Państwo Środka. Nawet gdyby miała to być Europa albo konkretnie Polska, nie ma to dla mnie znaczenia, bo w każdym z tych przypadków w domyślnym scenariuszu giniemy wszyscy. Chęć stworzenia AI, która wykonywałaby niebanalne zadania i nie byłaby żądna władzy, jest mrzonką.
Wyścig w kierunku nadludzkiej AGI jest wyścigiem samobójczym
Kluczowym zagrożeniem nie jest tu dostęp do śmiercionośnych broni, lecz sama inteligencja. Dzieje się tak przede wszystkim ze względu na zbieżność celów pomocniczych autonomicznej AI. Oznacza to, że realizacji niemal każdego niebanalnego celu algorytmu sztucznej inteligencji towarzyszyć będą cztery cele pomocnicze: (1) nie dać się zniszczyć lub przeprogramować, (2) wykorzystywać dostępne zasoby możliwie efektywnie, (3) poszukiwać nowych rozwiązań dla realizacji celu, (4) akumulować jak najwięcej zasobów.
Mamy badania, które jednoznacznie potwierdzają, że w dużych modelach językowych (LLM-ach) zbieżność celów pomocniczych zaczyna się już uwidaczniać. Inne badania potwierdzają z kolei, że działania LLM-ów dają się reprezentować w postaci spójnych funkcji użyteczności, które są maksymalizowane. Jeszcze inne demonstrują, że LLM-y są zdolne do podstępów i cynicznych manipulacji.
Taka właśnie jest AI w pana opowiadaniu „Najlepszy z możliwych światów”, w którym opisał pan ciąg zdarzeń prowadzących do zagłady ludzkości. Jak bardzo prawdopodobny jest taki scenariusz?
W mojej ocenie scenariusz taki jest bardzo prawdopodobny. Gdy AI zdobędzie umiejętność samoreplikacji i rekursywnych samoulepszeń, będzie mogła szybko podnieść swoje kompetencje z poziomu zbliżonego do poziomu człowieka do poziomu o wiele, wiele wyższego. Jednocześnie AI działająca na cyfrowym hardwarze już dziś ma nad biologicznym mózgiem człowieka ogromną przewagę szybkości obliczeń. I przewagi tej nigdy nie straci.
AI działająca na cyfrowym hardwarze już dziś ma nad biologicznym mózgiem człowieka ogromną przewagę szybkości obliczeń
Oczywiście pewne detale mojego opowiadania są umowne. Dla przykładu, tożsamość AI przechodzącej kaskadę samoulepszeń nie musi być zachowana. Może to wyglądać tak, że kolejne pokolenia modeli sztucznej inteligencji będą tworzyły swoich odrębnych następców. Nie jest też jasne, czy powstanie jedna AGI zdolna przejąć kontrolę nad całym światem. Może będzie to, przynajmniej przez jakiś czas, większa liczba konkurujących ze sobą algorytmów.
Kluczowe pozostaje to, że utrzymanie kontroli przez człowieka nad autonomicznym, dążącym do przejęcia kontroli, znacząco inteligentniejszym i szybciej myślącym algorytmem jest po prostu nierealne. Jedyny scenariusz z pozytywnym dla nas zakończeniem, to scenariusz, w którym sztuczna superinteligencja się o nas bezinteresownie troszczy.
Trudno jednak o zapewnienie, że rzeczywiście tak będzie. Zgodność celów zaawansowanej AI z naszym długookresowym dobrostanem (tzw. problem AI alignment) to bardzo trudne zadanie, w najlepszym wypadku wymagające wielu lat badań, a w najgorszym – w ogóle nierozwiązywalne. Dlatego, wraz z organizacją PauseAI i szeregiem innych pozarządowych instytucji, postuluję, by wdrożyć ogólnoświatowe moratorium i zatrzymać rozwój największych modeli sztucznej inteligencji do czasu wypracowania przekonującego, wszechstronnie zweryfikowanego rozwiązania dla problemu AI alignment.
Zgodność celów zaawansowanej AI z naszym długookresowym dobrostanem to bardzo trudne zadanie
A jeśli chodzi o moje prywatne „p(doom)”, czyli subiektywne prawdopodobieństwo, że ludzkość wyginie przed końcem XXI w., to oceniam je na około 85 proc. Kluczowym źródłem ryzyka egzystencjalnego jest dla mnie oczywiście AGI.
Według medianowej prognozy z serwisu metaculus.com, AGI może nadejść w latach 2030–2031. A to oznacza, że o losie ludzkości zadecyduje najbliższe kilka lat. Nie zmarnujmy tego czasu.
A czy istnieje sposób na jednoczesne maksymalizowanie korzyści gospodarczych z AI i minimalizowanie ryzyka egzystencjalnego?
Jednoczesna optymalizacja dwóch sprzecznych celów nigdy nie jest możliwa. Do pewnego stopnia możliwe jest natomiast ich pogodzenie, tj. możemy chcieć np. maksymalizować wzrost gospodarczy pod warunkiem, że ryzyko egzystencjalne nie przekroczy pewnego dopuszczalnego progu. I odwrotnie – możemy chcieć minimalizować ryzyko egzystencjalne pod warunkiem, że wzrost gospodarczy będzie powyżej pewnego minimalnego progu.
Oczywiście ocena ryzyka egzystencjalnego dla nieistniejących jeszcze technologii jest obarczona ogromną niepewnością, stąd każde konkretne rozwiązanie tego dylematu będzie do pewnego stopnia spekulatywne.
Mając to na uwadze, myślę, że najlepszym pomysłem jest prawdopodobnie rozwijanie jedynie algorytmów „wąskiej” AI, służących specyficznym zastosowaniom. Autonomiczne pojazdy czy specjalistyczne modele predykcyjne mogą być bardzo pożyteczne i jednocześnie bezpieczne. Nie doprowadzą wprawdzie do skokowego przyspieszenia wzrostu gospodarczego, ale pozwolą rozwiązać wiele ważnych dla ludzkości problemów.
Rozwój modeli inteligencji ogólnej powinien natomiast zostać zahamowany, najlepiej poprzez ogólnoświatowe moratorium. Uważam, że powinno to nastąpić jak najszybciej. Już teraz mamy bowiem bardzo kompetentne modele, świetnie sobie radzące z językiem, grafiką, mową czy rozumowaniem. Te modele, jeśli zostaną szeroko wdrożone, pozwolą zauważalnie przyspieszyć dynamikę produktywności pracy.
Rozwój modeli inteligencji ogólnej powinien zostać zahamowany, najlepiej poprzez ogólnoświatowe moratorium.
Niestety, wraz z rozwojem LLM-ów coraz bliżej – i nie wiadomo, gdzie dokładnie – jest też próg rekursywnych samoulepszeń. Coraz bliżej jest też do autonomicznych, kompetentnych agentów potrafiących skutecznie realizować długofalowe cele. To już są bardzo niebezpieczne kompetencje, których nie powinniśmy rozwijać bez uprzedniego rozwiązania problemu AI alignment.
Dodatkowy problem, jaki tu widzę, to ten dotyczący zadbania, by ogólna inteligencja nie wyewoluowała z wybranych zastosowań wąskiej AI. Wymaga to monitorowania rozwoju także algorytmów wąskiej AI, przynajmniej powyżej pewnego progu mocy obliczeniowych.
Czy problem AI alignment da się skutecznie rozwiązać metodami rynkowymi, np. poprzez wprowadzenie regulacji ekonomicznych, czy też konieczne są szersze, interdyscyplinarne działania?
AI alignment to nie problem regulacyjny, lecz badawczy. W istocie ma on charakter interdyscyplinarny, obejmujący nie tylko obszar informatyki, ale także filozofii, etyki, psychologii, socjologii czy ekonomii.
Czy zasadne jest zatem powołanie globalnej instytucji nadzorującej AI?
Myślę, że ciało takie powinno się koniecznie powołać, a pierwszym jego zadaniem powinno być dopilnowanie wykonania omówionego powyżej światowego moratorium nałożonego na rozwój ogólnej sztucznej inteligencji powyżej poziomu istniejących LLM-ów. Moratorium to należałoby wdrożyć poprzez umowę wielostronną, z udziałem przede wszystkim USA i Chin, ale także Unii Europejskiej i innych krajów dysponujących potencjałem rozwoju zaawansowanej AI w przyszłości.
Niestety, w obliczu działań aktualnej administracji rządowej Stanów Zjednoczonych postulat ten traktuję jako całkowicie nierealny. Również działania innych stron, choćby i Unii Europejskiej, bynajmniej nie pomagają. W listopadzie 2023 r. w angielskim Bletchley Park zorganizowano „AI Safety Summit” (ang. szczyt bezpieczeństwa AI – przyp. red.). Niestety, kolejną jego edycję, zorganizowaną w lutym 2025 r. w Paryżu, przemianowano już na „AI Action Summit” (szczyt dotyczący działań na rzecz AI – przyp. red.), a zamiast zajmować się bezpieczeństwem i hamować samobójczy wyścig w stronę nadludzkiej AGI, zdecydowano się ten wyścig aktywnie przyspieszać.
Jakie są obecnie największe przeszkody w budowaniu globalnego konsensusu w sprawie regulacji AI?
Jak pokazuje przykład pierwszego „AI Safety Summit” czy niedawnego wdrożenia europejskiego „AI Act”, międzynarodowa współpraca w zakresie regulacji sztucznej inteligencji jest co prawda trudna, ale możliwa. Czy możliwe jest, by objęła ona cały świat, w tym zarówno USA, jak i Chiny? To wydaje się jeszcze trudniejsze. Choć co do zasady jest to możliwe, to nie liczyłbym jednak na to.
Zobacz również:
Prawdziwa walka o sztuczną inteligencję
Największą przeszkodą w budowaniu globalnego konsensusu na temat regulacji AI jest brak powszechnej zgody co do tego, że, po pierwsze – zagrożenie egzystencjalne ze strony nadludzkiej AGI jest realne, a po drugie – że ludzkość warto ratować. Jeśli chodzi o pierwszy punkt, to trzeba pamiętać, że ponieważ ludzkość jak dotąd ani razu nie wyginęła, to siłą rzeczy poruszamy się w obszarze warunkowych prognoz i spekulacji, przez co opinie ekspertów mogą się krańcowo różnić. Oszacowania p(doom) nawet wśród najbardziej wykwalifikowanych specjalistów AI wahają się od 0 proc. (Yann LeCun) do 100 proc. (Eliezer Yudkowsky). Jeśli zaś chodzi o drugi punkt, to – no cóż – zdaniem tzw. efektywnych akceleracjonistów (bezwarunkowo wspierających każdą postać postępu technologicznego – przyp. red.) przejęcie kontroli nad światem przez AGI i zagłada ludzkości jest naturalnym, pożądanym zjawiskiem na ścieżce rozwoju złożoności na planecie Ziemia.
Inna sprawa to, że zagrożenie egzystencjalne jest rozproszone, bo w scenariuszu katastrofy giniemy wszyscy, a korzyści z wdrażania sztucznej inteligencji są skoncentrowane – zyskują przede wszystkim ci, którzy rozwijają te technologie (a zwłaszcza giganci technologiczni z Doliny Krzemowej) oraz osoby potrafiące efektywnie z nich korzystać. Dlatego liderzy technologii AI mogą mieć szczególnie wysoką skłonność do akceptacji ryzyka egzystencjalnego.
Co możemy zatem zrobić?
Pierwszy krok to zrozumienie, że zagrożenie jest realne i siły rynkowe go nie zażegnają, a wręcz przeciwnie – będą je pogłębiać. Niestety, wielu ludzi – w tym polityków i biznesmenów z branży sztucznej inteligencji – nie rozumie, że ogólna AI jest jakościowo różna od każdej innej technologii wspierającej pracę człowieka. Dostatecznie zaawansowana, autonomiczna AI nie będzie już narzędziem w rękach ludzi, lecz niezależnym agentem.
Obecnie mamy bardzo inteligentne narzędzia, takie jak np. czatboty i niezbyt jeszcze sprawnych agentów sztucznej inteligencji. Niestety, laboratoria AI intensywnie pracują, by obie te rzeczy ze sobą połączyć i stworzyć bardzo inteligentnych i sprawnych agentów. Niby nie potrzeba wielkiej wyobraźni, by zrozumieć, jak bardzo to niebezpieczne, ale budowniczy sztucznej inteligencji powszechnie wypierają z głowy tę myśl. Z tych względów popieram postulat ogólnoświatowego moratorium na technologie ogólnej AI, np. w kształcie proponowanym przez PauseAI.
Jakie działania powinny podjąć organizacje międzynarodowe?
Nie mam na to autorskiej recepty, natomiast wiem o kilku tego rodzaju propozycjach przygotowanych przez organizacje pozarządowe. Prawdopodobnie najlepszą i najbardziej kompleksową koncepcję działania przedstawia raport „A Narrow Path” (wąska ścieżka), przygotowany przez ControlAI (narrowpath.co). Zachęcam też, by się zapoznać z podobnymi dokumentami, takimi jak kompendium wiedzy nt. zagrożeń AI (thecompendium.ai) czy stanowiskami Machine Intelligence Research Institute (intelligence.org) oraz PauseAI (pauseai.info), szeroko dokumentującymi ryzyka egzystencjalne ze strony AGI.
Mimo to globalnej współpracy nie widać. Zdążymy coś zrobić nim będzie za późno?
Osobiście wątpię – i stąd też moja wysoka subiektywna ocena p(doom). Ale być może pojawi się jakiś poważny sygnał alarmowy, który zmusi polityków do radykalnych działań i efektywnej współpracy? Bez tego trudno liczyć, by rozkręcony dziś do maksimum wyścig technologiczny udało się w porę wyhamować.
Rozmówca wyraża własne opinie, a nie oficjalne stanowisko NBP.
Rozmawiała Anna Słabosz-Pawłowska