©Getty Images
Przełom w zakresie technologii sztucznej inteligencji dokonał się 14 marca 2023 r. Firma OpenAI publicznie pokazała wówczas swoje najnowsze osiągnięcie – duży model językowy GPT-4. W porównaniu do swoich poprzedników, jak choćby GPT-3 czy GPT-3.5 (modelu zasilającego darmowy wariant sławnego czatbota ChatGPT), model ten nie tylko odnotował ilościowy postęp, uzyskując lepsze rezultaty w starciu z długą listą standaryzowanych zadań, tzw. benchmarków, ale też osiągnął postęp jakościowy, poprawnie rozwiązując wiele nowych zagadnień, z którymi poprzednie modele zupełnie sobie nie radziły. Niektóre z tych rezultatów zaskoczyły nawet samych jego twórców.
Na tle wcześniejszych przełomowych osiągnięć w obszarze sztucznej inteligencji (SI), jak np. AlphaGo, który osiągnął nadludzkie kompetencje w grze w Go, czy AlphaFold, który rozwiązał kluczowy w biotechnologii problem predykcji sposobu zwijania się białek na podstawie sekwencji aminokwasów, siła GPT-4 i innych modeli generatywnej sztucznej inteligencji nie leży w ich doskonałości w wybranej dziedzinie, lecz przede wszystkim w uniwersalności i szerokości zastosowań. GPT-4 powstał, by komunikować się z człowiekiem w języku naturalnym, i robi to bardzo dobrze. Równocześnie potrafi jednak m.in. syntetyzować tekst, pisać krótsze i dłuższe opracowania na zadany temat, tłumaczyć pomiędzy wieloma językami, przeprowadzać argumentacje i wywody, a nawet konstruować sformalizowane dowody. Nie robi tego doskonale, ale z pewnością nieźle – na tle poprzednich modeli generatywnej SI jest to ewidentny przełom. Potrafi się również komunikować z innymi modelami, jak np. DALL-E 3, który specjalizuje się w grafice. GPT-4 przechodzi też test Turinga, tj. jest w stanie prowadzić konwersację w taki sposób, że rozmówca nie potrafi stwierdzić z kim rozmawia, czy z człowiekiem, czy z maszyną.
GPT jest GPT
Nowe technologie przekładają się na produktywność w gospodarce, gdy znajdują powszechne zastosowanie. Generatywne modele SI zdecydowanie mają taki potencjał, gdyż są – podobnie jak komputery czy telefony komórkowe – technologią powszechnego zastosowania. Szeroki zakres kompetencji współczesnych dużych modeli językowych oznacza, że mogą one znaleźć zastosowanie w szerokim zakresie działalności gospodarczych. W języku angielskim mamy nawet taki ciekawy konflikt oznaczeń: skrót GPT oznacza mianowicie zarówno architekturę najsławniejszego dziś modelu sztucznej inteligencji, czyli Generative Pre-trained Transformer (generatywna, wstępnie wytrenowana sieć neuronowa typu „transformer”), jak i General Purpose Technology (technologia powszechnego zastosowania). W istocie GPT jest nowym rodzajem GPT.
Zobacz również:
Jak sztuczna inteligencja może zagrozić stabilności finansowej
Dzięki temu, że modele językowe porozumiewają się w języku naturalnym – i to w zasadzie dowolnym, choć najlepiej radzą sobie po angielsku – nie ma bariery wejścia, jaką widzimy w przypadku innych przełomowych technologii. Nie ma potrzeby głębokiego przeszkolenia pracowników, reorganizacji firm, budowy nowych fabryk czy inwestycji w specjalistyczny sprzęt – ChataGPT lub Bing AI, niedawno przemianowanego na Microsoft Copilot, wystarczy bowiem uruchomić na dowolnym komputerze. A komputery to przecież poprzednia kluczowa GPT, a więc są powszechnie dostępne. Co prawda, jakość generowanych odpowiedzi może zależeć od sposobu, w jaki użytkownik zada pytanie, jednak opanowanie tajników tzw. promptingu nie wymaga aż takich nakładów pracy, jak np. nauczenie się nowego języka programowania czy obsługi pakietu statystycznego.
Generatywna sztuczna inteligencja już dziś jest wdrażana w praktyce gospodarczej. Znajduje ona zastosowanie m.in. w centrach obsługi klienta, usługach konsultingu, marketingu i reklamie, a nawet w programowaniu komputerów. Liderem wdrożeń są niewątpliwie Stany Zjednoczone. Zdaniem prof. Erika Brynjolfssona, jednego z najczęściej cytowanych badaczy wpływu SI na gospodarkę i dyrektora Digital Economy Lab na Uniwersytecie Stanforda, , w ciągu lat 20. XXI w. generatywna SI podniesie przeciętne tempo wzrostu produktywności w USA o co najmniej 1,5 pkt proc. rocznie, a może i więcej. Niewykluczone, że już na nie wpływa i stoi u podstaw zaskakująco wysokiej dynamiki produktywności w Stanach Zjednoczonych w 2023 r.
Zupełnie inna automatyzacja
Wdrożenie generatywnej SI oznacza automatyzację pracy: niektóre zadania o charakterze umysłowym, wykonywane dotąd przez człowieka są zastępowane przez algorytm sztucznej inteligencji. O procesach automatyzacji dużo już wiemy, gdyż mają one swoją historię i udokumentowane własności. Od mniej więcej lat 80. XX w., w USA i innych rozwiniętych krajach świata spada popyt na pracę osób wykonujących rutynowe zadania. Są one bowiem kodyfikowane, a człowiek zastępowany jest szybciej i efektywniej działającą maszyną. Mowa tu zarówno o pracy w przemyśle – np. w branży motoryzacyjnej pracowników przy taśmie produkcyjnej zastępują roboty – ale też w usługach czy w pracy biurowej, gdzie automatyzacja polega na ogół na wdrożeniu pewnego komputerowego software’u. W efekcie spada zapotrzebowanie na pracę w zawodach wykonujących czynności powtarzalne, charakteryzujących się średnimi poziomami wynagrodzeń. Oznacza to polaryzację na rynku pracy: zanika środkowa część rozkładu dochodów, a podział na pracowników dużo i mało zarabiających staje się wyraźniejszy.
Wykorzystując szczegółowe informacje na temat typów zadań wykonywanych w poszczególnych zawodach, Carl Benedikt Frey i Michael Osborne z Uniwersytetu Oksfordzkiego oszacowali, które zawody będą w kolejnych latach podlegały automatyzacji (i nieco szerzej „komputeryzacji”), a które wydają się na nią odporne. Ich artykuł, opublikowany w 2017 r., był szeroko cytowany i doczekał się szeregu modyfikacji oraz rozszerzeń. W obliczu generatywnej SI jego ustalenia są jednak już nieaktualne.
Postęp sztucznej inteligencji może więc pogłębić polaryzację na rynku pracy, spychając coraz większą część populacji do relatywnie niskopłatnych zawodów fizycznych i opiekuńczych oraz zwiększając jednocześnie wynagrodzenia wąskiej grupy specjalistów potrafiących najefektywniej pracować ze wsparciem SI
Pierwszym badaniem próbującym oszacować, w jaki sposób generatywna sztuczna inteligencja, w szczególności duże modele językowe, będzie w przyszłości oddziaływać na rynek pracy, jest artykuł OpenAI z 2023 r. (Eloundou et al., 2023). Każdemu zawodowi przypisano tam stopień, w jakim jest on narażony na automatyzację przez generatywną SI. Okazuje się, że profil tych zawodów jest zupełnie inny niż w przypadku poprzedniej fali automatyzacji: tym razem narażone są przede wszystkim zawody wysokopłatne, wykonywane zwykle przez osoby z wyższym wykształceniem – np. specjaliści z różnych dziedzin, audytorzy, księgowi, dziennikarze, prawnicy, informatycy czy naukowcy. Z kolei najmniej narażone są prace fizyczne, wykonywane przez m.in. robotników budowlanych, mechaników samochodowych, kucharzy czy sportowców. Bezpieczne są też (jak na razie) prace wymagające ciągłej relacji z człowiekiem, jak np. zawody opiekuńcze.
Można się spodziewać, że w przyszłości automatyzacja będzie postępować dwutorowo – ta bardziej klasyczna będzie nadal oddziaływać na prace rutynowe, a ta najnowsza – na nierutynowe prace umysłowe, w szczególności na niemal wszystkie zadania realizowane przed komputerem. Wobec tego, które zawody mogą liczyć na wzrost lub chociaż utrzymanie dotychczasowego popytu na pracę? Z jednej strony dotyczy to osób wykonujących nierutynowe prace fizyczne, jak np. hydraulicy czy brukarze oraz prace w relacji z człowiekiem, jak np. przedszkolanki czy pielęgniarki. Z drugiej strony są osoby wykonujące najbardziej zaawansowane zadania wspierane sztuczną inteligencją, a więc najwyżej płatne zawody o charakterze specjalistycznym i menedżerskim. Jak radzi główny ekonomista Google’a Hal Varian, „staraj się być rzadkim zasobem, komplementarnym względem zasobów coraz powszechniej dostępnych”. Parafrazując, najwyżej płatne zawody przyszłości to te, w których wykorzystuje się generatywną sztuczną inteligencję do wykonywania zadań, których ona sama bez ludzkiego nadzoru nie jest (jeszcze) w stanie wykonać.
Komplementarność i substytucyjność
Generatywna sztuczna inteligencja ma szerokie spektrum zastosowań i może zarówno wspomagać pracę umysłową człowieka, jak i ją całkowicie zastępować. W pierwszym przypadku działania człowieka i SI są komplementarne, a wartość wytworzona dzięki ich współpracy jest wyższa, niż gdyby każde z nich działało osobno. W drugim przypadku jest odwrotnie: działania i człowieka, i SI są substytucyjne, a ich współpraca nie przynosi żadnych dodatkowych korzyści, przez co efektywniej jest zatrudnić tylko jeden rodzaj wykonawcy – najlepiej ten, który jest relatywnie tańszy. Wobec szybkiego postępu kompetencji sztucznej inteligencji nie jest to miła sytuacja: jeśli będziemy konkurować z SI wyłącznie ceną, to prędzej czy później w tej konkurencji przegramy.
Zobacz również:
Globalny wyścig regulacyjny w zakresie AI
Zwłaszcza, że sztuczna inteligencja ma istotne zastosowania również w działalności badawczo-rozwojowej, prowadzącej do przyspieszenia tempa postępu technologicznego i wzrostu gospodarczego, a w szczególności także wzrostu produktywności SI. Jak wskazuje prof. Anton Korinek z University of Virginia, współczesne duże modele językowe, jak np. GPT-4, mogą być bardzo przydatne w pracy naukowej, wspierając aż sześć obszarów pracy naukowca: poszukiwanie tematów badawczych i stawianie hipotez, pisanie tekstu, przegląd literatury, kodowanie, analiza danych oraz obliczenia matematyczne. A jeśli ktoś jeszcze wątpi, że modele językowe oprócz rozmowy umieją też liczyć, to warto wspomnieć, że w styczniu 2024 r. Google DeepMind opracował model AlphaGeometry, potrafiący rozwiązywać skomplikowane problemy geometryczne na poziomie zbliżonym do złotych medalistów Międzynarodowej Olimpiady Matematycznej. Jest to hybryda dużego modelu językowego, wymyślającego schematy rozwiązań, a także algorytmu symbolicznej dedukcji, sprawdzającego ich poprawność.
Szybki postęp technologiczny w obszarze SI oznacza, że produktywność tych technologii będzie szybko wzrastać. Zadania dające się zautomatyzować będą więc stopniowo automatyzowane. Równocześnie wzrastać będzie zapotrzebowanie na prace komplementarne względem sztucznej inteligencji. Na rynku pracy oznacza to wzrost konkurencji oraz presji na doskonalenie specyficznych kompetencji pracowników, związanych ze współpracą z SI. Dla przykładu, programiści kodujący tylko standardowe procedury mogą stracić pracę, natomiast ci potrafiący kreatywnie projektować większe bloki oprogramowania i je szybko przygotowywać z wykorzystaniem generatywnej SI, staną się jeszcze bardziej cenni na rynku niż dotąd i zarobią więcej.
Automatyzacja częściowa i pełna
Postęp sztucznej inteligencji może więc pogłębić polaryzację na rynku pracy, spychając coraz większą część populacji do relatywnie niskopłatnych zawodów fizycznych i opiekuńczych oraz zwiększając jednocześnie wynagrodzenia wąskiej grupy specjalistów potrafiących najefektywniej pracować ze wsparciem SI. Czy tak jednak będzie zawsze? Czy czeka nas świat, w którym coraz większa część dochodu będzie trafiała w ręce przysłowiowego górnego 1 proc. mieszkańców naszej planety? Nie można tego wykluczyć, jednak w przyszłości może się dokonać jeszcze jeden przełom: procesy dotąd częściowo automatyzowane mogą zacząć być w całości automatyzowane, włącznie z planowaniem i decyzjami menedżerskimi.
Zadania, które wykonujemy w pracy, rzadko są proste. Zwykle składają się z szeregu etapów i pomniejszych „podzadań”, które trzeba zrealizować po drodze. Często są one zresztą na tyle złożone, że wymagają równoległego zaangażowania większej liczby osób i zarządzania ich pracą tak, by na koniec uzyskać pożądany efekt. Wyobraźmy sobie teraz, że któreś podzadanie zostaje zautomatyzowane, dzięki czemu będzie ono realizowane bez udziału człowieka szybciej i efektywniej. Przyjmijmy, że przyspieszenie to jest dziesięciokrotne. Nadal jednak niezbędne pozostaje wykonanie pozostałych, realizowanych równolegle podzadań oraz nadzór i zarządzanie całością. Wobec tego ogólny czas realizacji skróci się tylko nieznacznie, gdyż hamować go będzie realizacja podzadań niezautomatyzowanych. Zupełnie inaczej by było, gdyby udało się zautomatyzować wszystkie podzadania: wtedy czas realizacji całego procesu mógłby rzeczywiście się obniżyć dziesięciokrotnie.
Zobacz również:
Tysiące wątków, a litery tylko dwie – AI
Scenariusz, w którym następuje przejście od częściowej do pełnej automatyzacji produkcji wiąże się z szeregiem fundamentalnych zmian w gospodarce. Z jednej strony zniknęłyby wówczas wysokopłatne zawody korzystające z komplementarności względem technologii cyfrowych, w szczególności SI. Po takim przełomie również te osoby mogłyby zostać zastąpione maszynami – a wobec tego mogłyby z owymi maszynami konkurować jedynie ceną. Oznaczałoby to głęboki spadek udziału płac w wartości dodanej w gospodarce oraz ryzyko powszechnego bezrobocia technologicznego. Yuval Noah Harari w swojej książce „Homo deus” prognozował wręcz, że w tego typu scenariuszu powstałaby szeroka klasa ludzi „niezatrudniawalnych”, czyli gospodarczo „bezużytecznych”.
Z drugiej strony pełna automatyzacja otwiera perspektywę znaczącego przyspieszenia wzrostu gospodarczego. Uzasadnienie tej predykcji wymaga jednak omówienia najpierw, skąd ów wzrost się w ogóle bierze.
Co przyspiesza wzrost gospodarczy, a co go hamuje?
Komplementarność oznacza, że szczególnie ważne jest dla nas to, czego mamy mało. W karykaturalnym przykładzie, jeśli mielibyśmy cztery lewe i dwa prawe buty, to dokupywanie kolejnych butów lewych nic nam nie daje, bo nadal będziemy mieli tylko dwie kompletne pary. Zupełnie inaczej przedstawia się sprawa, jeśli chodzi o relatywnie rzadkie dobro, jakim są buty prawe: wystarczy dokupić tylko jeden taki but i już zamiast dwóch par mamy trzy. Podobnie jest w przypadku automatyzacji: wyobraźmy sobie dwa komplementarne zadania, z czego jedno może wykonywać człowiek lub maszyna, a drugie tylko człowiek. Załóżmy, że pierwsze zadanie maszyna może wykonywać dowolnie efektywnie. W takiej sytuacji jednak efektywność całego procesu, składającego się łącznie z obu zadań, wyznacza tempo wykonywania przez człowieka nieautomatyzowalnego drugiego zadania. Cały proces można przyspieszyć wyłącznie przez przyspieszenie tego drugiego zadania, będącego w tym procesie „wąskim gardłem” (ang. bottleneck).
Komplementarność występuje również w skali makroekonomicznej, w odniesieniu do czynników produkcji. Jak wskazuje rozległa literatura dotycząca źródeł wzrostu gospodarczego w XX w., kluczowym czynnikiem napędzającym wzrost był wówczas postęp technologiczny zwiększający produktywność pracy (ang. labor-augmenting technical change). Było tak, ponieważ to praca człowieka, a konkretnie jego praca umysłowa, w tym praca związana z zarządzaniem i podejmowaniem decyzji, była „wąskim gardłem” wzrostu gospodarczego. Drugi czynnik produkcji, którym był szeroko rozumiany kapitał fizyczny, można było natomiast swobodnie akumulować w miarę dostępnych środków, przez co – zgodnie zresztą z tzw. stylizowanymi faktami Kaldora oraz neoklasycznym modelem wzrostu Solowa – jego dynamika podążała systematycznie za wzrostem produktywności pracy. Wszelako to nie ona, a postęp technologiczny był głównym źródłem długookresowego wzrostu gospodarczego.
W XXI w. jest podobnie, zmieniła się tylko jedna istotna rzecz, a mianowicie pracę umysłową człowieka można teraz nie tylko wspierać, ale też zastępować technologiami cyfrowymi, w tym – ostatnio – generatywną sztuczną inteligencją. Kiedy praca człowieka jest automatyzowana, produktywność poszczególnych procesów wzrasta. „Wąskim gardłem” wzrostu gospodarczego pozostaje jednak praca umysłowa w zakresie tych zadań, których nie potrafimy zautomatyzować.
Równocześnie automatyzowane są też procesy badawczo-rozwojowe, co może nieco przyspieszać postęp technologiczny zwiększający produktywność pracy. Wszelako i w tego rodzaju działalności „wąskim gardłem” pozostaje praca umysłowa człowieka, toteż skala tego przyspieszenia jest również ograniczona. Dzięki zatem częściowej automatyzacji wzrost gospodarczy, jak też postęp technologiczny, mogą być trochę szybsze niż w przypadku braku jakiejkolwiek automatyzacji, co miało miejsce przez większość XX w. Nie są jednak w stanie nadążyć za tempem rozwoju technologii SI. Aby to nastąpiło, niezbędna jest pełna automatyzacja.
Wzrost gospodarczy w tempie prawa Moore’a?
W warunkach pełnej automatyzacji praca umysłowa człowieka przestanie już być „wąskim gardłem” wzrostu gospodarczego. Umysł ludzki ogranicza przecież biologia: każdy z nas ma tylko jeden mózg, którego działania nie umiemy w dodatku w żaden istotny sposób udoskonalać. Ponadto komunikujemy się między sobą, mówiąc i słuchając, tudzież pisząc i czytając – czyli w porównaniu do możliwości komputerów oraz łącz internetowych, jest to komunikacja niezwykle powolna i zawodna. Hardware, na którym uruchamiane są algorytmy sztucznej inteligencji, nie ma takich ograniczeń: można go dowolnie skalować oraz udoskonalać. Z tego względu SI może nie tylko działać o rzędy wielkości szybciej niż człowiek, ale tempo to może też systematycznie rosnąć w czasie. Potencjał ten wskazuje, że gdy tylko stanie się to możliwe, sztuczna inteligencja będzie korzystała ze swojej przewagi i przejmowała wszelkie istotne dla gospodarki procesy produkcyjne.
Scenariusz pełnej automatyzacji, uwzględniającej także automatyzację podejmowania strategicznych decyzji, jest jednak obarczony szeregiem fundamentalnie istotnych zagrożeń, włącznie z ryzykiem zagłady ludzkości
Gdy warstwa przetwarzania i dostarczania informacji w procesach produkcyjnych, za którą odpowiedzialny jest obecnie człowiek, nie będzie już „wąskim gardłem” wzrostu gospodarczego, to co nim będzie? To, co jest komplementarne względem algorytmów SI, czyli to, czego one potrzebują, by móc coraz lepiej działać: moc obliczeniowa komputerów (w anglojęzycznym żargonie: compute) oraz możliwości robotów i innych urządzeń, którymi mogą sterować.
Przez cały XX w. aż do dziś, tempo długookresowego wzrostu gospodarczego w skali świata jest równe tempu postępu technologicznego zwiększającego produktywność pracy. To około 2–3 proc. rocznie, co oznacza, że światowy produkt podwaja się co 20–30 lat. W warunkach zaś pełnej automatyzacji światowy produkt mógłby rosnąć w tempie akumulacji mocy obliczeniowej komputerów, opisywanej sławnym prawem Moore’a. Byłby to wzrost o cały rząd wielkości szybszy, z przeciętnym tempem na poziomie 20–30 proc. rocznie i okresem podwojenia około 2–3 lat. Oczywiście przy założeniu, że najinteligentniejszy wówczas byt na Ziemi, jak by nie wyglądał, potrafiłby zapewnić odpowiednią ilość energii dla zasilania całego tego hardware’u.
Scenariusz pełnej automatyzacji, uwzględniającej także automatyzację podejmowania strategicznych decyzji, jest jednak obarczony szeregiem fundamentalnie istotnych zagrożeń, włącznie z ryzykiem zagłady ludzkości.
Autor wyraża własne opinie, a nie oficjalne stanowisko NBP.
Jakub Growiec, doradca ekonomiczny w Departamencie Analiz i Badań Ekonomicznych NBP