Wpływ sztucznej inteligencji na wzrost gospodarczy i zatrudnienie
Kategoria: Trendy gospodarcze
ekonomistka, politolog, Instytut Studiów Międzynarodowych Uniwersytetu Wrocławskiego
Getty Images
W naszej codzienności AI całkiem przyjemnie się rozgościła i już dziś kształtuje zachowania społeczne, ma wpływ na procesy decyzyjne, relacje, poglądy, wartości, etykę i prywatność. Entuzjaści nowych technologii, tacy jak Raymond Kurzweil, znany futurysta i inżynier, przewidują, że superinteligentne maszyny wkrótce uwolnią ludzkość od irracjonalnych emocji (tu warto odwołać się do prac Daniela Kahnemana i Amosa Tversky’ego czy Aarona T. Beck’a i Davida A. Clark’a), ograniczeń umysłowych, procesów starzenia, a granice między maszyną a człowiekiem będą się zacierać, by powstała doskonalsza forma egzystencji.
Są również wielcy sceptycy, wręcz demonizujący znaczenie AI. Przekonują, niczym scenarzyści science fiction, że już niebawem sztuczna inteligencja wyeliminuje większość miejsc pracy, doprowadzi do masowej inwigilacji i nie odróżnimy deepfake’a od prawdy. Ostatecznie przejmie ona kontrolę nad światem, w czym pomogą jej ultrabogacze i stanie się zagrożeniem dla istnienia ludzkości, niczym mityczny Kronos. Nick Bostrom, filozof i badacz transhumanizmu, dostrzega w tym pewien paradoks, mianowicie skoro AI zaopatrzona jest w superzdolności uczenia się, to człowiek się uparł, aby zrealizować cel „spuszczenia bestii z łańcucha”.
Są też zwolennicy wyważonego podejścia, którzy przekonują, żeby traktować AI jako naturalną konsekwencję postępu cywilizacyjnego w zakresie technologii i nauki. Jaron Lanier, pionier w dziedzinie wirtualnej rzeczywistości, a także Andrew Ng, współzałożyciel Google Brain, doradzają, aby odejść od zbędnej mitologizacji, a spekulacje na temat przyszłości „nadludzkiej inteligencji” pozostawić futurystom i zwiększyć wysiłki w kwestiach odpowiedzialnego, publicznego nadzorowania twórców nowych technologii, żeby dostosowali je do złożoności życia społecznego.
Wyzwania dla zrównoważonego rozwoju AI
Zrównoważona przyszłość sztucznej inteligencji, ukierunkowana na realizację celów społecznych, wiąże się z wieloma wyzwaniami.
Zobacz również:
Czy roboty nas zastąpią, czy do nas dołączą?
Pierwszym wyzwaniem jest rozwój AI oparty na interdyscyplinarności, ze szczególnym uwzględnieniem nauk społecznych i humanistycznych. Eksperci z różnych dziedzin, takich jak informatyka, prawo, etyka, socjologia i ekologia, powinni efektywniej współpracować ze sobą oraz z przedstawicielami sektorów publicznego, prywatnego, rządowego i pozarządowego. Taka synergia pozwoli na bardziej holistyczne podejście do rozwoju sztucznej inteligencji, uwzględniając wielorakie aspekty oraz perspektywy, co jest kluczowe dla skutecznego zarządzania jej wpływem na społeczeństwo, a także realizacji podstawowego celu, jakim jest ulepszanie człowieka i zwiększenie dobrobytu społecznego.
Zwolenniczką i propagatorką takiego podejścia jest m.in. Fei-Fei Li ze Stanford University, dyrektorka Stanford AI Lab. Opierając się na szeroko pojętej różnorodności (płciowej, eksperckiej, narodowej etc.) buduje zespoły tworzące narzędzia AI, które są podporządkowane potrzebom człowieka. Li twierdzi, że „aby sztuczna inteligencja służyła ludzkości, musi być kształtowana nie tylko przez inżynierów i analityków, ale także przez przedstawicieli nauk kognitywistycznych, społecznych i humanistycznych, którzy mogą dodać kontekst etyczny i społeczny”.
Kolejne wyzwanie dotyczy emocjonalnej sfery człowieka i silnych odczuć związanych z przyszłym oddziaływaniem AI na społeczeństwo. Daron Acemoğlu i Simon Johnson w książce „Power and Progress: Our 1000-Year Struggle Over Technology and Prosperity” tłumaczą, że niepewność i obawy są nieodłącznym elementem każdego przełomu technologicznego.
Od początku rewolucji przemysłowej każda innowacja technologiczna, zwłaszcza o szerokim zastosowaniu (General Purpose Technology, GPT), jak maszyna parowa, telegraf, komputer czy półprzewodnik, wywołuje napięcia związane z kontrolą nad technologią i dostępnością jej korzyści. Acemoğlu i Johnson podkreślają, że ważne jest, aby irracjonalność nie zdominowała rozumu, ponieważ „sen rozumu rodzi potwory”. Skrajne emocje, wywołane błędnymi przekonaniami na temat nowych technologii, mogą prowadzić do strachu przed sztuczną inteligencją jako konkurencją dla człowieka, a nie współpracownikiem, co w efekcie hamuje rozwój i akceptację technologii.
By ujarzmić strach i zbudować świadomość społeczną dotyczącą AI, konieczne jest interdyscyplinarne podejście, zwłaszcza w zakresie psychologii, behawiorystki i socjologii.
Tu pojawia się trzecie wyzwanie: edukacja i komunikacja. Kluczowe jest przemyślane kształcenie społeczeństwa o zagrożeniach i osiągnięciach nowych technologii, co zwiększa kontrolę publiczną i inwestycję w kapitał ludzki. Tworzenie technologicznie świadomego społeczeństwa obywatelskiego jest podstawą dla odpowiedzialnego rozwoju AI. Budowanie narracji opartej na strachu i braku wiedzy nie tylko hamuje jej potencjał, ale jest również szkodliwe dla demokratycznego rozwoju społeczno-gospodarczego.
Zobacz również:
Sztuczna inteligencja ma potencjał, by zmienić zasady gry w bankowości
Ostatnim wyzwaniem jest kwestia interdyscyplinarności w tworzeniu regulacji AI. Rozpowszechnianie nowych technologii rodzi pytania o zaufanie, bezpieczeństwo, a przede wszystkim o to, jaki wpływ będzie miała sztuczna inteligencja na ochronę godności, wolności oraz integralności człowieka i kto będzie o tym decydował. W tym kontekście ważne jest maksymalizowanie pozytywnego wpływu AI na rynki pracy, zapewnienie odpowiedzialności i przejrzystości systemów, eliminacja uprzedzeń wobec mniejszości z algorytmów, ustalanie zasad wynagradzania i karania twórców treści, na których trenowane są modele oraz promowanie zielonego i zrównoważonego ładu społecznego, etyczno- kulturowego i gospodarczego.
Interdyscyplinarność kluczowa dla społecznej przyszłości AI
Współczesny rozwój sztucznej inteligencji nie może być rozpatrywany jedynie w kontekście technologicznym. Inżynierowie, analitycy danych czy programiści koncentrują się głównie na technicznych aspektach swoich projektów. Aby jednak AI mogła skutecznie służyć społeczeństwu, ulepszając skomplikowaną rzeczywistość, istnieje konieczność – już na wczesnych etapach projektowania jej systemów – włączenia specjalistycznych umiejętności behawioralnych, komunikacyjnych, socjologicznych, a także takich cech, jak artystyczna kreatywność, empatia, wrażliwość.
Interdyscyplinarność, w tym rola nauk społecznych i humanistycznych jest kluczowa do usprawnienia systemów, aplikacji i mechanizmów, aby dostosować je do faktycznych potrzeb człowieka. Jest też niezbędna dla zarządzania różnej natury zagrożeniami i do zwiększenia wysiłków na rzecz tworzenia bezpiecznych protokołów kontroli AI. Istnieje jednocześnie wciąż niedoceniony potencjał dla partnerstwa technologicznego, społecznego, psychologicznego, ekonomicznego, a nawet artystycznego dla AI, wspierającej również politykę publiczną, procesy decyzyjne i inne działania polityczne. Nauki społeczne i humanistyczne powinny przyczyniać się do tego, aby wykształcić w sztucznej inteligencji efektywniejsze „rozumienie” skomplikowanej dynamiki społecznej, zwiększając jej zdolność do identyfikowania niuansów, wrażliwości i interakcji międzyludzkich.
Jeśli AI ma pełnić rolę wspierającego opiekuna dla osób chorych lub starszych kluczowe jest, żeby była zdolna do rozpoznawania i odpowiedniego reagowania na ludzkie emocje.
Jeśli ma służyć do tworzenia estetycznych, intuicyjnych i przyjaznych interfejsów, do oprogramowania nienaruszającego etycznej integralności człowieka czy do opracowania algorytmów wspierających rzetelną komunikację, redukując postawy dyskryminujące czy uprzedzenia, konieczne jest holistyczne podejście i wszechstronna współpraca.
Aby maszyna mogła też skutecznie współpracować z ludźmi, konieczne jest opracowanie norm relacyjności i najlepszych praktyk tej współpracy.
Podejście ekonomiczne jest niezbędne, do doskonalenia analiz środowiska gospodarczego w taki sposób, aby procesy technologiczne wspierały zatrudnienie i przekwalifikowanie. Albo wspomóc projekcję zmian w strukturze kosztowej różnych sektorów, co przyczyni się do opracowania nowych modeli biznesowych. Te modele mogą natomiast integrować ekonomiczną analizę dotyczącą procesów obiegu zamkniętego z wprowadzeniem stworzonego przez etyków i filozofów moralnego kodeksu AI, co pomoże twórcom technologii w kreowaniu tych rozwiązań dla firm minimalizujących np. emisję gazów cieplarnianych, redukcję czy recycling odpadów. Jednym z przykładów takiej kompleksowości jest projekt Google’a DeepMind, który włączając rozwiązania AI do zarządzania zużyciem energii w centrach danych, wspomaga jej oszczędzanie i wpływa na redukcję CO2.
Specjalista ds. komunikacji społecznej wspomoże mechanizm sztucznej inteligencji, który ma zoptymalizować i usprawnić procesy negocjacyjne oraz antropolog, mający wiedzę dotyczącą kultur, religii, dzięki czemu stworzenie etycznego modelu AI osadzonego w określonych realiach będzie bardziej osiągalne i bliższe naturze społecznej.
Zobacz również:
Przyszłość kształcenia a dominacja EdTechów na rynku edukacji
Podejście artystyczne, kreatywna wyobraźnia czy wiedza i osobowość muzyka, malarza, poety, prowadzą natomiast do większej „humanizacji” technologii, z uwagi na uczenie algorytmów wrażliwości, estetyki, naturalności. Dzięki temu, narzędzia sztuczna inteligencja mogą się stać bardziej intuicyjne, funkcjonalne i bliższe człowiekowi. Może to być szczególnie przydatne w nauczaniu, w treningach sportowych, czynnościach terapeutycznych, opiekuńczych oraz wszystkich tych, które mogą przyczynić się do poprawy sprawności, samopoczucia emocjonalnego, psychicznego; dla osób samotnych, starszych, z niepełnosprawnościami lub pacjentów czy też potrzebujących.
Integracja nauk społecznych i humanistycznych w AI
Joanna Bryson, profesor etyki i technologii na Hertie School w Berlinie w jednym z wywiadów stwierdziła: „AI powinna być traktowana jako narzędzie, które służy ludzkości, a nie jako coś, co zagraża naszej egzystencji. Kluczowe jest, abyśmy jako społeczeństwo mieli kontrolę nad jej rozwojem i zastosowaniem”. Warto więc szczególnie się zastanowić, jaką rolę może odegrać budowanie interdyscyplinarnego systemu innowacji i technologii, z uwzględnieniem nauk społecznych i humanistycznych w redukcji uprzedzeń, budowaniu świadomości i w zarządzaniu strachem, który de facto nam tę kontrolę odbiera. Strach przed nieznanym, związany z potencjalnymi konsekwencjami sztucznej inteligencji, może nie tylko prowadzić do oporu wobec tej technologii, ale zachowania i postawy generowane strachem, mogą być szkodliwe dla demokratycznego rozwoju społeczno-gospodarczego. Apeluje o to Kate Crawford, badaczka w Microsoft Research oraz autorka książki „Atlas of AI”, która uważa, że „AI nie jest neutralna. Musimy zrozumieć jej wpływ na władzę, gospodarkę i społeczeństwo, aby móc ją odpowiednio regulować i kontrolować”. Z drugiej strony nauki społeczne, takie jak socjologia, psychologia i antropologia, pomagają zrozumieć, jak ludzie postrzegają sztuczną inteligencję i jakie emocje towarzyszą jej wdrażaniu. Analiza społecznych reakcji na nowe technologie pozwala na identyfikowanie źródeł lęków i oporów, co jest niezbędne do ich skutecznego adresowania.
W 2020 r. Henrik Schwabe i Fulvio Castellacci, opublikowali w czasopiśmie PLOS ONE badanie, które dowiodło, że strach przed zastąpieniem przez automatyzację znacząco wpływa na poziom frustracji i satysfakcji z pracy pracowników, zwłaszcza o niższych kwalifikacjach. Inne badanie opublikowane w 2023 r. przez Centre for Economic Policy Research, zatytułowane: „Workers’ responses to the threat of automation” dowodzi, że strach przed automatyzacją wpływa na zmiany przekonań i zachowań, mogących być silnym wyzwaniem dla porządku rynkowego, społecznego i demokratycznego. Z badania wynika, że zmiany we wzorcach pracy są akceleratorem politycznej polaryzacji, a zagrożeni pracownicy wykazują zwiększenie poparcia dla skrajnych ruchów politycznych. Jest to jeden z powodów wzrostu popularności dla m.in. Zgromadzenia Narodowego Marin LePen i niemieckiej AfD w czerwcowych wyborach do Parlamentu Europejskiego, co potwierdzają także Julian Jacobs i Francesco Tasin w artykule z 2024 r. zatytułowanym „Does automation increase support for the far right? A cross-country review of automation’s effects on support for populist parties”. Obie partie krytykują globalizację i choć nie oferują konkretnej strategii przeciwdziałania automatyzacji, ich nacjonalizm gospodarczy, protekcjonizm czy wspieranie krajowego przemysłu wydaje się dla pracowników bezpieczniejszym rozwiązaniem, niż otwarcie na nieznaną rewolucję cyfrową, promowaną przez ugrupowania centrowe.
Zobacz również:
Sztuczna inteligencja to powrót do centralnego planowania?
Nieujarzmiony strach, który prowadzi do wycofania się ludzi z debaty publicznej na temat AI i często do odrzucenia technologii, ułatwia jej wykorzystanie do celów prywatnych i budowania monopolu władzy, przez chociażby najbardziej wpływowe formy technologiczne na świecie. Ich wyłączność na finansowanie badań nad nowymi technologiami, akademickich projektów czy startupów, daje im kontrolę nad rynkiem, a tym samym nad kierunkiem i zakresem rozwoju technologii. Pozbawia możliwości zarządzania i nadzoru szerokiemu gronu aktorów społecznych, którzy są wykluczani z procesu twórczo-rozwojowego, a nawet użytkowego. Przykładem może być program Google AI Impact Challenge, który finansuje projekty AI na całym świecie, ale jednocześnie ustanawia standardy i kierunki rozwoju zgodne z interesami korporacji.
Noel Sharkey, profesor robotyki i AI na Uniwersytecie w Sheffield, niejednokrotnie podkreślał, że rozwój sztucznej inteligencji musi być wspierany przez badania z zakresu nauk społecznych i humanistycznych, aby zrozumieć i kontrolować jej wpływ na społeczeństwo. Dla przykładu, filozoficzne analizy dotyczące autonomii maszyn i ich wpływu na ludzką autonomię mogą prowadzić do tworzenia regulacji, które zapewniają kontrolę człowieka nad decyzjami podejmowanymi przez AI. Takie podejście zmniejsza strach przed utratą kontroli i wzmacnia poczucie bezpieczeństwa.
Budowanie świadomości sztucznej inteligencji
Podsycaniu strachu, budowaniu mitów i błędnych przekonań na temat AI służy brak lub wybiórczość wiedzy i niska świadomość. Pomimo, że Polacy są w zdecydowanej większości tolerancyjni wobec technologicznych nowinek, to jak wykazuje 5. edycja raportu Digital Poland: „Technologia w służbie społeczeństwu”, 64 proc. społeczeństwa przyznaje się do niedostatecznej wiedzy na ich temat. Zaś 94 proc. respondentów przyznaje jednocześnie, że technologiczne kompetencje zwiększają szansę na lepszą pracę i ułatwiają życie, jednak po wprowadzeniu na rynek narzędzi generatywnych, jak OpenAI ChatGPT, Google Bard, Midjourney, Dall-E2 strach zwyciężył, zwiększając pesymistyczne nastawienie do AI, która według 64 proc. ankietowanych tworzy sztuczny świat. Okazuje się także, co potwierdza badanie z 2023 r. Instytutu Badań Pollster, że Polacy identyfikują sztuczną inteligencję najczęściej z ro(botem) czy „myślącą maszyną”, nie zaś z algorytmem, oprogramowaniem czy dużymi zbiorami danych, co oznacza, że błędnie utożsamiamy AI z automatyzacją i robotyzacją. Tym samym badania pokazują, że aż 45 proc. społeczeństwa nie wie, czym tak naprawdę są technologie oparte na AI, przy czym rozkład zagrożeń i korzyści z nich wynikający jest mniej więcej połowiczny, z delikatną przewagą tych pierwszych. Pojawia się także problem praktycznego zastosowania sztucznej inteligencji; deklaratywnie uznajemy, że dość sprawnie wykorzystujemy większość dobrodziejstw opartych na nowych technologiach, jak wspomniany Google, wirtualni asystenci, tłumacze, w praktyce często jednak nie jesteśmy świadomi użycia systemów AI w życiu codziennym i tego, że wykorzystujemy takie narzędzia już od dawna.
Istnieje więc pilna potrzeba zmiany ekosystemu edukacyjno-komunikacyjnego, którego celem jest budowanie świadomości oraz przekazu informacji na temat technologii opartych na AI w sposób przystępny, a nie wyłącznie na podstawie techno-determinizmie. Jest to wyzwanie dla instytucji nieformalnych, publicznych, prywatnych, dla organizacji pozarządowych, jak również samych rządów.
Pierwszą kwestią jest edukacja na poziomie wszystkich grup wiekowych – od szkoły podstawowej, po osoby starcze i wszystkich sektorów i grup społecznych – od konsumenta, przedsiębiorcy, nauczyciela, medyka, pracownika administracji publicznej, aż po przedstawicieli samorządów i rządów.
Druga kwestia to otwartość na interdyscyplinarność w edukacji i komunikacji na temat AI, z podkreśleniem roli nauk społecznych i humanistycznych. Dzięki współpracy specjalistów z różnych dziedzin możliwe jest tworzenie bardziej wszechstronnych programów edukacyjnych, które nie tylko tłumaczą techniczne aspekty sztucznej inteligencji, ale również uwzględniają jej społeczne, etyczne i filozoficzne implikacje, stawiając człowieka i jego potrzeby w centrum. Przykładem są działania Amy Webb, futurystki i założycielki Future Today Institute, która bada, jak technologia wpływa na nasze społeczeństwo i jak ludzie reagują na zmiany technologiczne. Jej badania pomagają w tworzeniu programów edukacyjnych, które uczą, jak AI może być używana w sposób wspierający ludzkie relacje, zamiast je zastępować. Webb zauważa, że „kluczowe jest, abyśmy zrozumieli wpływ sztucznej inteligencji na nasze życie i nauczyli się jej używać w sposób, który wspiera nasze wartości społeczne oraz etyczne”. Ruha Benjamin, profesor socjologii na Uniwersytecie Princeton, bada natomiast, jak technologia wpływa na społeczne nierówności. Podobnie jak Webb współpracuje przy tworzeniu edukacyjnych inicjatyw dotyczących używania AI w sposób wspierający ludzkie relacje i promujący równość, zamiast je pogłębiać.
Zobacz również:
Sztuczna inteligencja redefiniuje pojęcie pracy
Trzeci aspekt opiera się zaś na potrzebie współpracy pomiędzy nauką, sektorem przemysłu i biznesem. W Polsce brakuje inicjatyw podobnych do tej, którą promuje przedsiębiorca Peter Diamandis. Współtworzył Singularity University właśnie po to, aby przyczynić się do zmiany wciąż dominującej izolacji humanistów i naukowców społecznych od postępu technicznego i odwrotnie. Singularity University skupia się na rozwiązywaniu globalnych problemów poprzez wykorzystanie technologii, łącząc różne dziedziny nauki i praktyki w jednym miejscu. Takie podejście promuje tworzenie innowacyjnych rozwiązań, które są zarówno technicznie zaawansowane, jak i społecznie odpowiedzialne.
Warto zwrócić szczególną uwagę na jeszcze jeden problem. W raporcie Digital Poland oraz Instytutu Badań Pollster możemy przeczytać, że głównym źródłem czerpania wiedzy polskiego społeczeństwa na temat AI są popularne portale i media społecznościowe, telewizja i filmy science fiction. Z jednej strony dobrze, że wykazujemy chęć zgłębiania informacji w tym zakresie, z drugiej jednak strony jest to apel do środowiska naukowego, aby w większej mierze komercjalizowało swoje badania i komunikowało się ze społeczeństwem. Obecnie naukowcy przeważnie hibernują wiedzę w uczelnianych murach i tylko w niewielkiej mierze podejmują działania, by ujrzała ona światło dzienne.
Tworzenie ram regulacyjnych AI
Ostatnim zagadnieniem jest rola nauk społecznych i humanistycznych w podejściu regulacyjnym do AI. Andrew Ng, jeden z czołowych ekspertów w dziedzinie AI i uczenia maszynowego, entuzjastycznie wypowiada się na temat potencjału nowych technologii do przekształcania wielu dziedzin, takich jak medycyna, edukacja, administracja, finanse, transport, obronność, przemysł i produkcja. Ng podkreśla jednak, że warunkiem skutecznego rozwiązywania skomplikowanych problemów rzeczywistych jest interdyscyplinarność nauk w tworzeniu regulacji.
Przykładem negatywnych konsekwencji działania wyłącznie zespołów projektowych w firmach technologicznych, bez szerokiej perspektywy, jest sytuacja, w której autonomiczne samochody podejmują decyzje w sytuacjach krytycznych. Znanym przypadkiem jest incydent z udziałem autonomicznego samochodu Tesli w 2016 r. Pojazd, działając w trybie autopilota, nie rozpoznał białej naczepy ciężarówki na tle jasnego nieba, co doprowadziło do śmiertelnego wypadku. Ta sytuacja uwidoczniła, jak ważne jest, aby decyzje dotyczące oprogramowania były wspierane zarówno przez agencje rządowe i instytucje publiczne, jak i przez interdyscyplinarne podejście, uwzględniające nie tylko aspekty techniczne, ale także etyczne, estetyczne, behawioralne oraz społeczne.
Publiczny nadzór i interdyscyplinarne podejście w tworzeniu regulacji obejmuje współpracę specjalistów z różnych dziedzin, takich jak psychologia, socjologia, filozofia i prawo. Prawnik specjalizujący się w technologiach może zaproponować bardziej trafne i precyzyjne rozwiązania dotyczące prywatności danych niż programista czy specjalista IT. Dysponuje on wiedzą, aby zapewnić zgodność działania systemu z przepisami i regulacjami antydyskryminacyjnymi oraz wspomóc pracowników w procesach wykorzystania AI, w zakresie umów licencyjnych, prawa handlowego lub prawa własności intelektualnej. Pomoc prawna w projektowaniu modeli jest niezbędna w zdefiniowaniu problemu ponoszenia odpowiedzialności decyzyjnej pomiędzy AI a człowiekiem. Jest to kluczowy aspekt do uregulowania, gdyż sytuacji, w których występują szkody, błędy czy niejasności w przypisaniu autorstwa projektu, artykułu, określonego rozwiązania, wraz z rozwojem narzędzi generatywnych, będzie coraz więcej. Zapewnienie zgodności z prawem od początku procesu projektowania zmniejsza liczbę kosztownych błędów i zmian na wyższych etapach zaawansowania rozwoju technologii.
Zobacz również:
Nieprzewidywalni
Profesor Dashun Wang z Kellogg School of Management oraz McCormick School of Engineering na Northwestern University, zwraca uwagę na istotną lukę między szybkim rozwojem technologii a regulacjami. W swoich badaniach dowodzi, że synchronizacja tej zależności w procesie tworzenia technologii AI przynosi szereg ułatwień i korzyści wraz z jednoczesną integracją aspektów etycznych i społecznych. Na dowód tego proponuje wielodyscyplinarne podejście do wykorzystania danych i analiz AI do wspierania decyzji politycznych, szczególnie w kontekście zarządzania kryzysami zdrowotnymi, takimi jak pandemia COVID-19. Wykorzystując predykcyjny model AI, był w stanie zidentyfikować kluczowe czynniki, które przyczyniły się do skuteczności polityk zdrowotnych zastosowanych przez rządy różnych krajów. Wang podkreśla, że z jednej strony użycie danych na dużą skalę, jaką jest chociażby zdrowie publiczne, wymaga solidnych ram prawnych, etycznych i elastycznych regulacji z uwagi na dynamikę kryzysów. Z drugiej zaś strony efektywne zarządzanie kryzysami zdrowotnymi wymaga koordynacji między sektorem publicznym, prywatnym oraz instytucjami badawczymi. Jego analizy są dzisiaj wykorzystywane do rekomendacji dla rządów na całym świecie.
Unia Europejska stara się sprostać wyzwaniom związanym z interdyscyplinarnością, dążąc do objęcia pozycji lidera w tej dziedzinie. AI Act z 2024 r. jest wyrazistym przykładem tych wysiłków, pokazując znaczną poprawę w porównaniu z wcześniejszymi inicjatywami regulacyjnymi UE. Proces jego tworzenia obejmował szerokie konsultacje z ekspertami z różnych dziedzin, takich jak filozofia, prawo, socjologia i inżynieria. Raport „AI Policy and Regulation in the EU” opublikowany przez Centre for European Policy Studies (CEPS) w 2023 r. wskazuje, że 85 proc. zespołów pracujących nad AI Act miało charakter interdyscyplinarny, co stanowi znaczący postęp w stosunku do wcześniejszych lat, gdy interdyscyplinarność wynosiła zaledwie 60 proc. Dla porównania, według raportu „AI Policy and Regulation in the United States” opublikowanego przez Brookings Institution, w USA interdyscyplinarne zespoły tworzące regulacje dotyczące AI stanowiły jedynie 60 proc., co sugeruje mniejsze zaangażowanie nauk humanistycznych i społecznych w tym procesie. W Japonii, która kładzie duży nacisk na koordynację sztucznej inteligencji z potrzebami społecznymi, zwłaszcza dzięki inicjatywom Ministerstwa Gospodarki, Handlu i Przemysłu (METI), interdyscyplinarność przy tworzeniu koncepcji Society 5.0. wyniosła 70 proc., jak wskazuje raport Japan Institute for Social and Economic Affairs również z 2023 r.
Pomimo znaczących postępów w UE, CEPS wskazuje na wciąż istniejące braki w pełnej integracji standardów etycznych w przepisach dotyczących projektowania i wdrażania AI. Dla przykładu, ocena ryzyka i odpowiedzialności za sztuczną inteligencję nie uwzględnia w pełni perspektyw etycznych i społecznych, co może prowadzić do pominięcia istotnych aspektów wpływu technologii na społeczeństwo. Raport Europejskiej Rady ds. Etyki w Nauce i Nowych Technologiach (EGE) z 2023 r. podkreśla konieczność większego zaangażowania filozofów i socjologów w proces oceny ryzyka związanego z AI, aby lepiej zrozumieć i zarządzać potencjalnymi zagrożeniami społecznymi oraz etycznymi.
Innym kluczowym aspektem regulacji sztucznej inteligencji jest budowanie dobrobytu poprzez harmonizację rozwoju gospodarczego, innowacyjnego, bezpieczeństwa, konkurencyjności, potencjału społecznego i ochrony środowiska. Wielowymiarowe podejście do tworzenia ładu prawnego dla AI prowadzi do bardziej efektywnych regulacji, które równoważą tendencje do przeregulowania, hamującego rozwój, a także deregulacji, przejawiającej się w technologicznym laissez-faire.
Konsekwencją zbyt swobodnych praktyk prawnych jest przykład aplikacji DeepNude, której brakowało konkretnych regulacji dotyczących technologii deepfake i generowania obrazów przez AI. Przepisy o ochronie prywatności i danych były niedostosowane do zagrożeń wywołanych generatywnymi technologiami. W rezultacie, w 2019 r. miała miejsce sytuacja, w której DeepNude wykorzystała algorytmy sztucznej inteligencji do generowania nagich zdjęć kobiet na podstawie ich fotografii w ubraniach. Skandal rozniósł się po świecie, choć aplikację wycofano, to jednak prywatność i zasady etyczne zostały mocno naruszone.
Apel o fuzję umysłów
Wato też odwołać się do wniosków Dashunga Wanga, które powinny zmobilizować europejskich, a zwłaszcza polskich działaczy nauki do większej aktywności międzysektorowej i interdyscyplinarności. Wan przeprowadził analizę międzynarodowej, aktualnej literatury naukowej, która wykazała drastyczny spadek cytowań psychologii, ekonomii, filozofii, politologii itp. w artykułach o AI, w porównaniu z latami 60. XX w. Równocześnie „nauki społeczne, polityczne i psychologiczne stały się mniej skłonne do korzystania z badań nad sztuczną inteligencją”. Naukowcy społeczni często pomijają też w swoich artykułach opracowania firm i środowiska biznesowego, powołując się wyłącznie na inne i to mało zróżnicowane artykuły akademickie. To niestety z jednej strony ogranicza prowadzenie pionierskich innowacji, które znalazłyby zastosowanie komercyjne, z drugiej zaś ogranicza możliwości społeczne wykorzystania potencjału nowych technologii, pomimo, iż powinny być konstruktem społecznym.
Zobacz również:
W technologiach nie ma drugich miejsc
Analizując polskie artykuły naukowe dotyczące nowych technologii w tym AI, tylko nieliczne publikacje stanowią interdyscyplinarny wkład badawczy, podkreślający konieczność adaptacji dorobku społeczno-humanistycznego. A jeśli już, to sprowadzają się one do wskazania, jak skutecznym i sprawnym narzędziem dla rozwoju nauk społecznych jest sztuczna inteligencja i jak jej szersze zastosowanie wpłynie na zwiększenie efektywności naukowców. Istnieje natomiast niewykorzystany potencjał w naukach społecznych o AI, które badałyby artefakty jako byty społeczne, albo to, jak ona się zachowuje w rzeczywistości społecznej. W jaki sposób i na jakich zasadach ci agenci współdziałają w określonym środowisku, czy są w jakiś sposób „towarzyskie”, czy zbudowane o tę „towarzyskość”, „partnerskość” więzi tworzą swojego rodzaju relacje społeczne. Warto byłoby jak najszybciej uzupełnić tę lukę, ponieważ „wkroczenie w przyszłość wymaga, byśmy się nauczyli poruszać po granicy między technologią a humanizmem”, o czym napisała Sherry Turkle, psycholog kliniczna i socjolog, autorka książek o relacjach między ludźmi a technologią.
I choć w polskiej przestrzeni społecznej jest coraz więcej inicjatyw, takich jak warsztaty czy branżowe konferencje promujące nowe technologie, nie mają one charakteru kampanii społecznych. Wprawdzie edukacja w kierunku zwiększenia społecznej odpowiedzialności technologicznej jest wspierana przez instytuty badawcze (np. Polski Instytut Sztucznej Inteligencji), uczelnie wyższe (choć wciąż niedostatecznie) czy NGOsy (Fundacje Digital Poland, Code for Poland, Instytut Kościuszkowski), to jednak udział rządowy (Ministerstwo Cyfryzacji czy agencja rządowa NCBIR) jest niewielki.
Historia pokazuje, że przełomowe momenty, w których pojawiały się zmiany technologiczne zawsze generowały silne emocje, w tym lęki, protesty, odrzucenie, a nawet akty przemocy. W XVIII-wiecznej Anglii luddyści przeprowadzali „pucz na maszynach”, które miały wyeliminować ludzką pracę. W XIX w. telegraf miał zagrażać prywatności, a elektryczność wywoływać zaburzenia zdrowotne i nerwowe. Rok 2000 miał zafundować w Sylwestrową noc milenijny błąd Y2X, załamując światowe systemy finansowe, energetyczne i transportowe. Na szczęście ludzka cywilizacja nie wyginęła, co więcej, Acemoğlu i Johnson przypominają też, że dzięki technologiom, „jesteśmy dziś nieporównywalnie zamożniejsi, zdrowsi i wygodniejsi niż ludzie 300 lat temu”.
Przełomu AI nie należy jednak lekceważyć. Zamiast popadać w skrajności warto zrównoważyć nowy ład sztucznej inteligencji i zintegrować go w kontekście społecznym poprzez fuzję różnych nurtów myślowych, naukowych, eksperckich, instytucjonalnych. I co najważniejsze: to człowiek jest demiurgiem narzędzi, których celem jest służenie dobremu bytowi społecznemu.