Autor: dr Justyna Bokajło

ekonomistka, europeistka, Uniwersytet Wrocławski

Wpływ nauki na kształtowanie zrównoważonego rozwoju AI

Sztuczna inteligencja, czy nam się to podoba, czy nie, staje się integralną częścią naszej codzienności. Jak żadna inna ze stosowanych do tej pory technologii o szerokim zastosowaniu (General Purpose Technology, jak np. maszyna parowa, telegraf, komputer czy półprzewodnik), AI kształtuje społeczne zachowania – wpływa na ludzkie decyzje, na budowanie relacji, na poglądy, społeczne wartości i etykę oraz prywatność.
Wpływ nauki na kształtowanie zrównoważonego rozwoju AI

Getty Images

Daron Acemoglu i Simon Johnson w książce „Power and Progress: Our 1000-Year Struggle Over Technology and Prosperity” napisali, że od początku rewolucji przemysłowej, każda innowacja kreuje „napięcie co do tego, kto kontroluje technologię i czy korzyści z technologii będą szeroko udostępniane”.

Niektórzy z nas zachwycają się i gloryfikują AI, wierząc, że już niedługo superinteligentne maszyny wybawią ludzkość od irracjonalnych emocji i ograniczonych umysłów, co prorokuje Raymond Kurzweil, najbardziej znany przedstawiciel posthumanizmu technologicznego, futurysta i inżynier.

Inni starają się walczyć z AI, kreśląc scenariusze rodem z science fiction. Opisują, że AI likwiduje miejsca pracy, inwigiluje społeczeństwa, deepfake’uje, koncentruje polityczną władzę w rękach ultrabogaczy, aż w końcu przejmuje władzę nad światem i zagraża istnieniu ludzkości, niczym mitologiczny Kronos.

Możemy jednak uznać sztuczną inteligencję za naturalną konsekwencję postępu technologicznego i naukowego, uznając jej osiągnięcia, ograniczenia oraz wyzwania z nią związane.

Obecnie wyzwaniem nie jest spekulacja na temat scenariuszy rozwoju „superinteligencji”, ale kompleksowość, złożoność i różnorodność życia społecznego, do którego należy zaadoptować technologię. Nasze obawy, jak i nadzieje koncentrują się bowiem na pytaniach determinujących naszą codzienność w najbliższych latach.

Zobacz również: 
AI stanowi ryzyko systemowe dla cywilizacji

Jak zmaksymalizować pozytywny wpływ AI na rynek pracy? Jak sprawić, by była ona odpowiedzialna i transparentna, eliminując z algorytmów uprzedzenia wobec mniejszości? Jak wynagradzać twórców treści, na których trenowane są modele? Jak wykorzystać AI dla celów zielonego, zrównoważonego rozwoju (wiedząc jaki „apetyt” mają modele na energię elektryczną)?

Te i inne wyzwania dotykają zmian strukturalnych, społecznych i gospodarczych. Aby im sprostać, konieczna jest współpraca międzydyscyplinarna szczególnie na polu badań naukowych. Na ten właśnie aspekt zwraca uwagę jedna z najbardziej prominentnych badaczek AI prof. Fei-Fei Li ze Stanford University:

„Aby AI służyło ludzkości, musi być kształtowane nie tylko przez inżynierów i naukowców, ale także przez przedstawicieli nauk humanistycznych, którzy mogą dodać kontekst etyczny i społeczny” – stwierdza Fei-Fei Li. W jaki zatem sposób przedstawiciele nauk humanistycznych i społecznych mogą przyczynić się do rozwiązania kluczowych wyzwań stojących przed rewolucją AI?

Budowanie zrozumienia AI

Pierwszą kwestią wydaje się budowanie wiedzy i świadomości poprzez komunikację i edukację. AI wywodzi się z dziedziny matematyki, informatyki, robotyki i bardzo często sposób przedstawiania zagadnień technologicznych sprawia, że zrozumienie systemów sztucznej inteligencji staje się niedostępne dla przeciętnego obywatela. Edukacja społeczna, zwłaszcza w Polsce, nie odpowiada zapotrzebowaniu budowania zrozumienia i odpowiedzialności. Sposób narracji jest zdeterminowany przez aspekty techniczne i dotyczy w głównej mierze tematów tj. platform przetwarzania danych, big data, algorytmów, architektury sieci neuronowych itp. Wciąż zbyt skąpo i zbyt ogólnikowo kształcimy z zagadnień dotyczących społecznych i etycznych konsekwencji AI, nie wspominając już o miejscu człowieka. To on bowiem stoi w centrum tych zagadnień. To człowiek podejmuje ostateczne decyzje, wyznacza granice w zakresie najlepszego interesu społecznego.

Brak zrozumienia tych kwestii prowadzi do dramatycznych konsekwencji. Jest akceleratorem strachu, braku zaufania, odrzucenia, a także wykorzystania technologii do celów prywatnych i budowania technologicznego monopolu władzy, co zagraża integralności społecznej i bezpieczeństwu. W rezultacie wokół AI narastają negatywne emocje, prowadzące od problemów z jej adaptacją do rzeczywistych wyzwań, a deficyt nauk społecznych w tym zakresie się do tego przyczynia.

Nauki społeczne i humanistyczne są w stanie zwiększyć zakres możliwości do zrozumienia skomplikowanej dynamiki społecznej, niuansów, wrażliwości i interakcji ludzkich. Z drugiej strony przyczyniają się do zaangażowania społecznego, otwarcia na dialog i włączenia do debaty jak największej liczby ludzi, uproszczenia skomplikowanych zagadnień i wyjaśniania problemów, wyzwań oraz korzyści związanych z rozwojem high-tech, a dotykających bezpośrednio człowieka. To z pewnością znajdzie przełożenie na zwiększony potencjał poznawczy i ograniczenie strachu, wynikającego z niewiedzy, przełoży się na budowanie racjonalnego optymizmu. Wskazuje na to m.in. badanie przeprowadzone w 2020 r. przez Henrika Schwabe i Fulvio Castellacci’ego, które opublikowane zostało w czasopiśmie PLOS ONE. Dowodzi ono, że strach przed zastąpieniem przez automatyzację znacząco wpływa na satysfakcję z pracy pracowników, zwłaszcza o niższych kwalifikacjach.

Zobacz również: 
Generatywna AI kontra twórcy

Inne badanie opublikowane w 2023 r. przez Centre for Economic Policy Research, zatytułowane „Workers’ responses to the threat of automation” dowodzi, że strach przed automatyzacją wpływa na zmiany przekonań i zachowań, będących silnym wyzwaniem dla porządku rynkowego, społecznego i demokratycznego.

Regulacje

Andrew Ng, jeden z czołowych ekspertów w dziedzinie AI i uczenia maszynowego, entuzjastycznie wypowiada się na temat potencjału nowych technologii do przekształcania wielu dziedzin, takich jak medycyna, edukacja, administracja, finanse, transport, obronność, przemysł i produkcja. Stawia jednak warunek powodzenia możliwości rozwiązywania rzeczywistych problemów, jakim jest przede wszystkim właściwa regulacja AI. Nie chcemy bowiem, aby to zespoły projektowe w poszczególnych firmach same decydowały, jak ma się np. zachować samochód autonomiczny w sytuacjach krytycznych lub w jaki sposób mają być definiowane zasady etycznego doboru danych do trenowania modeli. Prawnik specjalizujący się w technologiach zaproponuje trafniejsze rozwiązania dotyczące prywatności danych, zapewni zgodność działania z przepisami i regulacjami antydyskryminacyjnymi, a także wspomoże pracowników w procesach wykorzystania AI, w zakresie umów licencyjnych czy prawa handlowego, prawa własności intelektualnej, bardziej niż programista czy specjalista IT. Pomoc prawna w projektowaniu modeli pomoże również w zdefiniowaniu problemu ponoszenia odpowiedzialności decyzyjnej pomiędzy AI a człowiekiem, co jest pilną kwestią do uregulowania, gdy występują szkody, błędy czy niejasności w przypisaniu np. autorstwa projektu, artykułu, określonego rozwiązania. Zapewnienie zgodności z prawem od początku procesu projektowania może przyczynić się do unikania kosztownych błędów i zmian na wyższych etapach zaawansowania rozwoju technologii.

 Budowanie systemów opartych na AI

Inżynierowie, analitycy danych i programiści koncentrują się głównie na funkcjonalności i aspektach technicznych. Nie mają specjalistycznej wiedzy chociażby w kwestiach prawnych, regulacyjnych, behawioralnych, kulturowych, artystycznej kreatywności czy wrażliwości. A wszystkie te umiejętności i zdolności są niezbędne dla innowacji społecznych; do rozpoznawania emocji, jeśli AI ma służyć jako „opiekun” ludzi chorych czy starszych, do tworzenia estetycznych, intuicyjnych i przyjaznych interfejsów, do oprogramowania nienaruszającego moralnej integralności człowieka czy do opracowania algorytmów wspierających rzetelną komunikację, czy redukujące postawy dyskryminujące lub uprzedzenia. A także do opracowania norm i najlepszych praktyk współpracy pomiędzy człowiekiem a maszyną.

Powstaje tu olbrzymi potencjał dla partnerstwa technologicznego, społecznego, ekonomicznego, a nawet artystycznego, które jest fundamentalne dla rozwoju AI wspierającej politykę publiczną oraz działania polityczne. Dla przykładu, ekonomiści mogą udoskonalić analizy środowiska gospodarczego w taki sposób, aby procesy technologiczne wspierały zatrudnienie i przekwalifikowanie pracowników. Albo wspomóc projekcję zmian w strukturze kosztowej różnych sektorów, co przyczyni się do opracowania nowych modeli biznesowych.

Zobacz również: 
Nic co ludzkie nie będzie nam obce

Specjalista ds. komunikacji społecznej wspomoże mechanizm AI, który ma zoptymalizować i usprawnić procesy negocjacyjne, zaś antropolog, który ma wiedzę dotyczącą kultur i religii, przyczyni się do stworzenia etycznego modelu AI, osadzonego w określonych realiach, dzięki czemu będzie to bardziej osiągalne i bliższe naturze społecznej. Nie każde bowiem zagadnienie może znaleźć odpowiedź wyłącznie w rozwiązaniach technicznych.

Co więcej, nawet podejście artystyczne czy wiedza muzyczna prowadzi do większej „humanizacji” technologii, z uwagi na uczenie algorytmów wrażliwości, estetyki, naturalności. Dzięki temu mogą stać się bardziej intuicyjne, funkcjonalne i bliższe człowiekowi. Może to być szczególnie przydatne w czynnościach terapeutycznych, opiekuńczych oraz wszystkich tych, które mogą przyczynić się do poprawy samopoczucia emocjonalnego i psychicznego osób starszych, z niepełnosprawnościami lub innych pacjentów.

W interdyscyplinarnym podejściu do AI mamy jeszcze wiele do zrobienia

Profesor Dashun Wang z Kellogg School of Management upatruje źródeł sukcesu czołowych ośrodków badawczych w dziedzinie AI, takich jak MIT, Carnegie Mellon University czy Stanford University, m.in. w mulitdyscyplinarności oraz współpracy z sektorem przemysłu i biznesem. Podobnego zdania jest przedsiębiorca Peter Diamandis, który współtworzył Singularity University właśnie po to, aby przyczynić się do zmiany wciąż dominującej izolacji humanistów, naukowców społecznych od postępu technicznego i odwrotnie.

Niestety, mimo głosu autorytetów, daleko nam do pożądanych rezultatów. Dashung Wang przeprowadził analizę aktualnej międzynarodowej literatury naukowej, która wykazała drastyczny spadek cytowań z zakresu psychologii, ekonomii, filozofii itp. w artykułach o AI, w porównaniu z latami 60. Również „nauki społeczne, polityczne i psychologiczne stały się mniej skłonne do korzystania z badań nad AI”. Naukowcy społeczni często pomijają w swoich artykułach opracowania firm i środowiska biznesowego, koncentrując się w większej mierze na artykułach akademickich. To niestety z jednej strony ogranicza prowadzenie pionierskich innowacji, które znalazłyby zastosowanie komercyjne, z drugiej zaś strony ogranicza możliwości społeczne wykorzystania potencjału nowych technologii, pomimo, iż są konstruktem społecznym.

Analizując polskie artykuły naukowe dotyczące nowych technologii, w tym AI, tylko nieliczne publikacje stanowią interdyscyplinarny wkład badawczy, podkreślający konieczność adaptacji dorobku społeczno-humanistycznego. A jeśli już, to sprowadzają się one do wskazania, jak skutecznym i sprawnym narzędziem dla rozwoju nauk społecznych jest sztuczna inteligencja i jak jej szersze zastosowanie wpłynie na zwiększenie efektywności naukowców. Istnieje natomiast niewykorzystany potencjał w naukach społecznych o AI, które badałyby artefakty jako byty społeczne, albo to, w jaki sposób zachowuje się AI w rzeczywistości społecznej, jak ci agenci współdziałają w określonym środowisku, czy są w jakiś sposób „towarzyskie” i czy zbudowane o tę „towarzyskość”, „partnerskość” więzi tworzą swojego rodzaju relacje społeczne. Warto byłoby jak najszybciej uzupełnić tę lukę, ponieważ, zgodnie z tym co napisała Sherry Turkle, psycholog kliniczna i socjolog, autorka książek o relacjach między ludźmi a technologią, „wkroczenie w przyszłość wymaga, byśmy nauczyli się poruszać po granicy między technologią a humanizmem”.

I choć w polskiej przestrzeni społecznej jest coraz więcej inicjatyw, takich jak warsztaty czy branżowe konferencje promujące nowe technologie, to nie mają one charakteru kampanii społecznych. Wprawdzie edukacja w kierunku zwiększenia społecznej odpowiedzialności technologicznej jest wspierana przez instytuty badawcze (np. Polski Instytut Sztucznej Inteligencji), uczelnie wyższe (choć wciąż niedostatecznie) czy NGOsy (Fundacje Digital Poland, Code for Poland, Instytut Kościuszkowski), to jednak udział rządowy (Ministerstwo Cyfryzacji czy agencja rządowa NCBIR) nadal jest niewielki.

Acemoglu i Johnson napisali także, że dzięki wszystkim przełomom technologicznym i mimo obaw „jesteśmy dziś nieporównywalnie zamożniejsi, zdrowsi i wygodniejsi niż ludzie 300 lat temu”. Przyśpieszenie włączenia nauk humanistycznych i społecznych do mainstreamu rewolucji AI jest krytyczne, abyśmy to samo mogli niedługo powiedzieć o skutkach tej niesamowitej technologii.

 

Getty Images

Otwarta licencja


Tagi


Artykuły powiązane

Nic co ludzkie nie będzie nam obce

Kategoria: Trendy gospodarcze
Każdego ranka, gdy smartfon budzi nas i dostarcza spersonalizowane wiadomości oraz prognozę pogody na podstawie naszej lokalizacji, wchodzimy w interakcję z AI. Zadajemy pytania Siri lub Alexii, które stały się codziennymi kompankami, jednocześnie ufając, że Google Maps zrobi dla nas analizę ruchu ulicznego w czasie rzeczywistym, aby zaplanować jak najszybszą trasę do pracy. Spotify dobiera muzykę zgodnie z naszymi wcześniejszymi preferencjami, a Chat GPT, na naszą prośbę redaguje tekst wiadomości, którą mamy zamiar wysłać e-mailem. W końcu sprawdzamy konto bankowe i nawet nie zastanawiamy się, jak działają aplikacje chroniące nas przed oszustwami i oferujące spersonalizowane porady finansowe.
Nic co ludzkie nie będzie nam obce

Od rozwoju zależnego do silnej Polski

Kategoria: Trendy gospodarcze
Można powiedzieć, że nasz kraj tkwi między młotem a kowadłem, czyli między Rosją, której interesy historycznie kolidują z polską racją stanu, a Unią Europejską i dominującymi w niej grupami politycznymi. Ten czynnik oraz agresja Rosji na Ukrainę powodują, że poszukiwanie odpowiedzi na pytanie o silną Polskę zostało zdominowane przez kwestie polityczne.
Od rozwoju zależnego do silnej Polski

Kierunki chińskiej polityki w zakresie rozwoju gospodarczego i społecznego

Kategoria: Trendy gospodarcze
Docelowy wzrost PKB Chin w 2024 r. na poziomie 5 proc., zwiększenie krajowej konsumpcji, kontynuacja realizacji celów rozwojowych, w tym nacisk na rozwój nowoczesnego systemu przemysłowego, zmniejszenie barier w dostępie do rynku w celu przyciągnięcia kapitału zagranicznego, poprawa otoczenia biznesowego dla przedsiębiorstw zagranicznych, kontynuacja działań na rzecz obniżania emisji dwutlenku węgla i osiągniecie neutralności węglowej to główne kierunki chińskiej polityki w 2024 r.
Kierunki chińskiej polityki w zakresie rozwoju gospodarczego i społecznego