Dwie pułapki rozwoju AI

Znany psycholog ewolucyjny Geoffrey Miller twierdzi, że wśród ludzi z branży sztucznej inteligencji (AI) powszechne jest przekonanie o tym, że możliwe korzyści z rozwoju AI są traktowane jako prawie gwarantowane, możliwe ryzyka jako coś wysoko spekulatywnego.
Dwie pułapki rozwoju AI

(©Envato)

Pokażę tu, że racjonalne jest odwrotne podejście do AI: są przesłanki, by twierdzić, że to zagrożenia są bardzo poważne, natomiast korzyści wyglądają dość spekulatywnie.

Wychodzę od założenia mówiącego, że znaczenie AI dla ludzkości zależy od tego, jakie relacje systemy AI nawiązują z dwoma ważnymi obszarami ludzkiej cywilizacji: (1) z dominującą obecnie w naszej cywilizacji zatrutą infosferą oraz (2) z dzisiejszymi głównymi trendami rozwoju technologii. W obu przypadkach mamy bowiem do czynienia z pułapkami utrudniającymi odniesienie z rozwoju AI korzyści ogólnospołecznych.

Strukturalnie zatruta infosfera

Gdy pod koniec 2022 r. OpenAI udostępniło ChatGPT, w przestrzeni publicznej pojawiły się rozliczne głosy na ten temat. Mimo to opinia publiczna wcale nie ma większej jasności co do korzyści i zagrożeń wiążących się z rozwojem AI. Wielość głosów nie przekłada się na lepsze rozumienie tego, czym są już istniejące systemy AI oraz jaki potencjał przekształcania świata społecznego ze sobą niosą. Dlaczego?

Odpowiadając na to pytanie, sięgam po pojęcie: „strukturalnie zatruta infosfera”. Piszę o tym bliżej w książce „Cyber kontra real: Cywilizacja w techno-pułapce” (2022). Najkrócej – nastąpiła degradacja komunikacji publicznej. Polega ona na stałym informacyjnym przeciążeniu, dominacji przekazów emocjonalnych i antagonizujących, a wszystko zalewa ocean dezinformacji. Wiedza umożliwiająca zrozumienie świata została zastąpiona przez niekończące się strumienie poszatkowanych informacji, w tym bodźców audio i wideo, które przynoszą coraz większą dezorientację, uzależnienia i agresję.

Zobacz również:
https://www.obserwatorfinansowy.pl/tematyka/makroekonomia/trendy-gospodarcze/andrzej-zybertowicz-technoentuzjasci-sa-niebezpieczni/

Infosfera zatruta jest strukturalnie, gdyż kłamstwo i agresja cały czas są promowane przez algorytmy Big Techu, czyli firm, których fortuny wyrosły właśnie dzięki sprawności tych algorytmów (zob. S. Zuboff, Wiek kapitalizmu inwigilacji, 2021). To, co jest pewne, to fakt, że do zatrucia ludzkiej infosfery wystarczyły o wiele mniej wyrafinowane od ChataGPT systemy AI. Kolejne zaś, coraz bardziej wydajne systemy AI wchodzą w życie już w środowisku zdeformowanej infosfery. To pułapka pierwsza.

Szczególny przypadek techno-entuzjazmu

W czerwcu 2023 r. znany miliarder i inwestor z Doliny Krzemowej Marc Andreessen publikuje w internecie tekst „Why AI will save the world” (Dlaczego AI uratuje świat). To wyraźny manifest tego, co określam mianem techno-entuzjazmu. Zaś, moim zdaniem, techno-entuzjazm ze wszystkich ideologii mających dziś wpływ na bieg spraw ludzkich jest najniebezpieczniejszy. Andreessen obiecuje nam całkiem sporo. Jego zdaniem: „Każde dziecko będzie miało nauczyciela AI, który jest nieskończenie cierpliwy, nieskończenie współczujący, nieskończenie kompetentny, nieskończenie pomocny. Każda osoba będzie miała asystenta/trenera/mentora/trenera/doradcę /terapeutę, który jest nieskończenie cierpliwy, nieskończenie współczujący, nieskończenie kompetentny i nieskończenie pomocny”.

Cudownie? Czyżby nie można liczyć na to, że dorośli dadzą radę zaopiekować się dziećmi, prawda? Że ludzie sami sobie będą w stanie pomóc…

Andreessen co prawda rozważa też obawy: że AI może zabić ludzkość, popsuć społeczeństwa, likwidować miejsca pracy, nasilić nierówności oraz prowokować zachowania niegodziwe, ale twierdzi, że są one oparte na przesłankach nieracjonalnych. Nie ma tu miejsca, by argumenty autora uchylać punkt po punkcie. Odnieśmy się tylko do jego dwóch kluczowych założeń.

Po pierwsze, zdaniem Andreessena, ocali nas to, że AI jest tylko maszyną, która niczego nie pragnie, nie chce i nie ma własnych celów.  Niemniej o naszej niepewnej sytuacji w przyszłości może zadecydować coś, o czym autor w ogóle nie wspomina: to, jakiego typu mnożnikiem siły (force multiplier) będą kolejne systemy AI. Wszelkie wcześniej wymyślone przez ludzi technologie – przywołajmy choćby drukarnię, czołg, procesor – mogą być traktowane jako właśnie mnożniki siły. To dzięki nim można osiągnąć więcej i szybciej przy mniejszym wysiłku. AI zapewne okaże się najpotężniejszym mnożnikiem siły, jaki ludzkość kiedykolwiek stworzyła. Zanim jeszcze uzyska autonomię, może stać się wyjątkowo niebezpiecznym narzędziem w rękach ludzi. Niekoniecznie ludzi o złych intencjach, wystarczy, że zdarzy się dysponentowi systemu chwila nieuwagi, jak np. zmęczonemu kierowcy w długiej trasie. Andreessen uspokaja również co do innej kwestii, wskazując: „jeśli obawiasz się o AI generującą fałszywych ludzi i fałszywe filmy, odpowiedzią jest zbudowanie nowych systemów, pozwalających ludziom weryfikowanie siebie i realnych treści za pomocą podpisów kryptograficznych” (kursywa od aut.).

Zobacz również:
https://www.obserwatorfinansowy.pl/bez-kategorii/rotator/generatywna-sztuczna-inteligencja-szanse-i-wyzwania/

Tym ostatnim argumentem Andreessen proponuje po prostu klasyczny wyścig tarczy (zabezpieczenia) i miecza (zagrożenia). Miliarder zdaje się jednak nie dostrzegać, że wejście technologii w nasiloną logikę wyścigu zbrojeń to żaden postęp.

I tu przechodzimy do drugiego założenia Andreessena i zarazem do drugiej pułapki, w jaką uwikłana jest AI. Wbrew temu, co wyobraża sobie miliarder, nie ma przesłanek, by założyć, że AI będzie narzędziem, które wszyscy obywatele będą mogli sobie swobodnie używać. Obecnie dostęp do „administracyjnych” funkcji ChataGPT jest zastrzeżony dla dysponentów tego systemu. Tak jest i prawie na pewno tak pozostanie.

Uspokajająca, ale błędna analogia

Poza korzyściami, innowacje zazwyczaj przynoszą też różne skutki uboczne, w tym szkodliwe, które rozpoznawane są ze sporym opóźnieniem – jak np. uzależnienie od oglądania telewizji.

W dyskusjach o problemach z technologiami często sięga się po następujący, mający uspokajać, argument: w historii ludzie zawsze, mimo początkowych, niekiedy poważnych, obaw w końcu zawsze potrafili okiełznać – przez rozmaite procesy dostosowawcze – narzędzia przez siebie stworzone. W rezultacie korzyści przeważały społeczne koszty, a zagrożenia potrafiono zneutralizować. Przykładowo: samochody, które według alarmistów miały nas wszystkich pozabijać i zatruć, dziś mają zainstalowane pasy bezpieczeństwa, coraz niższą emisję spalin, a wkrótce być może przejdziemy na bardziej ekologiczny transport elektryczny.

Ponieważ mamy świadomość szkód, jakie może przynieść nieodpowiedzialne korzystanie z AI, to podobnie jak było w przypadku wcześniejszych technologii i tu po fazie zamętu, AI zostanie tak „wbudowana” w tkankę życia społecznego, że korzyści wyraźnie przeważą nad szkodami. W przypadku AI już od lat rozwijane są koncepcje AI alignment zakładające tworzenie sztucznej inteligencji z założenia służącej ludzkiemu dobrostanowi.

Pominę tu tę oto okoliczność, że świeże, dla wielu oszałamiające postępy na polu AI uzyskano, obchodząc cały szereg postulowanych reguł pracy nad nią. Na przykład zakazujących, by systemy AI mogły mieć dostęp do internetu i do kontaktów z ludźmi.

Postaram się wykazać bezpodstawność wyciągania pociechy z analogii, że jak dotąd w przypadku wszelkich technologii apokaliptyczne przestrogi okazały się nietrafne. Warto wymienić cztery argumenty:

  1. Z faktu, że w przeszłości ludzkość potrafiła opanować stworzone przez siebie technologie, nie wynika, że zawsze będzie to możliwe.
  2. W odróżnieniu od tradycyjnych technologii, w te cyfrowe już z reguły „zaszywane” są mechanizmy uzależniające użytkowników – co oznacza mniej racjonalne reagowanie na szkody przez te technologie przynoszone.
  3. Technologie i produkty cyfrowe – w odróżnieniu od tradycyjnych – cechują się tym, że obszar władztwa użytkownika nad wykorzystywanymi produktami i usługami, nawet nabytymi za wysoką cenę, jest znacznie bardziej ograniczony na rzecz sprawstwa twórców i dysponentów technologii.
  4. Tempo, zakres, głębokość rozprzestrzeniania się i sięgania technologii cyfrowych nie dadzą nam czasu na „opanowanie” AI.

Argument (1): W sensie logicznym wystarcza już skrótowy zapis tego argumentu. By zobrazować występujący tu błąd myślowy, weźmy przykład: z tego, że kierowcy sto razy udało się opanować pojazd na wirażu, nie wynika, że będzie tak zawsze – zwłaszcza jeśli zmieniły się okoliczności: szybkość auta wzrosła, a nawierzchnia ma gorszą przyczepność.

Zobacz również:
https://www.obserwatorfinansowy.pl/tematyka/makroekonomia/trendy-gospodarcze/gdy-sztuczna-inteligencja-zostanie-bankierem-centralnym/

Argument (2): Zaszyte w licznych aplikacjach rozwiązania mają maksymalizować czas spędzany przez użytkownika przed ekranem. Czynią to np. oferując różne niespodzianki pobudzające ośrodek nagrody w mózgu. Dlatego do wielu aplikacji zaglądamy nawet bez żadnej potrzeby. Klasyczną technologią uzależniającą są facebookowe „lajki” – widzimy je, ale poza naszą kontrolą działają one także na nieświadomą część naszych umysłów. Osoby czekające na lajki zwykle nie zdają sobie sprawy, że aktywują one w mózgu ośrodek nagrody, co skłania do powtarzania czynności (np. umieszczenia na Instagramie swego zdjęcia), która przynosi lajki.

W efekcie ludzie zaprzyjaźniają się ze swoimi gadżetami, np. smartfonami. Stają się techno-entuzjastami, którzy mają kłopoty ze zdystansowaniem się od narzędzi, jakimi się posługują. Nawet gdy wiedzą, że dziś wszystkie formy aktywności cyfrowej są zarządzane przez niejawne algorytmy firm, które technologie te udostępniają, to z tej wiedzy nic nie wynika. W odróżnieniu od technologii tradycyjnych te obecne miast być naszymi sługami i pozwalać się dopasowywać do naszych potrzeb według uznawanych za właściwe wzorców kultury – dopasowują nas do siebie. A dokładniej do interesów władców Big Techu, czyli do wymogów, jak wykazała Shoshana Zuboff, kapitalizmu inwigilacyjnego. Żadne inne wcześniejsze technologie nie potrafiły uzyskać takiej przewagi nad ludźmi.

Argument (3): Jak to ongiś było z piłą, pralką, motocyklem czy kupionym domem? Po ich nabyciu uzyskiwaliśmy daleko posuniętą, omal suwerenną, władzę nad tym, co używamy. W przypadku technologii cyfrowych nasze władztwo nad nabytymi produktami i usługami zostaje ograniczone skokowo. Tu twórca, już projektując program, wymusza na użytkownikach przekazanie rozmaitych danych osobowych. Potem nie tylko precyzyjnie śledzi to, jak posługujemy się naszą własnością; nie tylko tak nas bodźcuje, byśmy służyli jego interesom, ale wprowadzając aktualizacje, których nie sposób ominąć, odbiera naszemu urządzeniu jedne funkcjonalności i nadaje inne, z których obowiązkowo mamy korzystać.

To powiększanie kontroli nad nami rozgrywa się pod kątem pomnażania już i tak ogromnych fortun CyberPanów. Rewolucja cyfrowa poszła bowiem ścieżką nasilania nierówności materialnych i mnożenia fortun nielicznych grup ludzi. To jest rzeczywisty kontekst społeczno-technologiczny, w jakim kolejne systemy AI są wprowadzane w tkankę społeczną. Być może w dziejach ludzkości nigdy nie było lepszego podglebia technologicznego dla efektywnego autorytaryzmu niż technologie, które łączą w sobie rozrywkę z kontrolą. To jest pułapka druga – AI nie jest rozwijana w świecie idealnym, ale w świecie nieustającej gry o bogactwo, władzę i wpływy.

Zobacz również:
https://www.obserwatorfinansowy.pl/tematyka/makroekonomia/trendy-gospodarcze/wplyw-sztucznej-inteligencji-na-wzrost-gospodarczy-i-zatrudnienie/

Dlatego niepoważnie brzmi teza Andreessena, że każda technologia może być wykorzystywana ku dobremu lub ku złemu. To nie jest cała prawda. Tylko nieliczni bowiem są w stanie decydować, ku czemu wykorzystywać udostępniane im cyfrowe cudeńka. Wiele z nich już z góry ma wpisane żerowanie na niskich instynktach ludzkiej natury.

Argument (4): Rozpowszechnienie technologii cyfrowych przebiega szybciej niż jakichkolwiek innych – po ich udostępnieniu mogą być błyskawicznie kopiowane i instalowane na każdym sprzęcie. Oznacza to, że jeśli coś idzie nie tak – to czasu na reakcję może nie wystarczyć.

Bezprecedensowy jest też zakres oddziaływania tych technologii: kolejne sfery życia społecznego podlegają presji, by je digitalizować. Cyfryzacja penetruje wszystkie strefy tkanki społecznej, a w ludzką psychikę sięga głębiej niż jakiekolwiek wcześniejsze technologie. Po drodze wypłukiwane są tak podstawowe wartości społeczne jak chociażby odpowiedzialność, przyjaźń i rodzicielstwo. Uzależnienie od mediów społecznościowych nie tylko bowiem rozrywa więzi społeczne, stymulując hiper-indywidualizację i postawy narcystyczne (jest na ten temat już obszerna literatura). Sprzyja także postrzeganiu posiadania dzieci nie jako czegoś naturalnego, ale jedynie ciężaru utrudniającego nieprzerwane cieszenie się życiem przy ekranie.

To w perspektywie tych czterech argumentów trzeba patrzeć na wizje takich postaci jak Andreessen, który bezrefleksyjnie przecenia potencjał ludzkiej podmiotowości.

Czy wiedząc, że środowisko Doliny Krzemowej skłoniło miliardy ludzi do działania na swoją niekorzyść (M. Fisher, W trybach chaosu, Kraków 2023), mamy uważać, że systemy AI – przez to samo środowisko tworzone i udostępniane – przyniosą nam teraz coś odwrotnego?

Wziąwszy to wszystko pod uwagę, proszę teraz ocenić poprawność tezy, że w perspektywie rozwoju AI poważne zagrożenia są niemal pewne, a korzyści ogólnospołeczne jedynie trochę prawdopodobne.

Andrzej Zybertowicz, polski socjolog, publicysta i emerytowany nauczyciel akademicki

 

(©Envato)

Tagi


Artykuły powiązane

Jakie kryteria stosować przy wyborze pracowników

Kategoria: Społeczeństwo
Tylko niewielki odsetek osiągnięć w pracy można tłumaczyć wysokim współczynnikiem IQ. Dlatego nie warto przywiązywać do niego przesadnie dużej wagi przy odsiewaniu kandydatów do pracy. Tak twierdzą Tyler Cowen i Daniel Gross w książce „Talent. How to Identify Energizers, Creatives, and Winners Around the World”(pol. “Talent. Jak wyszukać w świecie ludzi motywujących do działania, twórczych i zwycięzców”).
Jakie kryteria stosować przy wyborze pracowników

Nowe horyzonty i możliwości zastosowania sztucznej inteligencji w biznesie

Kategoria: Trendy gospodarcze
Ciekawe, kiedy sztuczna inteligencja (SI) wysadzi z rynku ekspertów tej dziedziny, któ-rzy podejmują próby opisywania procesów i pytań, na które jeszcze nie ma odpowiedzi – szczególnie w sytuacji, kiedy stała się ona bardzo szybko jedną z najbardziej transforma-cyjnych technologii naszych czasów, rewolucjonizując branże i zasadniczo zmieniając sposób działania przedsiębiorstw i inicjatyw biznesowych.
Nowe horyzonty i możliwości zastosowania sztucznej inteligencji w biznesie