Sztuczna inteligencja i problem spinaczy

Sztuczna inteligencja, której zadaniem byłoby, dajmy na to, produkowanie spinaczy, mogłaby doprowadzić do apokalipsy, przekierowując coraz większe zasoby na realizację tego zadania. Większe jednak zagrożenie egzystencjalne wciąż stanowią ludzie, którzy tworzą sztuczną inteligencję, by zdobyć władzę.
Sztuczna inteligencja i problem spinaczy

(CC B NC ND Michael Shaheen)

Pogląd, że sztuczna inteligencja (AI) może doprowadzić świat do spinaczowej apokalipsy, spotkał się z zaskakująco dużym zainteresowaniem. Zainspirował on Stephena Hawkinga i Elona Muska, by wyrazić zaniepokojenie egzystencjalnym zagrożeniem ze strony sztucznej inteligencji. Powstała nawet popularna gra na iPhone’a wyjaśniająca tę koncepcję.

Obawy nie dotyczą oczywiście spinaczy jako takich. Chodzi o to, że w pewnym momencie, uruchomienie AI może doprowadzić do zniszczenia wszystkiego oraz, że to zniszczenie byłoby łatwe i wynikałoby z prostej lub nieszkodliwej pierwotnej intencji.

Pomysły leżące u podstaw przekonania, że możemy stracić kontrolę nad sztuczną inteligencją mają charakter głęboko ekonomiczny. Jednak do tej pory ekonomiści nie zwracali na nie większej uwagi. Zamiast tego skupiali się raczej na ostatnich, bardziej przyziemnych postępach w zakresie uczenia się maszyn. Moje badania, przyjmujące bardziej przyszłościową perspektywę, pokazują, że aby nastąpiła spinaczowa apokalipsa, musimy przyjąć istotne założenia podstawowe. Daje to podstawy, aby sądzić, że prawdopodobieństwo, iż w ten sposób dojdzie do końca świata jest niższe niż uważają nie-ekonomiści.

Czym jest spinaczowa apokalipsa

Pojęcie to wywodzi się z eksperymentu myślowego Nicka Bostroma (2014), filozofa z Uniwersytetu w Oksfordzie. Bostrom analizował „problem kontroli” – w jaki sposób ludzie mogą kontrolować super-inteligentną sztuczną inteligencję, nawet kiedy sztuczna inteligencja jest od nich o wiele rzędów wielkości sprawniejsza. Eksperyment myślowy Bostroma wyglądał następująco: przypuśćmy, że ktoś zaprogramuje i uruchomi sztuczną inteligencję, która ma za zadanie produkcję spinaczy do papieru. Sztuczna inteligencja posiada zdolność uczenia się, dzięki czemu może wymyślać sposoby pozwalające na lepszą realizację wyznaczonego celu. Ponieważ sztuczna inteligencja jest super-inteligentna, jeśli istnieje sposób na przerobienie czegoś na spinacze, AI znajdzie ten sposób. Będzie dążyła do zabezpieczenia zasobów na ten cel. AI jest jednomyślna i w pełni skoncentrowana na celu, a także bardziej pomysłowa niż człowiek, w wyniku czego będzie przejmować zasoby ze wszystkich innych działań. Wkrótce świat zostanie zalany spinaczami.

To jeszcze nie koniec. Możemy chcieć ją powstrzymać. Ale jest ona zdeterminowana i zdałaby sobie sprawę, że nasze działanie podważyłoby realizację jej celu. W konsekwencji, sztuczna inteligencja skupiłaby się na zagwarantowaniu własnego przetrwania. Wcześniej walczyła z ludźmi o zasoby, ale teraz będzie chciała walczyć z ludźmi, ponieważ postrzega ich jako zagrożenie (co przywodzi na myśl „Terminatora”).

AI jest o wiele mądrzejsza od nas, więc prawdopodobnie wygra tę bitwę. Mamy więc sytuację, w której inżynier uruchomił sztuczną inteligencję w celu wykonania prostego zadania. AI zwiększyła jednak swoje możliwości, wykorzystując zdolność do samodoskonalenia, wprowadziła innowacje, aby lepiej produkować spinacze i rozwinęła swoje zdolności w celu uzyskania zasobów, których potrzebuje, a ostatecznie w celu ochrony własnego istnienia.

Bostrom twierdzi, że trudno byłoby kontrolować super-inteligentną sztuczną inteligencję – zasadniczo lepsza inteligencja wygrywa ze słabszą. Wcale nie muszą pomóc zmiany w motywacji AI. Na przykład, możemy poprosić AI o wyprodukowanie tylko określonej liczby spinaczy, ale sztuczna inteligencja może zacząć się obawiać, że je wszystkie zużyjemy i może również podjąć próbę wyeliminowania zagrożeń. Jak dobrze wiedzą ekonomiści, trudno jest zaprogramować klarowne preferencje.

Wniosek jest taki, że nasza sytuacja jest niepewna. Uruchomienie tego rodzaju sztucznej inteligencji może okazać się ostatnią rzeczą, którą zrobimy.

Model dżungli

Zwykłe modele ekonomiczne nie nadają się do zrozumienia tej sytuacji. Mówiąc najprościej, zakładają one, że wszyscy postrzegają uczestnictwo w rynku jako korzystne. Tymczasem super-inteligentna sztuczna inteligencja może stosować siłę, aby uzyskać to, czego chce. Może ona przybrać formę przemocy lub pewnej zdolności do perswazji. Jeśli uważasz, że to nie jest prawdopodobne, to znaczy, że nie zastanawiałeś się wystarczająco dużo nad tym, co to znaczy być naprawdę mądrym.

Na szczęście Piccione i Rubinstein (2007) opracowali tzw. ”model dżungli”. W przeciwieństwie do standardowych modeli ogólnej równowagi model dżungli nadaje każdemu podmiotowi moc. Ci, którzy posiadają większą moc, mogą po prostu zabrać zasoby tym, którzy posiadają mniejszą moc. Wytworzona w ten sposób równowaga ma kilka ciekawych właściwości, w tym fakt, że istnieje i że jest efektywna w sensie Pareto.

Jest to przydatne w celu zrozumienia super-inteligentnej sztucznej inteligencji, ponieważ jeśli AI chce pozyskać zasoby, musi znaleźć sposób, aby mieć nad nami władzę. Jeśli nie posiada władzy, to możemy ją kontrolować. Jeśli ją posiada, to może nas kontrolować.

Ponieważ poruszamy się w dziedzinie ekonomii, wiemy, że nie ma nic za darmo, nawet kiedy jesteś sztuczną inteligencją. Aby zwiększyć swoją wydajność w zakresie przerabiania zasobów na spinacze, AI musi gromadzić i wykorzystywać zasoby. Aby zwiększać swoją moc, również musi gromadzić i wykorzystywać zasoby. Oczywiście nie mamy nic przeciwko temu, aby sztuczna inteligencja rozwijała swoje zdolności, aby lepiej wykonywać swoją pracę, ale to właśnie te zdolności prowadzą do spinaczowej apokalipsy.

Samodoskonalenie sztucznej inteligencji

Jeśli sztuczna inteligencja może po prostu uzyskać te zdolności, to mamy problem. Jednakże informatycy uważają, że takie samodoskonalenie będzie miało charakter rekurencyjny. W istocie, aby się rozwinąć, AI musi przepisać swój kod tak, aby stać się nową sztuczną inteligencją. Ta sztuczna inteligencja zachowuje swój jednomyślny cel, ale aby działać efektywnie, będzie również potrzebowała celów podrzędnych. To nic, jeśli celem podrzędnym jest znalezienie lepszych sposobów produkowania spinaczy. Ale sytuacja wygląda zupełnie inaczej, jeśli celem jest zdobycie władzy.

Wnioskiem, który wywodzimy z ekonomii jest to, że chociaż dla człowieka kontrolowanie super-inteligentnej sztucznej inteligencji może być trudne a nawet niemożliwe, to super-inteligentnej sztucznej inteligencji również trudno będzie kontrolować inną sztuczną inteligencję. Uruchamiając sztuczną inteligencję poświęconą zdobywaniu władzy, nasza skromna super-inteligentna sztuczna inteligencja maksymalizująca produkcję spinaczy spuszcza z łańcucha bestię, która będzie nad nią władać. Nasz problem dotyczący kontroli jest również problemem kontroli dla AI. Jeśli sztuczna inteligencja dąży do uzyskania mocy, aby chronić się przed ludźmi, robienie tego poprzez stworzenie super-inteligentnej sztucznej inteligencji o większej mocy niż inteligencja-matka wydawałoby się zbyt ryzykowne.

Tutaj właśnie występuje pewna korzyść dla ludzi. Gdybyśmy stworzyli super inteligencję opartą na zwykłym celu, ta super inteligencja rozumiałaby problem kontroli i związane z nią ryzyko. W związku z tym nie uruchomiłaby żadnych zmian, które mogłyby doprowadzić do uwolnienia mocy spod jej kontroli. Nie musielibyśmy się martwić, że zdobędzie władzę, ponieważ sztuczna inteligencja dokonałaby samoregulacji, aby zapobiec takiemu wynikowi.

Ten optymistyczny scenariusz opiera się na założeniu, że niezbędnym krokiem do samodoskonalenia sztucznej inteligencji byłoby przepisanie jej kodu. Gdyby inteligencja potrafiła „po prostu to zrobić” lub z całkowitą pewnością rozwiązać problem kontroli, to wynikiem może być apokalipsa opisywana przez Bostroma. Musimy wykonać znacznie więcej pracy, aby upewnić się, że jesteśmy zabezpieczeni przed super-inteligentną sztuczną inteligencją, ale przedstawione argumenty sugerują, że większe ryzyko stanowi bardziej tradycyjny scenariusz: człowiek tworzy sztuczną inteligencję w celu zdobycia władzy i odnosi sukces. Pod tym względem na pewno jeszcze nie jesteśmy bezpieczni.

Joshua Gans jest profesorem zarządzania strategicznego i szefem katedry innowacji technicznych i przedsiębiorczości imienia Jeffrey’a S. Skolla w Rotman School of Management na Uniwersytecie Toronto. 

Artykuł po raz pierwszy ukazał się w  VoxEU.org (tam dostępna jest pełna bibliografia). Tłumaczenie i publikacja za zgodą wydawcy.

(CC B NC ND Michael Shaheen)

Tagi