Zagrożenia nieuregulowanej sztucznej inteligencji

Obecne technologie oparte na sztucznej inteligencji (AI) zamiast obiecywanych korzyści przyniosą raczej różne negatywne konsekwencje społeczne. Głównym problemem nie jest sama AI, ale sposób, w jaki największe firmy podchodzą do danych i ich wykorzystania.
Zagrożenia nieuregulowanej sztucznej inteligencji

(©Envato)

Strategia powinna skoncentrować się na przekierowaniu zmian technologicznych w celu stworzenia nowych zdolności i możliwości dla pracowników i obywateli.

Sztuczna inteligencja (AI) jest często przedstawiana jako najbardziej ekscytująca technologia naszych czasów, która miałaby wyraźnie przekształcić gospodarkę, życie i możliwości produkcji i usług. Niektórzy uważają nawet, że AI osiąga stałe postępy w kierunku rozwoju „inteligentnych maszyn”, które wkrótce przewyższą ludzkie umiejętności w większości dziedzin.

W ciągu ostatnich kilkunastu lat AI rzeczywiście odnotowała szybki postęp, zwłaszcza dzięki zastosowaniu nowoczesnych technik statystycznych i uczenia maszynowego do ogromnych, nieuporządkowanych zbiorów danych. Wywarła już wpływ na niemal wszystkie branże: algorytmy AI są obecnie wykorzystywane przez wszystkie platformy internetowe oraz w branżach, które obejmują produkcję, zdrowie, finanse, sprzedaż hurtową i detaliczną. Agencje rządowe również zaczęły korzystać z AI, szczególnie w systemie sądownictwa karnego oraz w kontroli celnej i kontroli migracji.

W jednym z ostatnich artykułów przedstawiam argumenty potwierdzające, że obecne technologie AI – zwłaszcza oparte na dominującym obecnie paradygmacie polegającym na statystycznym rozpoznawaniu wzorców i big data – zamiast obiecywanych korzyści, mogą raczej generować różne negatywne konsekwencje społeczne.

Szkody te można dostrzec na rynkach produktów i w reklamie, pod względem nierówności, ograniczania płac i likwidacji miejsc pracy na rynkach pracy. Istotne są także społeczne konsekwencje AI w kontekście komunikacji społecznej, dyskursu politycznego i demokracji.

Sztuczna inteligencja, kontrola informacji i rynki produktowe

We wszystkich tych przypadkach głównym problemem nie są technologie AI per se, ale sposób, w jaki największe firmy, które mają wielki wpływ na kierunek rozwoju technologii AI, podchodzą do danych i ich wykorzystania.

Zwróćmy uwagę na wykorzystanie metod uczenia maszynowego i big data w reklamie i projektowaniu produktów. Chociaż zasadniczo metody te mogą przynosić korzyści konsumentom – na przykład poprzez poprawę jakości produktów i umożliwienie dostosowania ich do indywidualnych potrzeb – mogą one ostatecznie wywierać różne negatywne skutki na dobrobyt konsumentów.

Przedsiębiorstwa, które uzyskują więcej informacji o swoich klientach, mogą wykorzystać tę wiedzę do dyskryminacji cenowej, potencjalnie przechwytując więcej zysków, które w przeciwnym razie trafiłyby do konsumentów. Na rynku oligopolistycznym, zbieranie danych o konsumentach może również rozluźnić konkurencję cenową. Z praktycznego punktu widzenia może się to zdarzyć, gdy dyskryminacja cenowa stosowana przez przedsiębiorstwo posiadające większą wiedzę sprawia, że jego podstawowa klientela staje się mniej atrakcyjna dla innych przedsiębiorstw, zachęcając je do podniesienia cen. Taka presja na wzrost cen oczywiście jeszcze bardziej zaszkodziłaby dobrobytowi konsumentów.

Przedsiębiorstwa, które uzyskują więcej informacji o swoich klientach, mogą wykorzystać tę wiedzę do dyskryminacji cenowej, potencjalnie przechwytując więcej zysków.

Inne zastosowania tych nowych technik mogą być jeszcze bardziej szkodliwe dla konsumentów. Platformy internetowe mogą zacząć kontrolować nadmierną ilość informacji o swoich użytkownikach, ponieważ kiedy kupują lub pozyskują dane niektórych użytkowników, dostarcza im to również informacji o innych użytkownikach.

Prawdopodobieństwo wystąpienia tego rodzaju „zewnętrznych efektów danych” jest większe, kiedy użytkownicy bezpośrednio ujawniają informacje o swoich znajomych i kontaktach lub kiedy dzielą się informacjami powiązanymi z informacjami innych osób należących do tej samej wąskiej grupy demograficznej. Zewnętrzne efekty danych mogą przyczynić się do skoncentrowania zbyt dużej ilości danych w rękach przedsiębiorstw, co ma negatywne skutki dla prywatności i nadwyżki konsumentów.

Co gorsza, firmy mogą wykorzystywać swoje wyjątkowe informacje o preferencjach konsumentów do manipulowania ich zachowaniem. Manipulacje behawioralne nie są powszechne w modelach, w których konsumenci są w pełni racjonalni. Są jednak całkiem prawdopodobne, jeśli konsumenci nie do końca rozumieją, jak bardzo nowe metody gromadzenia i przetwarzania danych wykorzystywane są do śledzenia i przewidywania ich zachowań.

Czy możliwa jest całkowita automatyzacja produkcji – i jakie byłyby jej skutki?

Podstawową ideę takich manipulacji zrozumieli analitycy prawa antymonopolowego, tacy jak Hanson i Kysar, którzy zauważyli, że „z chwilą, kiedy zaakceptujemy, że jednostki systematycznie zachowują się w nieracjonalny sposób, z perspektywy ekonomicznej wynika, że inni będą wykorzystywać te skłonności dla zysku”. Rzeczywiście reklama zawsze wiązała się z pewnym elementem manipulacji. Jednakże zakres takiej manipulacji mógł zostać rozszerzony przez narzędzia sztucznej inteligencji.

Istnieje już kilka przykładów manipulacji opartych na AI. Należą do nich: sieć sklepów Target z powodzeniem przewidująca, czy kobiety są w ciąży i wysyłająca im ukryte reklamy produktów dla dzieci lub różne firmy szacujące „momenty największej podatności” i reklamujące produkty, które wywołują tendencję do spontanicznego zakupu w takich momentach. Mogą one również obejmować platformy, takie jak YouTube i Facebook wykorzystujące swoje algorytmy do szacowania i faworyzowania bardziej uzależniających filmów lub kanałów informacyjnych dla określonych grup użytkowników.

AI i nierówności na rynku pracy

Skutki technologii opartych na sztucznej inteligencji w kontekście rynku pracy mogą być jeszcze bardziej szkodliwe. Nierówności na rynku pracy wzrosły w USA i kilku innych rozwiniętych gospodarkach, a wiele dowodów wskazuje na to, że jest to spowodowane częściowo szybkim przyjęciem i wdrożeniem technologii automatyzacji, które wypierają pracowników o niskich i średnich kwalifikacjach z zadań, które wcześniej wykonywali. Taka automatyzacja i jej negatywne konsekwencje w postaci nierówności wystąpiły jeszcze przed rozwojem AI.

Niemniej jednak Acemoglu i in. stwierdzają, że przyspieszenie AI w USA od 2016 r. ukierunkowane było na automatyzację i przyniosło podobne efekty jak inne technologie automatyzacji. Sztuczna inteligencja i szerokie wykorzystanie danych prawdopodobnie zwielokrotnią możliwości automatyzacji, a tym samym mogą pogłębić trendy nierówności, których USA i inne rozwinięte gospodarki doświadczały przez ostatnie kilkadziesiąt lat.

Zasadniczo automatyzacja może przyczynić się do zwiększenia wydajności. Istnieją jednak również powody, aby oczekiwać, że może się to odbywać w sposób nieefektywny. Ważną przyczyną takiego stanu rzeczy jest występowanie niedoskonałości rynku pracy, które zwiększają koszt pracy dla firm powyżej jej społecznego kosztu alternatywnego. Zgodnie z tym scenariuszem, firmy będą się automatyzować, aby przenieść zyski z pracowników na siebie, nawet jeśli taka automatyzacja zmniejszy nadwyżkę społeczną.

Inne zastosowania AI mogą mieć jeszcze bardziej negatywne skutki. Obejmują one wykorzystanie sztucznej inteligencji i danych z miejsca pracy w celu intensyfikacji monitorowania pracowników. Ponownie, kiedy istnieją zyski pracowników (z powodu negocjowania cen lub z uwagi na płacę opartą na efektywności), większy monitoring może być korzystny dla firm, ponieważ pozwoli im odzyskać takie zyski od pracowników. Jednakże przy takim samym rozumowaniu, takie przenoszenie zysków jest społecznie nieefektywne i zbyteczne – na marginesie, jest to kosztowne działanie, które nie przyczynia się do powstania nadwyżki społecznej, ale przenosi ją z jednej grupy podmiotów do innej.

Sztuczna inteligencja, dyskurs społeczny i demokracja

Automatyzacja oparta na AI może mieć również inne negatywne skutki. Chociaż nie jest prawdopodobne, aby w najbliższym czasie doprowadziło to do masowego bezrobocia (skutki utraty pracy spowodowane innymi technologiami automatyzacji były jak dotąd umiarkowane), wypieranie pracowników ma różne społecznie destrukcyjne skutki.

Obywatele z mniejszym przywiązaniem do pracy mogą w mniejszym stopniu uczestniczyć w działaniach obywatelskich i polityce. Co ważniejsze, automatyzacja przesuwa równowagę sił z pracy na kapitał, a to może mieć daleko idące konsekwencje dla funkcjonowania instytucji demokratycznych. Inaczej mówiąc, w zakresie, w jakim polityka demokratyczna zależy od tego, czy praca i kapitał dysponują przeciwstawnymi siłami, automatyzacja może zaszkodzić demokracji, czyniąc pracę zbędną w procesie produkcji.

Obywatele z mniejszym przywiązaniem do pracy mogą w mniejszym stopniu uczestniczyć w działaniach obywatelskich i polityce.

Wpływ AI na demokrację nie ogranicza się do jej oddziaływania poprzez automatyzację. Jedną z dziedzin, która do tej pory została najbardziej radykalnie przekształcona przez AI, jest komunikacja i odbiór wiadomości, zwłaszcza za pośrednictwem produktów i usług oferowanych przez różne platformy mediów społecznościowych. Wykorzystanie AI i gromadzenie danych o użytkownikach już zmieniło dyskurs społeczny, a istniejące dowody wskazują, że przyczyniło się do polaryzacji i zmniejszyło wspólne rozumienie faktów i priorytetów, które jest kluczowe dla polityki demokratycznej.

Jak przewidział 20 lat temu Cass Sunstein, „rozdrobnienie i ekstremizm (…) są przewidywalnymi efektami każdej sytuacji, w której podobnie myślący ludzie rozmawiają tylko ze sobą”. Podkreślał, że „bez wspólnych doświadczeń, zróżnicowane społeczeństwo będzie miało znacznie większe trudności w rozwiązywaniu problemów społecznych”. Wydaje się, że media społecznościowe napędzane przez sztuczną inteligencję przyczyniły się z jednej strony do tego rodzaju rozdrobnienia i ekstremizmu, a z drugiej do rozpowszechniania dezinformacji.

Sztuczna inteligencja nie gra w kości. Na razie gra w piłkę

Problem kierunku rozwoju technologii

Dotychczasowy ton niniejszego artykułu może sprawiać wrażenie, że AI będzie miała katastrofalne skutki społeczne i że jestem jej zdecydowanie przeciwny. Ani jedno, ani drugie nie jest prawdą. Sztuczna inteligencja jest obiecującą platformą technologiczną. Problem leży w obecnym kierunku, w jakim ta technologia jest rozwijana i wykorzystywana: do wzmocnienia pozycji korporacji (a czasem rządów) kosztem pracowników i konsumentów. To obecne podejście jest konsekwencją praktyk biznesowych i priorytetów korporacji kontrolujących AI, a także zachęt, jakie stwarza to dla badaczy AI.

Weźmy na przykład media społecznościowe. Główną przyczyną problemów, na które zwróciłem uwagę, jest to, że platformy starają się zmaksymalizować zaangażowanie poprzez zapewnienie, że użytkownicy są „uwikłani”. Cel ten jest zakorzeniony w ich modelu biznesowym, który koncentruje się na monetyzacji danych i ruchu konsumenckiego poprzez reklamę. Ułatwia to dodatkowo fakt, że nie są one regulowane.

Podobna sytuacja występuje w przypadku negatywnych skutków automatyzacji. AI może być wykorzystywana do zwiększania ludzkiej produktywności i generowania nowych zadań dla pracowników. Fakt, że jest ona wykorzystywana głównie do automatyzacji, jest wyborem. Ten wybór kierunku rozwoju technologii jest stymulowany przez priorytety wiodących firm technologicznych i modele biznesowe skoncentrowane na automatyzacji algorytmicznej.

Bardziej ogólną kwestią jest to, że obecna ścieżka rozwoju AI wzmacnia pozycję korporacji kosztem pracowników i obywateli, a często także dostarcza rządom dodatkowych narzędzi kontroli do inwigilacji, a czasem nawet represji (takich jak nowe metody cenzury i oprogramowanie do rozpoznawania twarzy).

Wniosek: Potrzeba regulacji

Takie rozumowanie prowadzi do prostego wniosku: obecne problemy AI są problemami nieuregulowanej AI, która pomija swoje szersze konsekwencje społeczne i dystrybucyjne. W rzeczywistości oczekiwanie, że nieuregulowane rynki dokonałyby właściwych kompromisów między problemami społecznymi a zyskami z monopolizacji danych, jest naiwnością.

Perspektywa ta sugeruje również, że problem nie dotyczy wyłącznie siły monopolistycznej. Gdyby istniało więcej niż kilka dużych firm technologicznych, nie ma gwarancji, że miałyby one różne modele biznesowe i różne podejście do AI. Dlatego też ochrona konkurencji nie jest najsilniejszym, a na pewno niewystarczającym narzędziem do radzenia sobie z potencjalnymi szkodami, jakie niesie ze sobą AI.

Zamiast tego strategia powinna skoncentrować się na przekierowaniu zmian technologicznych poza automatyzację i gromadzenie danych w celu wzmocnienia pozycji korporacji na rzecz tych, które tworzą nowe możliwości i szanse dla pracowników i obywateli. Priorytetem powinno być również systematyczne regulowanie gromadzenia i pozyskiwania danych oraz wykorzystywania nowych technik sztucznej inteligencji do manipulowania zachowaniem użytkowników oraz komunikacją i wymianą informacji w Internecie.

Priorytetem powinno być systematyczne regulowanie gromadzenia i pozyskiwania danych oraz wykorzystywania nowych technik sztucznej inteligencji do manipulowania zachowaniem użytkowników oraz komunikacją i wymianą informacji w Internecie.

Biorąc pod uwagę wszechobecny charakter AI i danych, sugerowałbym również nowe podejście regulacyjne, które można określić mianem „zasady regulacji ostrożnościowej”: regulacja ex ante powinna spowolnić wykorzystanie technologii AI, zwłaszcza w dziedzinach, w których wyrównanie kosztów AI stanie się politycznie i społecznie trudniejsze po wdrożeniu na dużą skalę.

Technologie AI mające wpływ na dyskurs polityczny i politykę demokratyczną mogą być pierwszymi kandydatami do zastosowania takiej zasady regulacji ostrożnościowej, w zakresie, w jakim (nadmierna) automatyzacja i jej społeczne konsekwencje byłyby trudne do odwrócenia, podobnie jak wykorzystanie sztucznej inteligencji do automatyzacji i monitorowania rynku pracy.

 

Daron Acemoğlu
Profesor ekonomii stosowanej, Massachusetts Institute of Technology (MIT)

 

Artykuł ukazał się w wersji oryginalnej na platformie VoxEU, tam też dostępne są przypisy i bibliografia.

(©Envato)

Tagi


Artykuły powiązane

Wpływ pandemii na wykorzystanie sztucznej inteligencji w bankowości

Kategoria: Instytucje finansowe
Wybuch pandemii COVID-19 nie zahamował apetytu europejskich banków na wdrażanie rozwiązań z obszaru uczenia maszynowego lub analizy danych, ale może w perspektywie krótkoterminowej ograniczyć ich zdolność do inwestowania w sztuczną inteligencję.
Wpływ pandemii na wykorzystanie sztucznej inteligencji w bankowości

UE na drodze do regulacji sztucznej inteligencji

Kategoria: Analizy
Komisja Europejska zmierza do utworzenia od połowy 2021 roku europejskiego Jednolitego Cyfrowego Rynku i podjęcia konkurencji z rywalami z USA i Chin. Temu ma służyć zaproponowana właśnie przez KE wizja strategii i regulacji rozwoju sztucznej inteligencji w Unii.
UE na drodze do regulacji sztucznej inteligencji

Uspołecznić roboty! Zanim one zahamują postęp

Kategoria: Trendy gospodarcze
Obecny kryzys jeszcze wzmocni presję na dalszą automatyzację rozwiniętych gospodarek. Czy da się sprawić, żeby robotyzacja nie zamieniła naszego świata w jeden wielki kapitalistyczny obóz ciężkiej pracy?
Uspołecznić roboty! Zanim one zahamują postęp