Jak ograniczyć władzę Big Techów

14.06.2020
Potrzebna jest „Karta praw konsumentów nowych technologii”, bo inaczej wielkie firmy technologiczne przejmą kontrolę nad ludzkością za pomocą sztucznej inteligencji – ostrzega prof. Kartik Hosanagar w książce „A Human's Guide to Machine Intelligence”.
Rosik_Machine Intelligence_recenzja_okładka_ok


Algorytmy w coraz większym stopniu decydują o naszym życiu. O tym, kto otrzyma kredyt. O tym, kto zauważy nasz profil na portalu randkowym. O tym, kiedy rozpocząć hamowanie podczas jazdy autem i w jaki sposób. I może nie byłoby w tym nic złego, gdyby nie to, że zaczęły się one wymykać spod kontroli. Coraz częściej sami ich twórcy nie potrafią odpowiedzieć na pytanie, dlaczego dokonały one takiego, a nie innego wyboru – wskazuje prof. Kartik Hosanagar w książce „A Human’s Guide to Machine Intelligence: How Algorithms Are Shaping Our Lives and How We Can Stay in Control” (Viking, 2019).

Prof. Kartik Hosanagar zajmuje się nowymi technologiami i biznesem cyfrowym na Wharton School funkcjonującej w ramach University of Pennsylvania. W swojej karierze założył kilka biznesów, doradzał także takim firmom, jak Google, American Express, Citigroup. Pisze do takich mediów, jak Wired, Forbes czy Harvard Business Review.

Jego książka powstała po wizycie… w muzeum. Pewnego dnia naukowiec wybrał się do National Constitution Center w Filadelfii. Gdy przystanął, by popatrzeć na posągi Ojców Założycieli USA, jego przewodnik o imieniu Bob przypomniał, jak bardzo obawiali się oni tego, że rząd stanie się kiedyś zbyt potężny. Ten strach zmusił ich do uchwalenia „Karty praw Stanów Zjednoczonych”. „Dziś siła korporacji jest niemal nieograniczona” – zauważył Hosanagar. Bob odparł wtedy, że być może potrzebujemy nowego rodzaju „Karty praw dla konsumentów nowych technologii”. Wtedy naukowiec z Wharton School postanowił podjąć rękawicę i wykonać pierwsze kroki w kierunku zaprojektowania i uchwalenia takich przepisów.

Potrzeba „Karty praw konsumentów nowych technologii”

Prof. Hosanagar lubi nazywać siebie technologicznym optymistą. To widać w jego książce, która jest tak naprawdę życzliwym ostrzeżeniem. Jest próbą powstrzymania złych zjawisk, do których może dojść, jeśli rozwój technologii pójdzie w nieodpowiednim kierunku. Naukowiec przekonuje na jej łamach, że przeciętni ludzie muszą zrozumieć, w jaki sposób działają algorytmy, by mogli być odpowiedzialnymi obywatelami, klientami i pracownikami. Przypomina, że już 33 proc. decyzji zakupowych na portalu Amazon oraz około 80 proc. rekomendacji na platformie Netflix to „zasługa” algorytmów, a korzystający z tych dobrodziejstw konsumenci nie mają o tym pojęcia albo to lekceważą. Zdaniem Hosanagara, gros ludzi jest pasywnymi i zupełnie nieświadomymi użytkownikami nowych technologii.

Dlatego, jego zdaniem, „Karta praw konsumentów nowych technologii” powinna zawierać przede wszystkim prawo do uzyskania wyjaśnień (skonstruowanych w możliwie najprostszy sposób – to kolejne prawo), na jakich założeniach działają algorytmy, lub na jakiej zasadzie (czym się kierując) podjęły decyzję w konkretnej sprawie. Takim prawem powinien dysponować każdy konsument i obywatel w stosunku do każdej firmy czy instytucji publicznej.

Dopiero gdy uzyskamy w tym zakresie całkowitą transparentność, będziemy mogli zobaczyć, czy społeczeństwo akceptuje działanie algorytmów. Badania pokazują, że ludzie są w stanie wybaczać błędy innym ludziom, ale nie algorytmom. Wedle społecznej opinii, jeśli sztuczna inteligencja czy algorytmy mają funkcjonować, to muszą to robić w przejrzysty i bezbłędny sposób – podkreśla prof. Hosanagar.

„Co więcej, jeśli doktor podejmie błędną decyzję, skrzywdzi jednego człowieka. Natomiast algorytm stosowany w służbie zdrowia może skrzywdzić dziesiątki, setki, a może i miliony ludzi. To dlatego musimy mieć, jako społeczeństwo, dostęp do tych przysłowiowych czarnych skrzynek, które czarno na białym będą pokazywały działanie tej technologii” – dodaje.

Prof. Hosanagar pokusił się nawet o skonstruowanie czterech pierwszych i – jego zdaniem – podstawowych punktów takiej karty. O dwóch pierwszych była mowa w akapicie powyżej. Punkt trzeci: użytkownicy algorytmów oraz ci, na których decyzje algorytmów mają bezpośredni wpływ, muszą mieć – do pewnego stopnia – możliwość kontrolowania i ograniczania działalności tej technologii. Punkt czwarty: korzystający z algorytmów, lub ci, na których decyzje algorytmów mają bezpośredni wpływ, powinni ponosić odpowiedzialność za nieoczekiwane konsekwencje zautomatyzowanego podejmowania decyzji.

By wyjaśnić, dlaczego obawia się on braku przejrzystości w zakresie tego typu nowych technologii, prof. Hosanagar przywołuje kilka przykładów. Przypomina historię czatbota o imieniu Tay, stworzonego przez firmę Microsoft, który miał się zachowywać jak nastoletnia dziewczyna, a stał się rasistą obrażającym ludzi na Twitterze (funkcjonował tylko kilkanaście godzin, 23 marca 2016 r.). Przypomina wypadki samochodów autonomicznych, które to wypadki na razie zahamowały rozwój tego typu samochodów. Opowiada również historię błyskawicznego krachu (flash crash) na giełdzie z 6 maja 2010 r., podkreślając, że należy ujarzmić rozwój algorytmów, zanim doprowadzą do – nie tylko finansowej – katastrofy.

Nie można liczyć na samoregulację Big Techów

Czy można liczyć na to, że takie firmy, jak Apple, Google czy Facebook dokonają samoregulacji w zakresie zwiększenia przejrzystości działania algorymów, które wykorzystują? Prof. Hosanagar ma wielkie wątpliwości. „Samoregulacja czy samooczyszczenie to jest wielkie wyzwanie, które rzadko kiedy się udaje. Pojawia się więc niebezpieczeństwo, że Big Techy będą miały zbyt wielką władzę. Że za pomocą algorytmów i sztucznej inteligencji zaczną de facto kontrolować społeczeństwo i poszczególne jednostki. To już się stopniowo dzieje. Z drugiej strony nie można doprowadzić do przeregulowania branży technologicznej, bo to będzie oznaczało zastopowanie postępu. Trzeba znaleźć jakiś złoty środek, co nie będzie łatwe. Cała nadzieja w tym, że ustawodawca i obywatele staną się bardziej świadomymi użytkownikami najnowszych rozwiązań technologicznych, co będzie stopniowo prowadziło do zdrowych regulacji” – stwierdza prof. Hosanagar.

W książce „A Human’s Guide to Machine Intelligence” znajdziemy kilka naprawdę ciekawych uwag na temat sztucznej inteligencji i algorytmów. Prof. Hosanagar podnosi na przykład istotny paradoks przewidywalności i odporności (z ang. predictability-resilience paradox). Zwraca uwagę, że jeśli tworzy się inteligentne algorytmy działające w wysoce skomplikowanym środowisku, ustawione „na sztywno” w pewnego rodzaju „szynach”, to one de facto będą bardzo kruche, podatne na uszkodzenia czy skłonne do popełniania błędów. Jeśli ich twórca chce, by były odporne i wytrzymałe, musi wprowadzić w ich DNA nieprzewidywalność i wysoką zdolność uczenia się, a więc musi im „poluzować lejce”. To z kolei prowadzi do pytania, w jaki sposób ludzie mogą nauczyć maszyny rozumieć to, czego nie można powiedzieć? Czy maszyny można wyposażyć w intuicję i ciekawość świata?

Niezwykle ciekawa to książka i zmuszająca do myślenia. Wyjaśnia nie tylko zasady działania słynnej gry AlphaGo i nie tylko opisuje spór o to, czy w samochodach autonomicznych powinna być kierownica, czy nie, ale po prostu zwraca uwagę na niezwykle ważną kwestię, która dotyczy już wszystkich korzystających z jakiejkolwiek nowej technologii. Kwestię nieodwracalnej już chyba wszechobecności algorytmów w życiu codziennym i ich wpływu na rzeczywistość w każdym jej wymiarze: społecznym, politycznym, ekonomicznym. Zaiste, lektura obowiązkowa.


Tagi


Artykuły powiązane