Autor: Katarzyna Zarzecka

Autorka specjalizuje się w międzynarodowych stosunkach gospodarczych i w problematyce społecznej z perspektywy ekonomicznej

Trzecie spojrzenie na AI – poszukiwanie rozwiązań

Fei-Fei Li, profesor Stanford University, dzieli się perspektywą świata, który stworzył sztuczną inteligencję. W książce „Moje światy sztuczne i realne. Jak narodziła się AI najnowszej generacji” stara się odpowiedzieć na kilka pytań dotyczących tego, jak doszło do obecnej sytuacji i jak temu zaradzić?
Trzecie spojrzenie na AI – poszukiwanie rozwiązań

Okładka książki

Fei-Fei Li nazywana jest matką chrzestną sztucznej inteligencji (AI). Jest też jednym z twórców przełomowego projektu ImageNet oraz byłą szefową Stanford Artificial Intelligence Laboratory. Książka opisuje jej losy, począwszy od bycia jednym z badaczy działającym w naukowej niszy aż do kluczowego momentu, w którym upowszechnianie się AI tworzy nowy punkt zwrotny w rozwoju świata. Autorka jest uczciwa, przyznaje się do błędów, a także używa profesjonalnego słownictwa, co daje możliwość przyjrzenia się „od kuchni” rzeczywistości twórców sztucznej inteligencji. Daje to unikatową perspektywę nie sektora prywatnego i wielkich korporacji, nie działaczy pozarządowych, ale świata nauki, który stworzył AI.

AI – kopiuj/wklej inteligencję biologiczną

Naukowe koncepcje na temat sztucznej inteligencji pojawiały się już w latach 50. XX w. Stosunkowo szybko uzmysłowiono sobie jednak, że nie istnieją skończone reguły mogące zamknąć ludzki umysł w maszynach. W czasie studiów, Li zaczęła interesować się ideą, że ludzką inteligencję i procesy myślowe można zawrzeć w matematycznych kategoriach.

Rozwój AI bezpośrednio łączy się z postępem badań nad mózgiem. Logicznym jest, że bez zrozumienia jego funkcjonowania nie można stworzyć odpowiednich algorytmów mających kopiować funkcje człowieka. Ich postęp był sprzężony z ewolucją technologii wykorzystywanej przez neuronaukę, w tym funkcjonalnego rezonansu magnetycznego czy EEG. Nauka dowodziła, że ludzie odbierają rzeczywistość nie jako zbiór kolorów i konturów, ale jako kategorie. To ułatwiło podejście do tworzenia AI.

Jednym z pierwszych celów Li (wówczas wydawało się to niemożliwe), było sprawienie, by maszyny „przejrzały” – pierwsze sukcesy pojawiły się już w 2003 r. Stworzyła ze współpracownikami one-shot learning, czyli technikę uczenia komputera na podstawie jednego przykładu obrazu. Li argumentuje, że ludzie już po pierwszym zetknięciu się z danym obiektem, są w stanie rozpoznać go w przyszłości. W kolejnych latach rozwijała badania nad wizją komputerową, w tym w zakresie uczenia maszynowego, osiągając kolejne przełomy w nauce. Pojawiały się jednak wyzwania, gdyż rozmijała się percepcja człowieka zaprogramowana do generalizacji i elastyczności, a maszyny, która przez szczegółowe algorytmy najlepiej funkcjonowała w środowisku bez nowych stymulantów. Ponadto postęp sztucznej inteligencji nie byłby możliwy bez rozwoju technologii samych komputerów. Na dalszym etapie na jej doskonalenie wpłynęła kognitywistyka i odkrycie zjawiska mapowania pojęć przez mózg.

W pracy Li kluczowe były i nadal są dane – inteligencja biologiczna nie została zaprojektowana, ale rozwijała się w trakcie zetknięcia się z kolejnymi informacjami, czego brakowało napisanym algorytmom. Podjęła też próby wystawiania algorytmów na takie doświadczenie – milionów danych (w tym przypadku obrazów), by trenować modele. Rozwiązaniem okazały się zapomniane sieci neuronowe, a sam algorytm (AlexNet, 2012 r.) zaczął zachowywać się jak ludzka siatkówka oka. Wtedy też pojawił się „głód” danych.

Zobacz również:

AI dołączy do wyścigu o energię

Zmiany zaszły na wielu polach – niepozorne dotychczas konferencje akademickie dotyczące AI, które przez dziesiątki lat nie zwracały niczyjej uwagi, nagle zaczęły być masowymi medialnymi wydarzeniami, w których udział biorą największe korporacje. Li uświadomiła sobie, jakie są ich zdolności w 2014 r., gdy niezależnie od jej zespołu te same badania przeprowadził Google, a nie naukowcy z innej uczelni. Postęp zaczął być tak szybki, że wyzwaniem dla studentów i profesorów stało się samo nadążanie za bieżącą literaturą.

Autorka, zainspirowana wydarzeniami rodzinnymi, zaczęła pracować nad narzędziami wspomagającymi ochronę zdrowia, które pozwoliłyby ograniczyć błędy medyczne, opierając się na inteligencji otoczenia. Jej prywatne doświadczenie i lata współpracy naukowej, utwierdziły ją w przekonaniu, że maszyny nie mogą w pełni zastąpić pracowników, gdyż to oni mają umiejętności emocjonalne i są „ludzcy”. Sztuczna inteligencja nie powinna rywalizować z człowiekiem, ale powinna zwiększać jego potencjał.

W tym czasie też zaczęło pojawiać się zjawisko konkurowania uczelni wyższych z sektorem prywatnym, mogącym zaproponować nieporównywalnie wyższe wynagrodzenie – walka o studentów, a także pracowników naukowych. Li podaje przykład Ubera, który zrekrutował 40 robotyków tylko z Carnegie Mellon University. Jej doktoranci obejmowali główne stanowiska w takich firmach, jak OpenAI.

W latach 2017–2018 w ramach urlopu naukowego na Standford University autorka została głównym naukowcem ds. sztucznej inteligencji w Google Cloud. Do tej pory zawodowo związana była tylko ze szkolnictwem wyższym, a to było jej pierwsze zetknięcie z sektorem prywatnym. Odcisnęło ono na niej ślad i zmieniło kurs jej dalszej aktywności. Doświadczyła przepaści pomiędzy dostępnymi zasobami badań w porównaniu nawet z taką uczelnią, jak Stanford. Jak sama przyznaje, możliwości przekroczyły jej wyobrażenia – zaczynając od niewiarygodnej liczby ekspertów z tytułami doktorów do tworzenia zespołów, poprzez nieporównywalną skalę badań, w tym dostęp do olbrzymiej ilości danych, aż po same środki finansowe. Dysproporcje w porównaniu z budżetami uczelni doprowadziły do tego, że badania prowadzone w sektorze prywatnym zaczęły być jedyną alternatywą. Według Li, AI stała się ekskluzywnym przywilejem. Dostrzega ona zagrożenia, jakie niesie sztuczna inteligencja, w tym rosnącą wyłączność w tej sferze gigantów technologicznych, mogącą prowadzić do cyfrowego autorytaryzmu. Autorka stwierdziła: „Co sprawia, że firmy z Doliny Krzemowej są tak potężne? Nie chodzi tylko o ich miliardy dolarów, miliardy użytkowników czy nawet niebotyczną moc obliczeniową i magazyny danych, które przyćmiewają zasoby laboratoriów akademickich. Są one potężne, ponieważ pod ich dachem pracują tysiące wyjątkowo utalentowanych umysłów. Ale mogą one jedynie okiełznać te umysły – nie kształtując ich. Wielokrotnie widziałam konsekwencje tego: genialnych technologów, którzy potrafili zbudować prawie wszystko, ale patrzyli pustym wzrokiem, gdy poruszono kwestię etyki ich pracy”.

Rozwiązania

Identyfikacja zagrożeń bez szukania na nie odpowiedzi prowadzi do poczucia fatalizmu i ma w sobie mało konstruktywności. Li, chroniąc prace badawcze przed monopolizacją przez największe korporacje technologiczne, zaangażowała się też w powołanie wspólnej platformy National Research Cloud, mającej rozwijać AI, która opierałaby się wyłącznie na publicznych funduszach i zasobach, a nie na sektorze prywatnym. Ma ona zapewnić dostęp do badań nad sztuczną inteligencją dla akademików, trzeciego sektora, rządów i startupów.

Doświadczenie Li w pracy w tym sektorze oraz rosnące nieprawidłowości w przestrzeni AI, uświadomiły jej potrzebę stworzenia ram etycznych przy tworzeniu sztucznej inteligencji, jakie występują w innych branżach. Kluczowe jest dla niej to, jak AI traktuje człowieka na każdym etapie. Stała się ona pomysłodawczynią Instytutu Stanforda ds. Sztucznej Inteligencji Zorientowanej na Człowieka (Standford HAI) i obecnie jest jednym z jego dyrektorów. HAI to platforma akademicka, pracująca nad zintegrowaną interdyscyplinarną kooperacją w zakresie AI i najnowszych trendów, stawiająca w centrum ludzi. W przestrzeni HAI znajdują się propozycje rozwiązań oparte na wiedzy i praktyce światowych ekspertów.

Zobacz również:

Czy roboty nas zastąpią, czy do nas dołączą?

Niezmiennym argumentem przeciwko AI jest utrata pracy przez ludzi – nie ma jednego kontrargumentu przez jego wieloaspektowość. Sztuczna inteligencja, na co wskazuje James M. Manyika, amerykański konsultant akademicki, wiceprezes w Google-Alphabet, w kooperacji z HAI, będzie przejmowała zadania, które najłatwiej są dostosowane do automatyzacji. Przez zmiany technologiczne będą tworzone nowe miejsca pracy, część stanowisk ulegnie zamknięciu, ale duża część po prostu zostanie zmodyfikowana. Manyika wyjaśnia: „w rzeczywistości udział miejsc pracy i zawodów, które można w pełni zautomatyzować pod względem wszystkich ich składowych czynności, jest stosunkowo niewielki, przynajmniej przez następne kilka dekad”. Przewiduje on, że AI wpłynie pozytywnie na wyniki pracowników i przez najbliższe kilkadziesiąt lat nie będzie im groził brak pracy. Uwaga natomiast powinna zostać skoncentrowana na sposobach wspierania przekwalifikowania i adaptacji zatrudnionych w zanikających zawodach do tych, które się rozwijają, co jest związane z tematem (często pomijanym przez przedsiębiorstwa) inwestowania w kapitał ludzki. Istnieje jeszcze jeden kontekst – często praca podlegająca automatyzacji znajduje się najniżej w hierarchii płac, co może być szansą, żeby wspomóc pracownika do wejścia na wyższy szczebel na zawodowej drabinie.

Fei-Fei Li, zamiast zanurzać się w determinizmie, podkreśla wagę włączania pracowników w procesy technologiczne. Dzięki temu są one lepiej projektowane oraz wzmacnia się współpracę ludzi z maszynami. Wydaje się, że konieczna jest zmiana narracji, co może przyczynić się do lepszych propozycji – Mary Kay Henry, wieloletnia prezes Service Employees International Union, w dyskusjach HAI nakreśliła przykład Szwecji, gdzie podjęto decyzję o ochronie pracowników, a nie miejsc pracy (gwarancja płacy, wsparcie przy przekwalifikowaniu).

Zobacz również:

Prawo autorskie hamuje rozwój technologii GenAI

Sferą, w której pilnie potrzebne są rozwiązania są prawa obywatelskie i nadzór nad firmami technologicznymi. Sonia Katyal z UC Berkeley School of Law w ramach HAI argumentuje, że firmy nie będą się samoregulować. Coraz częstsza jest konsolidacja podmiotów na rynku, co powoduje małą liczbę przedsiębiorstw dysponujących niebotycznymi zbiorami danych. Prowadzi to do wysokiego ryzyka ochrony prywatności i wolności słowa. Zdaniem Katyal, korporacje zgadzają się na szerzenie dezinformacji, gdyż przekłada się to na zyski ich modeli biznesowych. Jako rozwiązanie proponuje zobligowanie firm do sporządzania szczegółowych oświadczeń o potencjalnym wpływie ich sztucznej inteligencji na poszczególne społeczności. Można również stworzyć wymóg przestrzegania odpowiednich kodeksów obejmujących ramy etyczne przez osoby zaangażowane w tworzenie AI, kształtujących tym samym pożądaną kulturę w organizacji. Innym sposobem są pozwy sądowe, które tworzą precedensy i na tej podstawie rozliczane mogą być korporacje.

Kluczowe w tym względzie okaże się wzmocnienie ochrony sygnalistów. Katyal podaje, że w przeszłości część z nich nie otrzymała wystarczającej pieczy, wpływając na ich reputację i zwolnienia związane ze zgłaszaniem obaw wykorzystywania AI np. w Google. W tych bataliach firmy zasłaniają się ochroną tajemnicy handlowej (w tym algorytmów AI).

Z powyższym wiąże się również sama etyka korporacji. Susan Liautaud, wykładowca Stanford Law School, sygnalizuje istotność odróżniania społecznej odpowiedzialności biznesu, będącej m.in. działaniami filantropijnymi i różnorodnymi programami (które też powinny być etyczne) od etyki korporacyjnej, czyli podejmowania etycznych decyzji w całym zarządzaniu organizacją. Działania CSR nie zamazują codziennego działania przedsiębiorstwa. Liautaud wskazuje na problematyczność samych modeli biznesowych i wykorzystywanych przez nie algorytmów, które doprowadzają użytkowników przez konkretne treści do coraz większej radykalizacji (tworząc ze społeczeństwa „silosy”) czy przywiązania przez maksymalizowanie liczby par oczu na ekranach przez maksymalną ilość czasu. Takie działania określa jako czystą chciwość. Prowadzi to do uzależnień, w tym szczególnie dzieci. Jako przykład rozwiązania podaje chiński rząd, który ze względu na powszechne uzależnienie od jednej z gier nakazał jej właścicielowi ograniczyć czas, w którym dziecko może z niej korzystać. Wykorzystano do tego technologię rozpoznawania oczu, przez co nie było możliwości obejścia ograniczeń. Kluczowe jest samo zwiększanie przejrzystości. Liautaud uzasadnia, że jeśli istnieje obowiązek informowania o ryzyku na paczkach papierosów, to należałoby zawrzeć podobną informację o ryzyku uzależnienia w regulaminach mediów społecznościowych.

Pozytywne zmiany są możliwe tylko dzięki opieraniu się na dialogu naukowców z wielu dziedzin, wspólnym podejmowaniu inicjatyw i pamiętaniu, że sztuczną inteligencję tworzą ludzie.

 

Autorka wyraża własne opinie, a nie oficjalne stanowisko instytucji, w której jest zatrudniona.

Okładka książki

Otwarta licencja


Tagi


Artykuły powiązane

Globalny wyścig regulacyjny w zakresie AI

Kategoria: Trendy gospodarcze
Dlaczego UE powinna skoncentrować się na jakości danych i zasadach przypisania odpowiedzialności za jakość produktu?
Globalny wyścig regulacyjny w zakresie AI

Nic co ludzkie nie będzie nam obce

Kategoria: Trendy gospodarcze
Każdego ranka, gdy smartfon budzi nas i dostarcza spersonalizowane wiadomości oraz prognozę pogody na podstawie naszej lokalizacji, wchodzimy w interakcję z AI. Zadajemy pytania Siri lub Alexii, które stały się codziennymi kompankami, jednocześnie ufając, że Google Maps zrobi dla nas analizę ruchu ulicznego w czasie rzeczywistym, aby zaplanować jak najszybszą trasę do pracy. Spotify dobiera muzykę zgodnie z naszymi wcześniejszymi preferencjami, a Chat GPT, na naszą prośbę redaguje tekst wiadomości, którą mamy zamiar wysłać e-mailem. W końcu sprawdzamy konto bankowe i nawet nie zastanawiamy się, jak działają aplikacje chroniące nas przed oszustwami i oferujące spersonalizowane porady finansowe.
Nic co ludzkie nie będzie nam obce

Wpływ sztucznej inteligencji na wzrost gospodarczy i zatrudnienie

Kategoria: Trendy gospodarcze
W ciągu ostatniej dekady wykorzystanie sztucznej inteligencji w codziennych zadaniach gwałtownie wzrosło. W badaniu CfM-CEPR z maja 2023 r. poproszono członków europejskiego panelu o oszacowanie wpływu sztucznej inteligencji na globalny wzrost gospodarczy i stopy bezrobocia w krajach o wysokich dochodach w nadchodzącej dekadzie.
Wpływ sztucznej inteligencji na wzrost gospodarczy i zatrudnienie