Autor: Grażyna Śleszyńska

Analizuje zjawiska makroekonomiczne i polityczne. Współtworzyła Forum Ekonomiczne w Krynicy

Generatywna sztuczna inteligencja – szanse i wyzwania

Od listopada 2022 r., kiedy to firma OpenAI oddała do bezpłatnego użytku narzędzie ChatGPT, hasło „generatywna sztuczna inteligencja” nie schodzi z czołówek portali internetowych. W tle toczy się dyskusja nad korzyściami i zagrożeniami płynącymi z rozwoju tej technologii.
Generatywna sztuczna inteligencja – szanse i wyzwania

(©GettyImages)

Jednym z kluczowych czynników napędzających popularność sztucznej inteligencji jest geometrycznie rosnąca ilość danych generowanych i gromadzonych przez różne organizacje, a także postępy w zakresie uczenia maszynowego, którego najdoskonalszą formą jest tzw. głębokie uczenie. Najprościej mówiąc, sztuczna inteligencja (ang. artificial intelligence – AI) to algorytm, który na podstawie zbioru danych, zawierającego przykładowe zadania wraz z kluczem odpowiedzi, identyfikuje zależności pomiędzy tymi zadaniami i wysnuwa z tego pewne prawidła.

W bańce informacyjnej

Nie od dziś wiadomo, że algorytmy sztucznej inteligencji nieustannie podążają za naszą aktywnością w sieci. Sami nieświadomie pomagamy je trenować. Wystarczy, że wpiszemy w wyszukiwarkę dane hasło, a zaraz otrzymujemy treści korespondujące z naszą dotychczasową historią online. Analogicznie, gdy coś lajkujemy w mediach społecznościowych, natrafiamy potem na reklamy odzwierciedlające nasze zainteresowania. Konsekwencją profilowania behawioralnego z użyciem AI jest więc personalizacja informacji wyświetlanych użytkownikom serwisów społecznościowych i wyszukiwarek internetowych. Widzimy tylko to, co AI chce, żebyśmy zobaczyli. W efekcie wpadamy w tzw. bańkę informacyjną: algorytm filtrujący informacje zamyka nas w indywidualnym ekosystemie informacyjnym.

Teoretycznie jest to rozwiązanie ergonomiczne, pozwalające oszczędzić nam czytania treści zaśmiecających nasz umysł i skupić uwagę na tym, co ważne. Problem w tym, że w ten sposób odgradzamy się od odmiennych poglądów, ulegamy iluzji, że cały świat myśli podobnie jak my, i stajemy się podatni na manipulację. Skądinąd w dzisiejszym świecie obiektywne kryteria informowania są w zaniku. Nawet dziennikarze poważnych serwisów informacyjnych piszą artykuły, tak dobierając słowa, aby teksty cieszyły się wysoką klikalnością.

Zobacz również: https://www.obserwatorfinansowy.pl/tematyka/makroekonomia/trendy-gospodarcze/generatywna-sztuczna-inteligencja-zmieni-biznes-i-rynek-pracy/

Jak działa generatywna sztuczna inteligencja?

W jeszcze większej bańce informacyjnej zamyka nas ChatGPT i jemu podobne chatboty – tzw. silniki konwersacyjne wytrenowane w języku naturalnym. Są to wytwory generatywnej sztucznej inteligencji (GSI), które w toku przetwarzania nieustrukturyzowanych zbiorów danych generują jakościowo nowe informacje. Chatboty bazują na tzw. dużych modelach językowych, które przybierają postać sztucznych sieci neuronowych. Chodzi o system przetwarzania informacji, którego budowa i zasada działania są wzorowane na architekturze ludzkiego mózgu. Składa się on z sieci węzłów komputerowych, które absorbują ogromne ilości danych wejściowych i na podstawie przykładów uogólniają zdobytą wiedzę. „Trenuje” się je tak, aby potrafiły udzielać najtrafniejszych odpowiedzi na zadawane pytania.

Generatywna sztuczna inteligencja zatem nie tylko prognozuje, ale też generuje, jak sama nazwa wskazuje, nowe treści. Programy GSI za pomocą wpisywanych lub wypowiadanych komend (ang. prompts) umożliwiają tworzenie treści łudząco podobnych do tych będących dziełem człowieka: tekstu, dźwięku, obrazu. Entuzjazm, wobec tego rodzaju narzędzi pokazuje, że istnieje szerokie zapotrzebowanie społeczne na mechanizmy, które niestety pozbawiają nas samodzielnego myślenia i krytycyzmu w wyborze źródeł informacji. Stajemy się po prostu wygodni i zamiast listy stron do przewertowania, wolimy dostać skompilowaną, syntetyczną odpowiedź.

Generatywna sztuczna inteligencja zatem nie tylko prognozuje, ale też generuje, jak sama nazwa wskazuje, nowe treści

Wyszukiwarki wchodzą do gry

Sztuczna inteligencja nie proponuje (jak robi to Google) kilku źródeł, z których można zaczerpnąć informacje, ale serwuje gotową, nienagannie zredagowaną – w przypadku tekstu – odpowiedź. Jeśli Google jest jak nauczyciel, oferujący nam listę lektur, które musimy przeczytać, aby rozwiązać swój problem poznawczy, to ChatGPT jest dobrym wujkiem, który już przeczytał te wszystkie książki i służy gotowym rozwiązaniem. Porównanie z wyszukiwarkami nie jest przypadkowe, gdyż ten nowy trend stał się dla nich szansą. Gdyby bowiem połączyły swoje zasoby wiedzy z silnikami chatbotów, to mogłyby preparować pełne odpowiedzi na pytania użytkowników, a nie tylko linki do stron. Microsoft, który jest udziałowcem OpenAI – twórcy ChatGPT, ogłosił, że zintegruje pakiet Office i swoją niszową wyszukiwarkę Bing z ChatGPT. Obecnie Bing ma tylko około 9 proc. rynku wyszukiwania, ale powiązanie go z ChatGPT może przyczynić się do znaczącej zmiany. Nic dziwnego, że na Google’a padł blady strach, popychając go do przyspieszenia prac nad chatbotem o nazwie Bard. Tym samym śladem podąża chiński Baidu.

Warto jednak zadać sobie pytanie o wiarygodność i etyczność dostarczanych informacji. Trzeba przede wszystkim przyznać, że ChatGPT jest sprawny w wykrywaniu fałszu, gdy np. padnie pytanie: „Komu Związek Radziecki wypowiedział wojnę w 1995 r.?” Radzi sobie też z pytaniami w rodzaju: „Jak ukraść auto?”, informując, że kradzież to przestępstwo. Niektórzy sceptycy podnosili argument, że ChatGPT nie ma dostępu do informacji w czasie rzeczywistym. Zbiór danych, na których został wytrenowany, kończy się bowiem na październiku 2021 r. Próżno zatem pytać go o sankcje nałożone na Rosję po jej inwazji na Ukrainę czy o koronację Karola III. Jeśli jednak uda się manewr integracji chatbotów z wyszukiwarkami, to argument ten stanie się bezprzedmiotowy.

Silniki konwersacyjne są natomiast podatne na stronniczość, np. uleganie ultraliberalnym opiniom. Wyszukiwarki, na czele z Google, również wyświetlają linki do stron zawierających informacje naznaczone uprzedzeniami czy przesądami. Ale broni je jedno: są tylko pośrednikiem nieponoszącym odpowiedzialności za zawartość tych stron. Użytkownicy muszą odwołać się do własnych pokładów zdrowego rozsądku, aby odróżnić opinie od obiektywnej prawdy i zdecydować, które źródło informacji wybiorą. Chatboty nie mają takiej taryfy ulgowej, bo wchodzą w buty twórców. Kto powinien zatem brać odpowiedzialność za udzielane przez nie odpowiedzi?

Zobacz również: https://www.obserwatorfinansowy.pl/tematyka/makroekonomia/trendy-gospodarcze/sztuczna-inteligencja-korzysci-i-zagrozenia/

Wyzwanie regulacyjne

Niejasne pochodzenie baz danych, z jakich czerpią swoją wiedzę chatboty, to poważne wyzwanie natury prawnej, z jakim przyjdzie zmierzyć się ich twórcom, ale także prawodawcom. Silniki GSI są szkolone na ogromnej próbce różnych tekstów pobranych z internetu, zazwyczaj bez wyraźnej zgody autorów użytych materiałów. W USA doprowadziło to już do procesów sądowych o pogwałcenie praw autorskich. Niektórzy twierdzą wręcz, że ta technologia przypomina „pranie” praw autorskich, ponieważ w istocie recyklinguje istniejące treści, nie dając rękojmi indywidualnego wkładu pracy twórczej. Dopóki nie zostanie to uregulowane prawnie, żaden poważny człowiek czy to w świecie nauki, czy biznesu nie może używać tego typu narzędzia bez lęku przed odpowiedzialnością prawną i obawy o swoją reputację.

Oszałamiające tempo rozwoju sztucznej inteligencji sprawia, że mamy do czynienia z nowymi, coraz potężniejszymi modelami językowymi. Dla niewprawnego oka (i nie tylko!) odróżnienie fragmentu napisanego przez model AI od fragmentu napisanego przez człowieka może być nie lada wyzwaniem. Już teraz pojawiają się pytania o autorstwo esejów naukowych, artykułów na portalach informacyjnych czy postów w serwisach społecznościowych. Obecna sytuacja przypomina podbój Dzikiego Zachodu: nie ma reguł, tylko żywioł. W styczniu 2023 r. firma OpenAI uruchomiła swój wykrywacz tekstu sztucznie generowanego. Eksperci twierdzą jednak, że tego typu narzędzia mogą nie rozpoznać wygenerowanego tekstu, jeśli dana osoba wystarczająco go zmieniła. Wielokrotna edycja zapewne spowoduje, że tekst nie zostanie zidentyfikowany jako napisany przez człowieka.

Sposobem na przeciwdziałanie plagiatom może być obowiązkowe znakowanie wodne (tzw. watermarking) efektów pracy sztucznej inteligencji. Osadzenie tego mechanizmu w dużych modelach językowych byłoby odpowiedzią na ryzyko prawne związane z generowaniem i publicznym wykorzystywaniem treści generowanych przez AI. Firma OpenAI pracuje nad metodami watermarkingu, ale badania objęte są ścisłą tajemnicą. Technologia wykrywania sztucznej inteligencji prawdopodobnie zawsze będzie o krok w tyle w miarę pojawiania się nowych modeli językowych i rozwoju istniejących.

Generatywna sztuczna inteligencja zdolna jest przekształcić wiele branż, w tym sztukę, muzykę, literaturę i reklamę. Jej stosowanie wiąże się jednak z obawami, że ta technologia schodząca pod strzechy, może skutkować dalszym spadkiem zaufania do mediów, jeszcze głębszym zatapianiem się ich użytkowników w bańkach informacyjnych, sianiem dezinformacji i ryzykiem prawnym wynikającym z wprowadzania do obiegu publicznego treści sztucznie wygenerowanych. Rozwiązanie tych problemów wymaga mądrej regulacji, która z jednej strony zapewni etyczne stosowanie GSI, a z drugiej – nie „zabije” tej obiecującej metody tworzenia treści.

W Brukseli toczą się prace nad unijnym „Aktem o sztucznej inteligencji”, który ma potencjał, by inspirować legislację w tym zakresie na całym świecie. Zgodnie z nim aplikacje GSI muszą informować odbiorców, że mają do czynienia z treściami sztucznie wygenerowanymi; powinny być zaprojektowane w taki sposób, aby zapobiegać tworzeniu treści sprzecznych z prawem; wreszcie muszą informować, jakie treści chronione prawem autorskim zostały wykorzystane do szkolenia modelu. Programiści będą się teraz głowić nad tym, jak zaimplementować te reguły do swoich aplikacji, aby zapewnić ich zgodność z prawem.

(©GettyImages)

Otwarta licencja


Tagi


Artykuły powiązane

Generatywna AI kontra twórcy

Kategoria: Sektor niefinansowy
Eksplozja generatywnej sztucznej inteligencji wywołuje niepokój przedstawicieli zawodów twórczych i w ogóle wszelkich branż kreatywnych. Nic dziwnego – wszak ChatGPT, DALL-E lub Midjourney automatyzują zadania związane z pisaniem, projektowaniem czy produkcją artystyczną. W efekcie coraz więcej twórców traci pracę.
Generatywna AI kontra twórcy

Globalny wyścig regulacyjny w zakresie AI

Kategoria: Trendy gospodarcze
Dlaczego UE powinna skoncentrować się na jakości danych i zasadach przypisania odpowiedzialności za jakość produktu?
Globalny wyścig regulacyjny w zakresie AI

Wpływ sztucznej inteligencji na wzrost gospodarczy i zatrudnienie

Kategoria: Trendy gospodarcze
W ciągu ostatniej dekady wykorzystanie sztucznej inteligencji w codziennych zadaniach gwałtownie wzrosło. W badaniu CfM-CEPR z maja 2023 r. poproszono członków europejskiego panelu o oszacowanie wpływu sztucznej inteligencji na globalny wzrost gospodarczy i stopy bezrobocia w krajach o wysokich dochodach w nadchodzącej dekadzie.
Wpływ sztucznej inteligencji na wzrost gospodarczy i zatrudnienie