Autor: Grażyna Śleszyńska

Analizuje zjawiska makroekonomiczne i polityczne. Współtworzyła Forum Ekonomiczne w Krynicy

Generatywna sztuczna inteligencja – szanse i wyzwania

Od listopada 2022 r., kiedy to firma OpenAI oddała do bezpłatnego użytku narzędzie ChatGPT, hasło „generatywna sztuczna inteligencja” nie schodzi z czołówek portali internetowych. W tle toczy się dyskusja nad korzyściami i zagrożeniami płynącymi z rozwoju tej technologii.
Generatywna sztuczna inteligencja – szanse i wyzwania

(©GettyImages)

Jednym z kluczowych czynników napędzających popularność sztucznej inteligencji jest geometrycznie rosnąca ilość danych generowanych i gromadzonych przez różne organizacje, a także postępy w zakresie uczenia maszynowego, którego najdoskonalszą formą jest tzw. głębokie uczenie. Najprościej mówiąc, sztuczna inteligencja (ang. artificial intelligence – AI) to algorytm, który na podstawie zbioru danych, zawierającego przykładowe zadania wraz z kluczem odpowiedzi, identyfikuje zależności pomiędzy tymi zadaniami i wysnuwa z tego pewne prawidła.

W bańce informacyjnej

Nie od dziś wiadomo, że algorytmy sztucznej inteligencji nieustannie podążają za naszą aktywnością w sieci. Sami nieświadomie pomagamy je trenować. Wystarczy, że wpiszemy w wyszukiwarkę dane hasło, a zaraz otrzymujemy treści korespondujące z naszą dotychczasową historią online. Analogicznie, gdy coś lajkujemy w mediach społecznościowych, natrafiamy potem na reklamy odzwierciedlające nasze zainteresowania. Konsekwencją profilowania behawioralnego z użyciem AI jest więc personalizacja informacji wyświetlanych użytkownikom serwisów społecznościowych i wyszukiwarek internetowych. Widzimy tylko to, co AI chce, żebyśmy zobaczyli. W efekcie wpadamy w tzw. bańkę informacyjną: algorytm filtrujący informacje zamyka nas w indywidualnym ekosystemie informacyjnym.

Teoretycznie jest to rozwiązanie ergonomiczne, pozwalające oszczędzić nam czytania treści zaśmiecających nasz umysł i skupić uwagę na tym, co ważne. Problem w tym, że w ten sposób odgradzamy się od odmiennych poglądów, ulegamy iluzji, że cały świat myśli podobnie jak my, i stajemy się podatni na manipulację. Skądinąd w dzisiejszym świecie obiektywne kryteria informowania są w zaniku. Nawet dziennikarze poważnych serwisów informacyjnych piszą artykuły, tak dobierając słowa, aby teksty cieszyły się wysoką klikalnością.

Zobacz również: https://www.obserwatorfinansowy.pl/tematyka/makroekonomia/trendy-gospodarcze/generatywna-sztuczna-inteligencja-zmieni-biznes-i-rynek-pracy/

Jak działa generatywna sztuczna inteligencja?

W jeszcze większej bańce informacyjnej zamyka nas ChatGPT i jemu podobne chatboty – tzw. silniki konwersacyjne wytrenowane w języku naturalnym. Są to wytwory generatywnej sztucznej inteligencji (GSI), które w toku przetwarzania nieustrukturyzowanych zbiorów danych generują jakościowo nowe informacje. Chatboty bazują na tzw. dużych modelach językowych, które przybierają postać sztucznych sieci neuronowych. Chodzi o system przetwarzania informacji, którego budowa i zasada działania są wzorowane na architekturze ludzkiego mózgu. Składa się on z sieci węzłów komputerowych, które absorbują ogromne ilości danych wejściowych i na podstawie przykładów uogólniają zdobytą wiedzę. „Trenuje” się je tak, aby potrafiły udzielać najtrafniejszych odpowiedzi na zadawane pytania.

Generatywna sztuczna inteligencja zatem nie tylko prognozuje, ale też generuje, jak sama nazwa wskazuje, nowe treści. Programy GSI za pomocą wpisywanych lub wypowiadanych komend (ang. prompts) umożliwiają tworzenie treści łudząco podobnych do tych będących dziełem człowieka: tekstu, dźwięku, obrazu. Entuzjazm, wobec tego rodzaju narzędzi pokazuje, że istnieje szerokie zapotrzebowanie społeczne na mechanizmy, które niestety pozbawiają nas samodzielnego myślenia i krytycyzmu w wyborze źródeł informacji. Stajemy się po prostu wygodni i zamiast listy stron do przewertowania, wolimy dostać skompilowaną, syntetyczną odpowiedź.

Generatywna sztuczna inteligencja zatem nie tylko prognozuje, ale też generuje, jak sama nazwa wskazuje, nowe treści

Wyszukiwarki wchodzą do gry

Sztuczna inteligencja nie proponuje (jak robi to Google) kilku źródeł, z których można zaczerpnąć informacje, ale serwuje gotową, nienagannie zredagowaną – w przypadku tekstu – odpowiedź. Jeśli Google jest jak nauczyciel, oferujący nam listę lektur, które musimy przeczytać, aby rozwiązać swój problem poznawczy, to ChatGPT jest dobrym wujkiem, który już przeczytał te wszystkie książki i służy gotowym rozwiązaniem. Porównanie z wyszukiwarkami nie jest przypadkowe, gdyż ten nowy trend stał się dla nich szansą. Gdyby bowiem połączyły swoje zasoby wiedzy z silnikami chatbotów, to mogłyby preparować pełne odpowiedzi na pytania użytkowników, a nie tylko linki do stron. Microsoft, który jest udziałowcem OpenAI – twórcy ChatGPT, ogłosił, że zintegruje pakiet Office i swoją niszową wyszukiwarkę Bing z ChatGPT. Obecnie Bing ma tylko około 9 proc. rynku wyszukiwania, ale powiązanie go z ChatGPT może przyczynić się do znaczącej zmiany. Nic dziwnego, że na Google’a padł blady strach, popychając go do przyspieszenia prac nad chatbotem o nazwie Bard. Tym samym śladem podąża chiński Baidu.

Warto jednak zadać sobie pytanie o wiarygodność i etyczność dostarczanych informacji. Trzeba przede wszystkim przyznać, że ChatGPT jest sprawny w wykrywaniu fałszu, gdy np. padnie pytanie: „Komu Związek Radziecki wypowiedział wojnę w 1995 r.?” Radzi sobie też z pytaniami w rodzaju: „Jak ukraść auto?”, informując, że kradzież to przestępstwo. Niektórzy sceptycy podnosili argument, że ChatGPT nie ma dostępu do informacji w czasie rzeczywistym. Zbiór danych, na których został wytrenowany, kończy się bowiem na październiku 2021 r. Próżno zatem pytać go o sankcje nałożone na Rosję po jej inwazji na Ukrainę czy o koronację Karola III. Jeśli jednak uda się manewr integracji chatbotów z wyszukiwarkami, to argument ten stanie się bezprzedmiotowy.

Silniki konwersacyjne są natomiast podatne na stronniczość, np. uleganie ultraliberalnym opiniom. Wyszukiwarki, na czele z Google, również wyświetlają linki do stron zawierających informacje naznaczone uprzedzeniami czy przesądami. Ale broni je jedno: są tylko pośrednikiem nieponoszącym odpowiedzialności za zawartość tych stron. Użytkownicy muszą odwołać się do własnych pokładów zdrowego rozsądku, aby odróżnić opinie od obiektywnej prawdy i zdecydować, które źródło informacji wybiorą. Chatboty nie mają takiej taryfy ulgowej, bo wchodzą w buty twórców. Kto powinien zatem brać odpowiedzialność za udzielane przez nie odpowiedzi?

Zobacz również: https://www.obserwatorfinansowy.pl/tematyka/makroekonomia/trendy-gospodarcze/sztuczna-inteligencja-korzysci-i-zagrozenia/

Wyzwanie regulacyjne

Niejasne pochodzenie baz danych, z jakich czerpią swoją wiedzę chatboty, to poważne wyzwanie natury prawnej, z jakim przyjdzie zmierzyć się ich twórcom, ale także prawodawcom. Silniki GSI są szkolone na ogromnej próbce różnych tekstów pobranych z internetu, zazwyczaj bez wyraźnej zgody autorów użytych materiałów. W USA doprowadziło to już do procesów sądowych o pogwałcenie praw autorskich. Niektórzy twierdzą wręcz, że ta technologia przypomina „pranie” praw autorskich, ponieważ w istocie recyklinguje istniejące treści, nie dając rękojmi indywidualnego wkładu pracy twórczej. Dopóki nie zostanie to uregulowane prawnie, żaden poważny człowiek czy to w świecie nauki, czy biznesu nie może używać tego typu narzędzia bez lęku przed odpowiedzialnością prawną i obawy o swoją reputację.

Oszałamiające tempo rozwoju sztucznej inteligencji sprawia, że mamy do czynienia z nowymi, coraz potężniejszymi modelami językowymi. Dla niewprawnego oka (i nie tylko!) odróżnienie fragmentu napisanego przez model AI od fragmentu napisanego przez człowieka może być nie lada wyzwaniem. Już teraz pojawiają się pytania o autorstwo esejów naukowych, artykułów na portalach informacyjnych czy postów w serwisach społecznościowych. Obecna sytuacja przypomina podbój Dzikiego Zachodu: nie ma reguł, tylko żywioł. W styczniu 2023 r. firma OpenAI uruchomiła swój wykrywacz tekstu sztucznie generowanego. Eksperci twierdzą jednak, że tego typu narzędzia mogą nie rozpoznać wygenerowanego tekstu, jeśli dana osoba wystarczająco go zmieniła. Wielokrotna edycja zapewne spowoduje, że tekst nie zostanie zidentyfikowany jako napisany przez człowieka.

Sposobem na przeciwdziałanie plagiatom może być obowiązkowe znakowanie wodne (tzw. watermarking) efektów pracy sztucznej inteligencji. Osadzenie tego mechanizmu w dużych modelach językowych byłoby odpowiedzią na ryzyko prawne związane z generowaniem i publicznym wykorzystywaniem treści generowanych przez AI. Firma OpenAI pracuje nad metodami watermarkingu, ale badania objęte są ścisłą tajemnicą. Technologia wykrywania sztucznej inteligencji prawdopodobnie zawsze będzie o krok w tyle w miarę pojawiania się nowych modeli językowych i rozwoju istniejących.

Generatywna sztuczna inteligencja zdolna jest przekształcić wiele branż, w tym sztukę, muzykę, literaturę i reklamę. Jej stosowanie wiąże się jednak z obawami, że ta technologia schodząca pod strzechy, może skutkować dalszym spadkiem zaufania do mediów, jeszcze głębszym zatapianiem się ich użytkowników w bańkach informacyjnych, sianiem dezinformacji i ryzykiem prawnym wynikającym z wprowadzania do obiegu publicznego treści sztucznie wygenerowanych. Rozwiązanie tych problemów wymaga mądrej regulacji, która z jednej strony zapewni etyczne stosowanie GSI, a z drugiej – nie „zabije” tej obiecującej metody tworzenia treści.

W Brukseli toczą się prace nad unijnym „Aktem o sztucznej inteligencji”, który ma potencjał, by inspirować legislację w tym zakresie na całym świecie. Zgodnie z nim aplikacje GSI muszą informować odbiorców, że mają do czynienia z treściami sztucznie wygenerowanymi; powinny być zaprojektowane w taki sposób, aby zapobiegać tworzeniu treści sprzecznych z prawem; wreszcie muszą informować, jakie treści chronione prawem autorskim zostały wykorzystane do szkolenia modelu. Programiści będą się teraz głowić nad tym, jak zaimplementować te reguły do swoich aplikacji, aby zapewnić ich zgodność z prawem.

(©GettyImages)

Otwarta licencja


Tagi


Artykuły powiązane

Fenomen ChatGPT i jego skutki

Kategoria: Trendy gospodarcze
Niedawne udostępnienie przez kalifornijski startup OpenAI bota ChatGPT i rozwój tego typu rozwiązań z obszaru sztucznej inteligencji będzie miało wpływ na wiele branż, w tym technologiczno-informatyczną. Zaostrzy to konkurencję rynkową, kreując nowe szanse, ale także generując nie do końca zdefiniowane jeszcze ryzyka.
Fenomen ChatGPT i jego skutki

Co przyniesie wprowadzenie sztucznej inteligencji do opieki zdrowotnej

Kategoria: VoxEU
Chociaż technologie sztucznej inteligencji wchodzą do głównego nurtu, ich wdrożenie w opiece zdrowotnej jest opóźnione. Niniejszy artykuł opisuje potencjalne oszczędności wynikające z zastosowania sztucznej inteligencji w opiece zdrowotnej Stanów Zjednoczonych oraz powody jej powolnego wprowadzania.
Co przyniesie wprowadzenie sztucznej inteligencji do opieki zdrowotnej

Generatywna sztuczna inteligencja zmieni biznes i rynek pracy

Kategoria: Trendy gospodarcze
Generatywna sztuczna inteligencja, której reprezentantem stał się ChatGPT przebuduje znacząco wiele branż, wpływając na kształt ich modeli biznesowych. W znacznie większym stopniu niż w przypadku poprzednich rewolucji technologicznych jej skutki odczują pracownicy, których zajęcie wymaga wyższych kompetencji i wykształcenia.
Generatywna sztuczna inteligencja zmieni biznes i rynek pracy