Autor: Mariusz Tomczak

Dziennikarz, politolog specjalizujący się w zagadnieniach europejskich

Ustawa o sztucznej inteligencji a zmiana reguł gry

W połowie marca Parlament Europejski zatwierdził pierwszą na świecie kompleksową regulację dotyczącą sztucznej inteligencji.
Ustawa o sztucznej inteligencji a zmiana reguł gry

©Getty Images

W naszym życiu coraz bardziej obecna jest sztuczna inteligencja , choć nie każdy zdaje sobie z tego sprawę. Ma ona zastosowanie nawet tam, gdzie wykorzystanie komputerów i internetu do niedawna stanowiło raczej wyjątek niż regułę.

Jak to się zaczęło?

Wiosną 2021 r. Komisja Europejska zaprezentowała pierwszą wersję ram prawnych dotyczących AI  (ang. artificial intelligence – AI). To odpowiedź na nowe wyzwania i nieznane wcześniej zagrożenia wynikające z rozwoju nowoczesnych technologii. Tekst nie uwzględniał części zagadnień zawartych w późniejszych wersjach projektu aktu o sztucznej inteligencji (Artificial Intelligence Act – AI Act). Jego treść zmieniała się m.in. za sprawą popularności chatbotów opracowanych przez OpenAI (ChatGPT) i Google (Bard), które unaoczniły ogromne możliwości praktycznego zastosowania sztucznej inteligencji. Nie bez znaczenia były obawy pojawiające się w związku z rozpowszechnianiem zdjęć i filmów przedstawiających sytuacje, które nigdy się nie wydarzyły.

Punkt widzenia

Wstępne porozumienie polityczne w sprawie treści przyszłego aktu prawnego osiągnięto w grudniu 2023 r. W dużej mierze to zasługa Hiszpanii, która kilka miesięcy wcześniej objęła prezydencję w Radzie Unii Europejskiej, uznając zagadnienie dotyczące sztucznej inteligencji za jeden z priorytetów. W toku trójstronnych negocjacji z udziałem przedstawicieli Parlamentu Europejskiego, Komisji Europejskiej i Rady UE ścierały się różne opinie i stanowiska wynikające z odmiennych punktów widzenia. Jedną z osi sporu był dostęp do narzędzi AI przez organy ścigania. Wielu eurodeputowanych domagało się jego ograniczenia, podczas gdy przedstawiciele państw członkowskich na ogół przykładali większą wagę do kwestii bezpieczeństwa niż do prywatności obywateli.

Zobacz również:
Generatywna sztuczna inteligencja a wzrost gospodarczy

„Priorytetem Parlamentu Europejskiego jest dopilnowanie, aby systemy sztucznej inteligencji stosowane w UE były bezpieczne, przejrzyste, identyfikowalne, niedyskryminujące i przyjazne dla środowiska. Systemy sztucznej inteligencji powinny być nadzorowane przez ludzi, aby zapobiegać szkodliwym skutkom” – wskazano w komunikacie opublikowanym na stronie internetowej Europarlamentu. Już na wczesnym etapie prac nad regulacją podkreślano, że AI powinna stać się „godna zaufania”, a „ukierunkowane na człowieka” przepisy muszą zabezpieczać przed nadużyciami ze strony organów publicznych oraz firm.

Ważny miesiąc

Na początku lutego 2024 r. projekt został zaaprobowany przez Komitet Stałych Przedstawicieli Rządów Państw Członkowskich (Coreper), czyli główny organ przygotowawczy Rady UE, którego członkowie reprezentują stanowisko swoich rządów.

W połowie lutego 2024 r. dwie komisje Parlamentu Europejskiego – Rynku Wewnętrznego i Ochrony Konsumentów oraz Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych – formalnie zatwierdziły porozumienie osiągnięte kilka tygodni wcześniej. Wynik głosowania nie pozostawił wątpliwości:

71 eurodeputowanych było za, 8 przeciw, a 7 wstrzymało się od głosu. Parlament Europejski zatwierdził regulację 13 marca 2024 r. zdecydowaną większością głosów (523 eurodeputowanych było za, 46 przeciw, a 49 wstrzymało się). Rozporządzenie weszło w życie 20 dni po publikacji w Dzienniku Urzędowym, ale w pełni zacznie obowiązywać dopiero 24 miesiące później.

Definicja sztucznej inteligencji

Rozporządzenie zostanie oparte na definicji zaproponowanej przez Organizację Współpracy Gospodarczej i Rozwoju (OECD). Zgodnie z nią system AI to system maszynowy, który „dla celów jawnych lub niejawnych wnioskuje na podstawie otrzymanych danych wejściowych, w jaki sposób generować dane, takie jak prognozy, treści, zalecenia lub decyzje”.

Definicja wychodzi naprzeciw oczekiwaniom eurodeputowanych, którzy chcieli, aby była „neutralna technologicznie” i można zastosować ją do przyszłych systemów sztucznej inteligencji. Wydaje się bardzo ogólna, co ma swoje zalety (mimo dynamicznie zachodzących zmian może okazać się ponadczasowa), jak i wady (pojawiają się obawy, że częściowo obejmie oprogramowanie mające niewiele wspólnego z AI).

Niektóre kancelarie prawne mogą nieźle zarobić na próbie rozwikłania wątpliwości narosłych wokół unijnego rozporządzenia. Część ekspertów, a wśród nich nie brakuje prawników, zwraca uwagę, że przynajmniej na początku nie zabraknie sporów o interpretację terminu „wnioskuje” zawartego w przytoczonej wyżej definicji.

Zobacz również:
Globalny wyścig regulacyjny w zakresie AI

Ale wątpliwości wzbudzają także inne kwestie, np. jak bardzo szczegółowe mają być wyjaśnienia, o które będą występować obywatele w przypadku systemów wysokiego ryzyka.

W związku z tym, że rozporządzenie zacznie obowiązywać za dwa lata, część przepisów może nie przystawać do technologii, które jeszcze nie są wykorzystywane na szeroką skalę.

Kary

Regulacja ma opierać się na założeniu, że im wyższe ryzyko wystąpienia szkód społecznych, tym większe powinny być obowiązki i surowsze sankcje za łamanie przepisów. Wysokość kar – w zależności od stopnia ich naruszenia i wielkości przedsiębiorstwa – wyniesie od 1,5 proc. obrotów lub 7,5 mln euro do nawet 7 proc. obrotów lub 35 mln euro.

Jednym z warunków koniecznych będzie zgodność z przepisami o ochronie danych. Wszystkie znaki na niebie i ziemi wskazują, że nie dojdzie do wprowadzenia obowiązkowej moderacji treści, choć było to postulowane przez część unijnych polityków. Na krzywdzące lub dyskryminujące działanie AI będzie można złożyć skargę.

Klasyfikacja według ryzyka

AI Act wprowadzi cztery poziomy ryzyka. Większość obecnie wykorzystywanych systemów sztucznej inteligencji zalicza się do kategorii minimalnego zagrożenia i prawdopodobnie w ogóle nie zostanie objęta unijnym rozporządzeniem. Systemy średniego ryzyka (np. ChatGPT) będą musiały spełnić określone wymogi m.in. w zakresie dokumentacji technicznej, przejrzystości i praw autorskich, a w razie wygenerowania tekstów czy obrazów przez sztuczną inteligencję

trzeba będzie wyraźnie o tym informować. Systemy wysokiego ryzyka, np. wykorzystywane do wpływania na wynik wyborów i zachowania elektoratu czy próbujące przewidywać trendy migracji, zostaną dopuszczone na rynek dopiero po spełnieniu pewnych kryteriów.

Z kolei do systemów nieakceptowalnego ryzyka zaliczono m.in. techniki manipulacyjne, rozpoznawanie emocji w miejscu pracy i placówkach edukacyjnych oraz nieukierunkowane pozyskiwanie wizerunków twarzy z internetu lub monitoringu wizyjnego.

Będą one całkowicie zabronione na obszarze UE podobnie jak kategoryzacja na podstawie cech biometrycznych, pozwalająca wywnioskować dane wrażliwe (np. przekonania religijne, orientację seksualną) czy scoring społeczny, czyli monitorowanie i ocenianie zachowań obywateli pod kątem zgodności z przepisami prawa i zasadami współżycia społecznego. „W przypadku niektórych zastosowań sztucznej inteligencji ryzyko jest nie do przyjęcia” – podkreślono w oficjalnym portalu Rady UE i Rady Europejskiej.

Ważne wyjątki

AI Act ma dotyczyć podmiotów publicznych i prywatnych we wszystkich państwach członkowskich UE. Do przestrzegania nowych przepisów zostaną zobowiązani także dostawcy i firmy wdrażające systemy sztucznej inteligencji z państw trzecich, jeśli będą wykorzystywane na obszarze wspólnoty lub doprowadzą do wywołania niepożądanych skutków. Akt o sztucznej inteligencji nie obejmie obszarów niewchodzących w zakres prawa wspólnotowego ani nie wpłynie na kompetencje państw członkowskich dotyczące bezpieczeństwa narodowego. Nie będzie dotyczył systemów używanych wyłącznie do celów wojskowych czy obronnych, a wykorzystywanie zdalnej identyfikacji biometrycznej zostanie dozwolone m.in. w ramach zapobiegania atakom terrorystycznym. Z części ograniczeń zostaną zwolnione służby specjalne.

Europejski Urząd ds. Sztucznej Inteligencji

Wdrażaniem i egzekwowaniem nowych przepisów zajmie się Europejski Urząd ds. Sztucznej Inteligencji. Decyzję w tej sprawie podjęła Komisja Europejska w drugiej połowie stycznia 2024 r., mając nadzieję, że nowo powołana instytucja ułatwi tworzenie podstaw jednolitego systemu zarządzania AI na obszarze Unii. Ma wykonywać zadania tak, by nie powielać działań innych organów, urzędów oraz agencji.

Urząd jako część struktury administracyjnej Dyrekcji Generalnej ds. Sieci Komunikacyjnych, Treści i Technologii, będzie wykonywał zadania wynikające z AI Act. Zajmie się m.in. opracowywaniem narzędzi, metod i poziomów odniesienia związanych z oceną zdolności systemów sztucznej inteligencji ogólnego przeznaczenia. Będzie również badał przypadki ewentualnego naruszenia przepisów. Cele urzędu są dość ambitne. W preambule decyzji Komisji czytamy, że powinien mieć „globalne znaczenie”, służyć „nadzorowaniu postępów w zakresie modeli sztucznej inteligencji”, ułatwiać prowadzenie „interakcji ze środowiskiem naukowym” oraz „odgrywać kluczową rolę w analizach i testach” czy egzekwowaniu prawa.

©Getty Images

Otwarta licencja


Tagi


Artykuły powiązane

Globalny wyścig regulacyjny w zakresie AI

Kategoria: Trendy gospodarcze
Dlaczego UE powinna skoncentrować się na jakości danych i zasadach przypisania odpowiedzialności za jakość produktu?
Globalny wyścig regulacyjny w zakresie AI

Nowe horyzonty i możliwości zastosowania sztucznej inteligencji w biznesie

Kategoria: Trendy gospodarcze
Ciekawe, kiedy sztuczna inteligencja (SI) wysadzi z rynku ekspertów tej dziedziny, któ-rzy podejmują próby opisywania procesów i pytań, na które jeszcze nie ma odpowiedzi – szczególnie w sytuacji, kiedy stała się ona bardzo szybko jedną z najbardziej transforma-cyjnych technologii naszych czasów, rewolucjonizując branże i zasadniczo zmieniając sposób działania przedsiębiorstw i inicjatyw biznesowych.
Nowe horyzonty i możliwości zastosowania sztucznej inteligencji w biznesie

Jak sztuczna inteligencja może zagrozić stabilności finansowej

Kategoria: Trendy gospodarcze
W miarę jak sztuczna inteligencja wkracza do systemu finansowego to pogłębia istniejące kanały niestabilności i tworzy nowe. W niniejszym artykule opisano kilka takich kanałów: złośliwe i dezinformujące wykorzystanie sztucznej inteligencji, niewłaściwe dostosowanie i unikanie kontroli, a także monokulturę ryzyka i oligopole. Wszystkie one pojawiają się, gdy podatność na zagrożenia ze strony sztucznej inteligencji i problemy gospodarcze, takie jak strategiczna komplementarność, problemy z zachętami i niekompletne umowy, wzajemnie na siebie oddziałują.
Jak sztuczna inteligencja może zagrozić stabilności finansowej