©Getty Images
W naszym życiu coraz bardziej obecna jest sztuczna inteligencja , choć nie każdy zdaje sobie z tego sprawę. Ma ona zastosowanie nawet tam, gdzie wykorzystanie komputerów i internetu do niedawna stanowiło raczej wyjątek niż regułę.
Jak to się zaczęło?
Wiosną 2021 r. Komisja Europejska zaprezentowała pierwszą wersję ram prawnych dotyczących AI (ang. artificial intelligence – AI). To odpowiedź na nowe wyzwania i nieznane wcześniej zagrożenia wynikające z rozwoju nowoczesnych technologii. Tekst nie uwzględniał części zagadnień zawartych w późniejszych wersjach projektu aktu o sztucznej inteligencji (Artificial Intelligence Act – AI Act). Jego treść zmieniała się m.in. za sprawą popularności chatbotów opracowanych przez OpenAI (ChatGPT) i Google (Bard), które unaoczniły ogromne możliwości praktycznego zastosowania sztucznej inteligencji. Nie bez znaczenia były obawy pojawiające się w związku z rozpowszechnianiem zdjęć i filmów przedstawiających sytuacje, które nigdy się nie wydarzyły.
Punkt widzenia
Wstępne porozumienie polityczne w sprawie treści przyszłego aktu prawnego osiągnięto w grudniu 2023 r. W dużej mierze to zasługa Hiszpanii, która kilka miesięcy wcześniej objęła prezydencję w Radzie Unii Europejskiej, uznając zagadnienie dotyczące sztucznej inteligencji za jeden z priorytetów. W toku trójstronnych negocjacji z udziałem przedstawicieli Parlamentu Europejskiego, Komisji Europejskiej i Rady UE ścierały się różne opinie i stanowiska wynikające z odmiennych punktów widzenia. Jedną z osi sporu był dostęp do narzędzi AI przez organy ścigania. Wielu eurodeputowanych domagało się jego ograniczenia, podczas gdy przedstawiciele państw członkowskich na ogół przykładali większą wagę do kwestii bezpieczeństwa niż do prywatności obywateli.
Zobacz również:
Generatywna sztuczna inteligencja a wzrost gospodarczy
„Priorytetem Parlamentu Europejskiego jest dopilnowanie, aby systemy sztucznej inteligencji stosowane w UE były bezpieczne, przejrzyste, identyfikowalne, niedyskryminujące i przyjazne dla środowiska. Systemy sztucznej inteligencji powinny być nadzorowane przez ludzi, aby zapobiegać szkodliwym skutkom” – wskazano w komunikacie opublikowanym na stronie internetowej Europarlamentu. Już na wczesnym etapie prac nad regulacją podkreślano, że AI powinna stać się „godna zaufania”, a „ukierunkowane na człowieka” przepisy muszą zabezpieczać przed nadużyciami ze strony organów publicznych oraz firm.
Ważny miesiąc
Na początku lutego 2024 r. projekt został zaaprobowany przez Komitet Stałych Przedstawicieli Rządów Państw Członkowskich (Coreper), czyli główny organ przygotowawczy Rady UE, którego członkowie reprezentują stanowisko swoich rządów.
W połowie lutego 2024 r. dwie komisje Parlamentu Europejskiego – Rynku Wewnętrznego i Ochrony Konsumentów oraz Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych – formalnie zatwierdziły porozumienie osiągnięte kilka tygodni wcześniej. Wynik głosowania nie pozostawił wątpliwości:
71 eurodeputowanych było za, 8 przeciw, a 7 wstrzymało się od głosu. Parlament Europejski zatwierdził regulację 13 marca 2024 r. zdecydowaną większością głosów (523 eurodeputowanych było za, 46 przeciw, a 49 wstrzymało się). Rozporządzenie weszło w życie 20 dni po publikacji w Dzienniku Urzędowym, ale w pełni zacznie obowiązywać dopiero 24 miesiące później.
Definicja sztucznej inteligencji
Rozporządzenie zostanie oparte na definicji zaproponowanej przez Organizację Współpracy Gospodarczej i Rozwoju (OECD). Zgodnie z nią system AI to system maszynowy, który „dla celów jawnych lub niejawnych wnioskuje na podstawie otrzymanych danych wejściowych, w jaki sposób generować dane, takie jak prognozy, treści, zalecenia lub decyzje”.
Definicja wychodzi naprzeciw oczekiwaniom eurodeputowanych, którzy chcieli, aby była „neutralna technologicznie” i można zastosować ją do przyszłych systemów sztucznej inteligencji. Wydaje się bardzo ogólna, co ma swoje zalety (mimo dynamicznie zachodzących zmian może okazać się ponadczasowa), jak i wady (pojawiają się obawy, że częściowo obejmie oprogramowanie mające niewiele wspólnego z AI).
Niektóre kancelarie prawne mogą nieźle zarobić na próbie rozwikłania wątpliwości narosłych wokół unijnego rozporządzenia. Część ekspertów, a wśród nich nie brakuje prawników, zwraca uwagę, że przynajmniej na początku nie zabraknie sporów o interpretację terminu „wnioskuje” zawartego w przytoczonej wyżej definicji.
Zobacz również:
Globalny wyścig regulacyjny w zakresie AI
Ale wątpliwości wzbudzają także inne kwestie, np. jak bardzo szczegółowe mają być wyjaśnienia, o które będą występować obywatele w przypadku systemów wysokiego ryzyka.
W związku z tym, że rozporządzenie zacznie obowiązywać za dwa lata, część przepisów może nie przystawać do technologii, które jeszcze nie są wykorzystywane na szeroką skalę.
Kary
Regulacja ma opierać się na założeniu, że im wyższe ryzyko wystąpienia szkód społecznych, tym większe powinny być obowiązki i surowsze sankcje za łamanie przepisów. Wysokość kar – w zależności od stopnia ich naruszenia i wielkości przedsiębiorstwa – wyniesie od 1,5 proc. obrotów lub 7,5 mln euro do nawet 7 proc. obrotów lub 35 mln euro.
Jednym z warunków koniecznych będzie zgodność z przepisami o ochronie danych. Wszystkie znaki na niebie i ziemi wskazują, że nie dojdzie do wprowadzenia obowiązkowej moderacji treści, choć było to postulowane przez część unijnych polityków. Na krzywdzące lub dyskryminujące działanie AI będzie można złożyć skargę.
Klasyfikacja według ryzyka
AI Act wprowadzi cztery poziomy ryzyka. Większość obecnie wykorzystywanych systemów sztucznej inteligencji zalicza się do kategorii minimalnego zagrożenia i prawdopodobnie w ogóle nie zostanie objęta unijnym rozporządzeniem. Systemy średniego ryzyka (np. ChatGPT) będą musiały spełnić określone wymogi m.in. w zakresie dokumentacji technicznej, przejrzystości i praw autorskich, a w razie wygenerowania tekstów czy obrazów przez sztuczną inteligencję
trzeba będzie wyraźnie o tym informować. Systemy wysokiego ryzyka, np. wykorzystywane do wpływania na wynik wyborów i zachowania elektoratu czy próbujące przewidywać trendy migracji, zostaną dopuszczone na rynek dopiero po spełnieniu pewnych kryteriów.
Z kolei do systemów nieakceptowalnego ryzyka zaliczono m.in. techniki manipulacyjne, rozpoznawanie emocji w miejscu pracy i placówkach edukacyjnych oraz nieukierunkowane pozyskiwanie wizerunków twarzy z internetu lub monitoringu wizyjnego.
Będą one całkowicie zabronione na obszarze UE podobnie jak kategoryzacja na podstawie cech biometrycznych, pozwalająca wywnioskować dane wrażliwe (np. przekonania religijne, orientację seksualną) czy scoring społeczny, czyli monitorowanie i ocenianie zachowań obywateli pod kątem zgodności z przepisami prawa i zasadami współżycia społecznego. „W przypadku niektórych zastosowań sztucznej inteligencji ryzyko jest nie do przyjęcia” – podkreślono w oficjalnym portalu Rady UE i Rady Europejskiej.
Ważne wyjątki
AI Act ma dotyczyć podmiotów publicznych i prywatnych we wszystkich państwach członkowskich UE. Do przestrzegania nowych przepisów zostaną zobowiązani także dostawcy i firmy wdrażające systemy sztucznej inteligencji z państw trzecich, jeśli będą wykorzystywane na obszarze wspólnoty lub doprowadzą do wywołania niepożądanych skutków. Akt o sztucznej inteligencji nie obejmie obszarów niewchodzących w zakres prawa wspólnotowego ani nie wpłynie na kompetencje państw członkowskich dotyczące bezpieczeństwa narodowego. Nie będzie dotyczył systemów używanych wyłącznie do celów wojskowych czy obronnych, a wykorzystywanie zdalnej identyfikacji biometrycznej zostanie dozwolone m.in. w ramach zapobiegania atakom terrorystycznym. Z części ograniczeń zostaną zwolnione służby specjalne.
Europejski Urząd ds. Sztucznej Inteligencji
Wdrażaniem i egzekwowaniem nowych przepisów zajmie się Europejski Urząd ds. Sztucznej Inteligencji. Decyzję w tej sprawie podjęła Komisja Europejska w drugiej połowie stycznia 2024 r., mając nadzieję, że nowo powołana instytucja ułatwi tworzenie podstaw jednolitego systemu zarządzania AI na obszarze Unii. Ma wykonywać zadania tak, by nie powielać działań innych organów, urzędów oraz agencji.
Urząd jako część struktury administracyjnej Dyrekcji Generalnej ds. Sieci Komunikacyjnych, Treści i Technologii, będzie wykonywał zadania wynikające z AI Act. Zajmie się m.in. opracowywaniem narzędzi, metod i poziomów odniesienia związanych z oceną zdolności systemów sztucznej inteligencji ogólnego przeznaczenia. Będzie również badał przypadki ewentualnego naruszenia przepisów. Cele urzędu są dość ambitne. W preambule decyzji Komisji czytamy, że powinien mieć „globalne znaczenie”, służyć „nadzorowaniu postępów w zakresie modeli sztucznej inteligencji”, ułatwiać prowadzenie „interakcji ze środowiskiem naukowym” oraz „odgrywać kluczową rolę w analizach i testach” czy egzekwowaniu prawa.