UE przyjęła pierwsze na świecie przepisy o sztucznej inteligencji

Rada Unii Europejskiej przyjęła we wtorek pierwsze na świecie przepisy o sztucznej inteligencji (AI). Dzielą one tę technologię na cztery kategorie: oprogramowanie wysokiego ryzyka, ograniczonego i minimalnego wpływu oraz systemy nieakceptowalne. Te ostatnie będą w UE zakazane.

Unijna ustawa o sztucznej inteligencji (AI Act) już została okrzyknięta przełomową – nie tylko dlatego, że na świecie nie wprowadzono jeszcze podobnych regulacji, ale także dlatego, że jako pierwsza klasyfikuje AI pod kątem potencjalnego ryzyka dla użytkowników, w myśl zasady, że im większe szkody może wyrządzić sztuczna inteligencja, tym surowsze będą przepisy regulujące jej użycie.

Nowe prawo dzieli różne rodzaje AI na cztery grupy: oprogramowanie wysokiego ryzyka, technologie ograniczonego i minimalnego wpływu oraz systemy nieakceptowalne, które będą w UE zakazane.

Modele niestwarzające ryzyka systemowego, takie jak chatboty czy gry, będą podlegać niewielkim wymogom, głównie dotyczącym przejrzystości. Chodzi o to, żeby użytkownicy mieli świadomość, że mają do czynienia ze sztuczną inteligencją. Dodatkowe wymogi bezpieczeństwa nałożone zostaną na treści zmanipulowane, tzw. deepfakes, czyli materiały wygenerowane przez AI, których celem jest wprowadzenie użytkownika w błąd. Te również będą musiały być opatrzone wyraźnym oznaczeniem.

Systemy wysokiego ryzyka, np. technologie wykorzystywane w oświacie, jak systemy AI analizujące podania studentów o stypendia czy przyjęcie na studia, będą dopuszczane na rynek UE pod warunkiem spełnienia surowych wymogów. Oznacza to, że producenci będą musieli ocenić ich ryzyko jeszcze przed wprowadzeniem na unijny rynek, a obywatele – np. studenci, którzy nie dostaną świadczenia – będą mieli prawo do zaskarżenia decyzji podjętych z użyciem AI.

Zakazane będzie natomiast oprogramowanie stanowiące wyraźne zagrożenie dla praw podstawowych użytkowników. Chodzi tu o technologie pozwalające np. na monitorowanie i szpiegowanie ludzi czy wykorzystywanie ich danych wrażliwych, takich jak orientacja seksualna, pochodzenie lub wyznanie, do przewidywania ich zachowań, w tym do tzw. prognozowania kryminologicznego, czyli ryzyka popełnienia przez nich przestępstw, lub do podsuwania im treści mogących wpłynąć na ich decyzje i zachowanie.

Zabronione będzie też stosowanie tzw. systemu punktowania społecznego, służącego do oceny obywateli na podstawie ich zachowań społecznych. Tego typu technologie wykorzystywane są m.in. w Chinach, gdzie np. sąsiedzi przyznają sobie punkty za poprawne wyrzucanie śmieci na osiedlu. Zakaz będzie też dotyczył systemów monitorujących emocje ludzi w miejscach pracy, urzędach, szkołach lub na uczelniach. Takie technologie stosowane są czasem do przewidywania strajków i niepokojów społecznych.

AI nie będzie mogła być też wykorzystywana do śledzenia obywateli lub pobierania wizerunków ich twarzy z internetu lub monitoringu miejskiego, by stworzyć bazy danych służące rozpoznawaniu twarzy. Będą wyjątki, bo z systemów rozpoznawania twarzy pod pewnymi warunkami (np. przy poszukiwaniu osób podejrzanych o terroryzm) będą mogły korzystać służby. Tu zgodę będzie jednak najpierw musiał wydać sąd lub właściwy urząd.

Przepisy zakładają również powołanie nowych organów monitorujących, w tym urzędu ds. sztucznej inteligencji przy Komisji Europejskiej czy rady do spraw sztucznej inteligencji, w której zasiadać mają przedstawiciele państw unijnych.

Firmy, które nie będą przestrzegać unijnych przepisów o AI, będą musiały liczyć się z surowymi karami. Będzie to albo część rocznego globalnego obrotu firmy lub odgórnie określona grzywna w zależności od tego, która kwota będzie wyższa. Małym i średnim przedsiębiorstwom oraz start-upom grozić będą raczej kary administracyjne.

Przepisy zostaną w najbliższych dniach opublikowane w Dzienniku Urzędowym UE i wejdą w życie 20 dni po publikacji. W pełni zaczną obowiązywać za dwa lata. UE ma nadzieję, że jej przepisy staną się globalnym standardem regulowania AI.

Z Brukseli Jowita Kiwnik Pargana

jowi/ akl/ asa/


Artykuły powiązane

Globalny wyścig regulacyjny w zakresie AI

Kategoria: Trendy gospodarcze
Dlaczego UE powinna skoncentrować się na jakości danych i zasadach przypisania odpowiedzialności za jakość produktu?
Globalny wyścig regulacyjny w zakresie AI

Nowe horyzonty i możliwości zastosowania sztucznej inteligencji w biznesie

Kategoria: Trendy gospodarcze
Ciekawe, kiedy sztuczna inteligencja (SI) wysadzi z rynku ekspertów tej dziedziny, któ-rzy podejmują próby opisywania procesów i pytań, na które jeszcze nie ma odpowiedzi – szczególnie w sytuacji, kiedy stała się ona bardzo szybko jedną z najbardziej transforma-cyjnych technologii naszych czasów, rewolucjonizując branże i zasadniczo zmieniając sposób działania przedsiębiorstw i inicjatyw biznesowych.
Nowe horyzonty i możliwości zastosowania sztucznej inteligencji w biznesie

Jak sztuczna inteligencja może zagrozić stabilności finansowej

Kategoria: Trendy gospodarcze
W miarę jak sztuczna inteligencja wkracza do systemu finansowego to pogłębia istniejące kanały niestabilności i tworzy nowe. W niniejszym artykule opisano kilka takich kanałów: złośliwe i dezinformujące wykorzystanie sztucznej inteligencji, niewłaściwe dostosowanie i unikanie kontroli, a także monokulturę ryzyka i oligopole. Wszystkie one pojawiają się, gdy podatność na zagrożenia ze strony sztucznej inteligencji i problemy gospodarcze, takie jak strategiczna komplementarność, problemy z zachętami i niekompletne umowy, wzajemnie na siebie oddziałują.
Jak sztuczna inteligencja może zagrozić stabilności finansowej