Autor: Mirosław Ciesielski

Wykładowca akademicki, opisuje rynki finansowe, zmiany na rynku fintechów i startupów

UE na drodze do regulacji sztucznej inteligencji

Komisja Europejska zmierza do utworzenia od połowy 2021 roku europejskiego Jednolitego Cyfrowego Rynku i podjęcia konkurencji z rywalami z USA i Chin. Temu ma służyć zaproponowana właśnie przez KE wizja strategii i regulacji rozwoju sztucznej inteligencji w Unii.
UE na drodze do regulacji sztucznej inteligencji

(©Envato)

Z perspektywy UE działania mają prowadzić do nawiązania konkurencji równorzędnej z dwoma wielkimi globalnymi graczami i dodatkowo – zgodnej z europejskimi standardami etycznymi.

Na razie Europa wyraźnie odstaje od USA i Chin w zakresie rozwoju technologii AI, a rynek jej zastosowań na świecie może być wart nawet 13 bilionów dolarów już za 10 lat. Widać to w wielu obszarach – wartości inwestycji, liczby patentów i globalnych cyfrowych czempionów jak Apple, Amazon, Microsoft, Google, Tencent czy Alibaba.

Co więcej europejskie cyfrowe aktywa technologiczne i zasoby pozostają rozproszone i nie tworzą masy krytycznej, która umożliwiałaby UE nawiązanie równorzędnej konkurencji z globalnymi rywalami.

Europa za mało innowacyjna

Doprowadzenie do stworzenia Jednolitego Rynku Cyfrowego (Digital Single Market), którego budowa trwa już kilka lat, jest kluczowe do osiągnięcia globalnej konkurencyjności, bo jest drogą do powstania atrakcyjnego, być może największego pod względem wartości rynku cyfrowego na świecie, a to mogłoby zapobiec migracji technologicznych talentów.

Potrzeba do tego usunięcia barier w transgranicznym przepływie danych i wdrożenia technologii 5G.

Integracja działań państw UE na polu AI staje się jeszcze pilniejsza wobec faktu opuszczenia Wspólnoty przez Wielką Brytanię, która jest czołowym europejskim hubem sztucznej inteligencji z ponad tysiącem firm i centrów badawczych, jak choćby Alan Turing Institute. Brexit nie musi jednak oznaczać zerwania wzajemnej współpracy nad projektami AI.

Chiny i USA na czele

Swoje strategie rozwoju sztucznej inteligencji wdrażają europejscy konkurenci. Chiny uczyniły technologię AI kluczowym składnikiem swojej inicjatywy Made in China, której implementacja postępuje, napotykając coraz silniejszy opór USA, a prezydent Trump w sposób administracyjny próbuje powstrzymywać ekspansję chińskich gigantów technologicznych.

Amerykańska strategia została ogłoszona w lutym ubiegłego roku. Jest jednak dość ogólna – ukierunkowuje finansowe wsparcie na poziomie federalnym i głosi potrzebę ustanowienia amerykańskich standardów AI i powszechniejszej edukacji w tym zakresie, a także – konieczność usuwania barier przed rozwojem tej technologii. Nie wiadomo jednak, jak strategia ma wyglądać na etapie realizacji, brakuje konkretnych terminów.

Narodowe strategie w zakresie wdrażania sztucznej inteligencji przyjęła do tej pory ponad połowa krajów należących do UE. Pierwsza w grudniu 2017 roku była Finlandia, w 2018 Francja, Niemcy i Szwecja, a Polska ogłosiła wytyczne dotyczące własnej strategii w dokumencie „Polityka rozwoju sztucznej inteligencji rok temu.

Niemcy zamierzają wydawać na badania nad AI pół miliarda euro rocznie.

Każde z państw UE wskazuje swoją specyfikę rozwoju sztucznej inteligencji. Strategia Niemiec dotyczy 12 pól rozwoju AI, z celem głównym – osiągnięcia statusu europejskiego lidera w zakresie badań poprzez rozwój europejskich  klastrów innowacji, transfer technologii i tworzenie bodźców dla twórców i inwestorów startupów. Na realizację tych zadań przeznaczone ma być pół miliarda euro rocznie z publicznych zasobów.

Francuskie podejście uwypukla przede wszystkim  rolę publicznych badań, szkoleń, innowacji i zasobów w zakresie opieki zdrowotnej, środowiska, transportu i mobilności oraz obrony i bezpieczeństwa.

Strategia estońska jest kontynuacją prowadzonej polityki cyfryzacji usług publicznych, w której to dziedzinie to bałtyckie państwo jest światowym liderem. Jednak wysiłki żadnego z państw Unii nie są w stanie spowodować, że nawiążą one równorzędną rywalizację ze światowymi potęgami.

Europejskie wartości jako priorytet regulacji AI

Europejska strategia w zakresie sztucznej inteligencji podkreśla znaczenie zaufania i wiarygodności jako fundamentów działania regulacji UE.

W uproszczeniu  przyjęta definicja za sztuczną inteligencję uznaje systemy IT, które wykazują inteligentne zachowania poprzez umiejętność analizy danych i są zdolne podejmować, choćby tylko w pewnym stopniu decyzje o charakterze autonomicznym.

Sztuczna inteligencja zmienia system finansowy

Pierwsze wytyczne dotyczące zasad etycznych do stosowania w rozwoju AI zostały sformułowane przez grupę ekspertów (AI HLEG) w grudniu 2018 roku. Po szerokich konsultacjach w ramach  Europejskiego Sojuszu AI wytyczne zostały zweryfikowane i opublikowane w kwietniu 2019 roku. Są one podzielone na siedem działów, do których m.in. należą: nadzór przez człowieka, techniczna odporność i bezpieczeństwo, ochrona prywatności i odpowiedzialność społeczna, transparentność, niedyskryminacja, dobrostan społeczeństwa i środowiska, a także odpowiedzialność.

Zasady te stały się podstawą stworzenia instrukcji (ALTAI) dla deweloperów i całego środowiska IT. Komisja Europejska wraz z krajami członkowskimi przyjęła też skoordynowany plan dotyczący współpracy w Europie, podkreślając, że tylko połączone działania oparte na wspólnych wartościach dają szansę uzyskania statusu lidera w zakresie AI na świecie.

Ujmując rzecz skrótowo – chodzi przede wszystkim o wyznaczenie wartości i zasad, które powinny uwzględniać rozwój technologii sztucznej inteligencji, a nie o zarysowanie konkretnych technologii i sposobów ich rozwoju w poszczególnych krajach.

Choć jest tu kilka wyjątków – do najważniejszych zaliczyć należy propozycję czasowego zakazu wdrażania systemów autonomicznej identyfikacji (np. biometria twarzy) w miejscach publicznych, o co apelował Wojciech Wiewiórowski – Europejski Inspektor Ochrony Danych, a także tzw. predictive policing, czyli typowanie potencjalnych przestępców, co podkreślała wiceprzewodnicząca KE Margrethe Vestager.

Przyjazna AI

Najważniejszym jednak dokumentem UE dotyczącym AI jest Biała Księga – White Paper on Artificial Intelligence – A European Approach to Excellence and Trust (White Paper) opublikowana w lutym bieżącego roku. Ma ona być podstawą docelowej strategii AI w ramach UE. Dokument określa środki, które mają uprościć i ułatwić badania i współpracę państw członkowskich oraz zwiększyć inwestycje w sztuczną inteligencję i jej zastosowania.

Sztuczna inteligencja wspiera wzrost

Służyć temu ma m.in. wykorzystanie potencjału, wymiana i otwarcie dostępu do zanonimizowanych danych w wielu zakresach. Prezentuje też opcje regulacji AI, które powinny określić kształt przyszłych zapisów prawnych odnoszących się do wszystkich zaangażowanych podmiotów, szczególnie w tzw. sektorach wrażliwych (ochrona zdrowia, bezpieczeństwo, wymiar sprawiedliwości, instytucje publiczne i innych, gdzie występuje wysokie ryzyko dyskryminacji, szkód materialnych i zagrożenia zdrowia i życia).

Chodzi o stworzenie standardów dotyczących danych testowych, szkolenia algorytmów, archiwizacji zapisów i nadzoru. Celem rozwiązań unijnych jest też ochrona europejskiego potencjału badawczego i stworzenie światowej klasy środowiska testowego oraz ekosystemu innowacji.

Na technologie cyfrowe w budżecie UE przeznaczonych ma być w latach 2021-27 aż 9,2 mld euro.

Priorytetowa rola AI znajduje odzwierciedlenie w unijnym budżecie – na technologie cyfrowe przeznaczonych ma być w latach 2021-27 aż 9,2 mld euro, a to znacznie więcej niż w programie Horizon 2020. To z kolei ma wpłynąć na zaangażowanie sektora prywatnego. Łączne inwestycje mogą w ten sposób przekroczyć kwotę 20 mld euro.

Wprowadzenie zasad „godnej zaufania sztucznej inteligencji”  to także dążenie KE do wywarcia wpływu na regulacje światowe, jak to miało miejsce w przypadku dyrektywy dotyczącej ochrony danych osobowych (GDPR) i uzyskanie swoistej przewagi w zakresie obowiązywania europejskich norm dotyczących zaawansowanych technologii (tzw. efekt brukselski).

W ten sposób sztuczna inteligencja ma być też bardziej przyjazna konsumentom, co umożliwi szybsze rozpowszechnienie jej zastosowań. Oznacza to także, że wielkie firmy technologiczne będą musiały się do tych zasad na terenie UE stosować i utrzymywać centra danych w Europie. To w krótkim okresie podwyższy koszty ich funkcjonowania, będą jednak miały do czynienia z jednolitym cyfrowym rynkiem, a szanse konkurencji dla firm europejskich powinny zostać wówczas wyrównane.

Szczegółowe konsultacje

Konsultacje dotyczące białej księgi trwały do połowy czerwca. Wzięło w nich udział ponad 1200 podmiotów – instytucji rządowych i pozarządowych, firm, ekspertów, naukowców i obywateli, również spoza UE. Przybrały one formę kwestionariusza, który podzielono na trzy sekcje.

W części pierwszej – „Budowa doskonałego ekosystemu AI w Europie”, 90 proc. respondentów wskazało na rozwój kompetencji cyfrowych, a 89 proc. na wspieranie badań i rozwoju w zakresie AI w zaprogramowany sposób jako kluczowych czynników koordynacji polityki państw UE.

Sztuczna inteligencja pomaga ubezpieczycielom

Za istotne uznano także: rozwój infrastruktury umożliwiającej testowanie technologii (76 proc.),  budowę europejskich centrów danych (75 proc.) i partnerstwo publiczno-prawne w badaniach i innowacjach. Szczególną rolę respondenci przypisali funkcjonowaniu Cyfrowego Hubu Innowacji (DIH), który powinien wspierać transfer know-how do małych i średnich firm.

W części drugiej – „Regulacje w zakresie AI”, główne obawy budzi potencjalne zagrożenie AI dla praw podstawowych (np. prywatności) i możliwy dyskryminacyjny charakter zastosowań tej technologii (odpowiednio 90 i 87 proc. wskazań).

Zarówno nowe, jak i istniejące regulacje powinny ten aspekt uwzględnić – twierdzi znaczna część respondentów.  Dotyczyć one powinny także biometrycznych systemów identyfikacji.

W sekcji trzeciej zatytułowanej „Konsekwencje w zakresie bezpieczeństwa i odpowiedzialności w obszarze AI, IoT i robotyki” prawie 61 proc. respondentów poparło postulat rewizji dyrektywy dotyczącej odpowiedzialności producentów (Product Liability Directive) w taki sposób, aby obejmowała ona szkody i ryzyka zastosowania technologii sztucznej inteligencji. Zaliczono do nich między innymi zagrożenia z zakresu cyberbezpieczeństwa, bezpieczeństwa osobistego, w tym związanego ze zdrowiem psychicznym.

Połowa badanych podmiotów deklaruje wdrażanie zastosowań sztucznej inteligencji w swoich biznesach, widząc różnorakie korzyści.

W konsultacjach brały również udział podmioty sektora finansowego, także z Polski, m.in. firmy – członkowie Związku Przedsiębiorstw Finansowych, należącego do europejskiej federacji związku przedsiębiorstw finansowych (Eurofinans). Prawie połowa badanych podmiotów deklaruje wdrażanie zastosowań sztucznej inteligencji w swoich biznesach, widząc różnorakie korzyści, również dla klientów, wynikające z zastosowań AI. Badane firmy dostrzegają też ryzyko regulacyjne, które utrudnia lub zniechęca do podejmowania wdrożeń AI.

Remedium na te ryzyka respondenci reprezentujący sektor usług finansowych w Polsce widzą w ustanowieniu odpowiedniego prawodawstwa, dotyczącego zastosowań sztucznej inteligencji na poziomie unijnym, w szczególności odnoszącym się do sektora finansowego.

Istotny wydaje się także postulat umożliwiający eksperymenty w zakresie zastosowań AI pod nadzorem regulatorów oraz ustanowienie wytycznych dla audytów systemów AI i ich certyfikacja.

Biała Księga stanowi propozycję wypracowania delikatnej równowagi między dążeniem do osiągnięcia europejskiej technologicznej suwerenności a ryzykiem przeregulowania, które zniechęci inwestorów i przedsiębiorców.

Oczekują oni lepszych możliwości dostępu do kapitału, łatwiejszego skalowania biznesów opartych o AI, dotarcia do rzesz konsumentów i nawiązania rywalizacji z konkurentami działającymi na podobnych zasadach.

Rozwiązania i regulacje dotyczące sztucznej inteligencji będą miały wpływ na atrakcyjność Jednolitego Cyfrowego Rynku UE, którego zasady mają obowiązywać od połowy 2021 roku.

(©Envato)

Otwarta licencja


Tagi