Autor: Anna Słabosz-Pawłowska

Ekspert w Departamencie Edukacji i Wydawnictw NBP

więcej publikacji autora Anna Słabosz-Pawłowska

Władza ukryta w AI według Mühlhoffa

„Ambitna etyka nie prywatyzuje, ona polityzuje” – przekonuje niemiecki filozof i matematyk Rainer Mühlhoff w książce, która na nowo stawia pytanie o to, kto i w jaki sposób ma prawo kształtować przyszłość technologii.
Władza ukryta w AI według Mühlhoffa

Publikacja „The Ethics of AI – Power, Critique, Responsibility” nie jest ani zbiorem norm etycznych, ani poradnikiem dla inżynierów. To filozoficzny i krytyczny manifest, w którym autor – profesor kierujący grupą badawczą „Ethics and Critical Theories of Artificial Intelligence” na Uniwersytecie w niemieckim Osnabrück – wskazuje na konieczność odzyskania etyki jako narzędzia kontroli społecznej nad technologią.

Pod maską cyfrowej transformacji

Mühlhoff już na początku wyjaśnia, że nie interesuje go „etyka maszyn” ani towarzyszące jej scenariusze zagłady. Zamiast pytać, czy algorytmy mogą być etyczne, koncentruje się na tym, kto te systemy projektuje, dlaczego to robi i czy osoby, których one dotyczą, mają cokolwiek do powiedzenia.

Dowodzi, że sztuczna inteligencja nie jest jedynie zestawem neutralnych narzędzi służących analizie danych. To nowa forma władzy, która działa strukturalnie – kształtując normy, decyzje i relacje społeczne.

Siła tej technologii nie wynika z jej inteligencji, lecz z tego, że zawłaszcza ludzkie decyzje i oceny, przejmując je z lajków, kliknięć czy historii przeglądania. Dane te są monetyzowane, m.in. za pomocą ukierunkowanych reklam, które następnie wpływają na to, co widzimy, co wiemy, co myślimy, co czujemy, jak i gdzie się poruszamy oraz z kim się komunikujemy. W ten sposób, często niespostrzegalnie, kształtuje społeczeństwo.

Nowe formy inwigilacji nie wymagają przy tym nawet danych personalnych. Przemysł i duże organizacje wykorzystują naszą zbiorową nieodpowiedzialność. Modele predykcyjne – na podstawie „danych pomocniczych” pochodzących od tysięcy czy milionów użytkowników – formułują prognozy dla osób „podobnych”. Umożliwia to także odczytywanie wrażliwych informacji, takich jak poglądy polityczne, stan zdrowia czy orientacja seksualna. Krzywdzącą konsekwencją algorytmicznej klasyfikacji i decyzji opartych na jej podstawie są narastające nierówności społeczne.

„Sprzężenie zwrotne faworyzuje bardziej uprzywilejowane grupy lub jednostki, ze szkodą dla grup bardziej podatnych na zagrożenia, chronionych lub znajdujących się w niekorzystnej sytuacji” – zauważa Mühlhoff, wskazując na takie okoliczności, jak zautomatyzowane zatrudnianie, ocena ryzyka ubezpieczeniowego czy zdolności kredytowej.

„Ryzyko manipulacji i dyskryminacji użytkowników stanowi nieodłączny element współczesnej sztucznej inteligencji” – konstatuje.

AI wymaga nowej ambitnej etyki

Książka wpisuje się w nurt krytycznej refleksji nad AI, obecny również w pracach Cathy O’Neil, Shoshany Zuboff czy Ruhi Benjamin.

Mühlhoff nie ufa etycznym wytycznym tworzonym przez firmy, zaliczając je do formy korporacyjnego marketingu. To „pranie etyki”, które ma jedynie uspokoić opinię publiczną i przerzucić odpowiedzialność z instytucji na jednostki. Tymczasem etyka, sprowadzona do moralnych dylematów indywidualnych użytkowników, jest nieefektywna.

Skuteczna walka ze skutkami kapitalizmu cyfrowego – naruszaniem prywatności, wyzyskiwaniem użytkowników, clickworkerów i nierównowagą władzy – wymaga czegoś więcej: zbiorowej mobilizacji. Trzeba pamiętać, że odpowiedzialność za tę sytuację spoczywa na nas wszystkich, bo tak wielu z nas uczestniczy w zachowaniach, które wzmacniają te systemy.

Skuteczna walka ze skutkami kapitalizmu cyfrowego wymaga zbiorowej mobilizacji

Nowa ambitna etyka AI, o którą apeluje Mühlhoff, powinna obejmować kolektywną odpowiedzialność, demokratyczny nadzór i troskę o dobro wspólne. A to wyzwanie nie tylko dla ekspertów, lecz dla całej debaty publicznej.

„Jedynie regulacja ukształtowana jako wyraz demokratycznej woli politycznej może zaradzić nierównowadze sił między przemysłem a społeczeństwem” – stwierdził autor „The Ethics of AI”. Jego zdaniem, to dlatego właśnie etyka AI musi się stać sprawą polityczną.

Potrzeba demokratycznego zarządzania AI

Czy jesteśmy gotowi na taką debatę? Mühlhoff przekonuje, że nie mamy wyboru. Musimy ją podjąć, zanim sztuczna inteligencja zacznie podejmować decyzje za nas. A jednym z kluczowych pytań jakie musimy sobie zadać jest to, czy w ogóle chcemy takiej technologii, skoro jest ona tak silnie uwikłana w partykularne interesy kapitału?

Jego głos nie wybrzmiewa w próżni. Do głębokiej zmiany podejścia do rozwoju AI wzywa także opublikowany w maju 2025 r. raport „Beyond Compliance. Aligning AI with People, Planet and Purpose”. Dokument analizuje wchodzący stopniowo w życie akt o sztucznej inteligencji (AI Act), nie tylko jako instrument prawny, lecz także jako punkt wyjścia do refleksji nad etycznym i zrównoważonym rozwojem tej technologii.

„Godność człowieka, dobrostan i brak szkody muszą stać się centralnym punktem wdrażania AI. Ochrona praw, dobrostanu i autonomii jednostek, społeczności i ekosystemów musi być fundamentem każdego etapu cyklu życia AI, od projektowania i szkolenia po wdrażanie i monitorowanie” – napisali autorzy raportu. W gronie zaproszonych do tego projektu ekspertów pochodzących z różnych zakątków świata znalazł się także prof. Tomasz Trzciński, który w wywiadzie dla „Obserwatora Finansowego” już akcentował konieczność zrównoważonego podejścia do rozwoju AI.

Godność człowieka, dobrostan i brak szkody muszą stać się centralnym punktem wdrażania AI

„Beyond Compliance” przestrzega jednak wyraźnie przed „regulacyjną iluzją” – przekonaniem, że ryzyko można wyeliminować wyłącznie za pomocą biurokratycznych środków. Historia pokazuje przecież, że z reguły rozwój wyprzedza prawo. Dlatego też etyczne zarządzanie musi ewoluować wraz z architekturą technologiczną.

„Potrzebna jest zmiana w kierunku »żywej etyki« – elastycznych, partycypacyjnych i świadomych kontekstu ram, które dostosowują się do nowych sposobów wykorzystania technologii, norm kulturowych i możliwości systemów” – napisano w raporcie.

Bezpieczeństwo fundamentem dalszego rozwoju

Do refleksji nad przyszłością sztucznej inteligencji zachęca także prof. Jakub Growiec. Dla niego – w odróżnieniu od Mühlhoffa – kluczową kwestią jest jednak bezpieczeństwo ludzkości.

„Coraz bliżej jest do autonomicznych, kompetentnych agentów potrafiących skutecznie realizować długofalowe cele. To już są bardzo niebezpieczne kompetencje, których nie powinniśmy rozwijać bez uprzedniego rozwiązania problemu »AI alignment« (zgodności celów AI z długofalowym dobrostanem ludzkości – przyp. red.)” – mówił w jednym z wywiadów.

„Zbudowana naprędce AGI (sztuczna inteligencja ogólna – przyp. red.), bez refleksji nad jej celami, niemal na pewno nie będzie przyjazna ludzkości” – ostrzegał, postulując globalne moratorium na rozwój takich modeli.

Zarówno Mühlhoff, Trzciński, jak i Growiec, choć patrzący na problem z różnych perspektyw, alarmują w sprawie tego samego – potrzeby demokratycznej i opartej na wartościach kontroli nad rozwojem technologii sztucznej inteligencji. Jeżeli chcemy mieć wpływ na to, czy AI stanie się narzędziem rozwoju, dominacji czy wręcz zagrożeniem dla cywilizacji – musimy odejść od bierności. Decyzja nie może zapaść w Dolinie Krzemowej ani Shenzhen. Musi zapaść w otwartej debacie publicznej, którą trzeba natychmiast rozpocząć.

The Ethics of AI. Power, Critique, Responsibility”

Rainer Mühlhoff, Bristol University Press, 2025

Dostępna na licencji Open Access tutaj

Otwarta licencja


Tagi


Artykuły powiązane

Globalny wyścig regulacyjny w zakresie AI

Kategoria: Innowacje w biznesie
Dlaczego UE powinna skoncentrować się na jakości danych i zasadach przypisania odpowiedzialności za jakość produktu?
Globalny wyścig regulacyjny w zakresie AI

Sztuczna inteligencja a stabilność

Kategoria: Instytucje finansowe
Instytucje finansowe jedna po drugiej przyswajają sztuczną inteligencję. Czy aby nie kosztem stabilności finansowej? W artykule przekonujemy, że sztuczna inteligencja (AI) rodzi nowe zagrożenia dla stabilności finansowej – na które odpowiednie władze mogą nie być przygotowane.
Sztuczna inteligencja a stabilność

Jak sztuczna inteligencja może zagrozić stabilności finansowej

Kategoria: Instytucje finansowe
W miarę jak sztuczna inteligencja wkracza do systemu finansowego to pogłębia istniejące kanały niestabilności i tworzy nowe. W niniejszym artykule opisano kilka takich kanałów: złośliwe i dezinformujące wykorzystanie sztucznej inteligencji, niewłaściwe dostosowanie i unikanie kontroli, a także monokulturę ryzyka i oligopole. Wszystkie one pojawiają się, gdy podatność na zagrożenia ze strony sztucznej inteligencji i problemy gospodarcze, takie jak strategiczna komplementarność, problemy z zachętami i niekompletne umowy, wzajemnie na siebie oddziałują.
Jak sztuczna inteligencja może zagrozić stabilności finansowej