Unijny prawodawca tworząc AI ACT zdawał sobie sprawę nie tylko z korzyści, ale również z zagrożeń i ryzyk związanych z niekontrolowanym rozwojem oraz stosowaniem systemów sztucznej inteligencji. Do samego końca prac legislacyjnych najbardziej żarliwe dyskusje dotyczyły właśnie kształtu przepisów zakazujących stosowania określonych rodzajów systemów AI. W AI ACT przedmiotowemu zagadnieniu poświęcono cały osobny rozdział zatytułowany „Zakazane praktyki”.
W naszym poprzednim artykule pt. „AI ACT – wszystko co musisz wiedzieć” staraliśmy się wyjaśnić czym jest AI ACT oraz jakie są jego główne założenia. Z kolei w niniejszym artykule podzielonym na 2 części koncentrujemy się na analizie przepisów AI ACT, które delegalizują stosowanie niektórych rodzajów praktyk (de facto systemów) obejmujących sztuczną inteligencję.
Spis treści – część I :
- Definicja systemów AI
- Systemy podprogowe
- Systemy wykorzystujące podatność osób słabszych
- Systemy scoring’u społecznego
- Systemy indywidualnej predykcji kryminalnej
Definicja systemów AI
Definicja legalna systemu AI została określona w art. 3 AI ACT i znajduje wśród innych istotnych z punktu widzenia AI ACT pojęć. W punkcie 1) tego artykułu stwierdza się, że system AI to:
„system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii po jego wdrożeniu oraz który może wykazywać zdolność adaptacji po jego wdrożeniu, a także który – na potrzeby wyraźnych lub dorozumianych celów – wnioskuje, jak generować na podstawie otrzymanych danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne”.
Z punktu widzenia tej definicji najistotniejsze są jej trzy elementy:
- Autonomia – oznacza, że taki system jest w pewnym zakresie niezależny w funkcjonowaniu zarówno od osób, które go stworzyły, jak i od osób, które z niego korzystają;
- Zdolność adaptacji – polega na tym, że system potrafi się uczyć oraz dostosowywać do narzuconych mu wymogów;
- Wnioskowanie na podstawie danych wejściowych – system na podstawie danych (wejściowych) wprowadzonych przez użytkownika generuje dane wyjściowe, mające spełniać oczekiwania użytkownika poprzez działanie algorytmów.
Choć definicja ta wydaje się być prosta i zrozumiała, w naszej ocenie jej funkcjonowanie w praktyce będzie wiązało się z wieloma problemami interpretacyjnymi. Wyszczególnienie przez prawodawcę unijnego trzech kryteriów zaliczenia oprogramowania do systemu AI z uwagi na swoje niedookreślenie i skorzystanie z klauzul generalnych w początkowych fazach obowiązywania AI ACT nie ułatwi adaptacji społeczeństw do nowej rzeczywistości prawnej.
Trudności będzie przynosić nie dość że samo zakwalifikowanie danego systemu do „systemu AI”, to również konieczność określenia ryzyka wiążącego się z funkcjonowaniem takiego systemu na rynku europejskim z uwagi na podobnie nieprecyzyjne kryteria.
Systemy podprogowe
Systemy podprogowe są znane już od wielu lat (choć nie w rozumieniu systemu AI), a ich początku należy upatrywać w rozwoju reklamy. Pierwsze przypadki ich stosowania polegały na umieszczaniu kadrów o bardzo krótkiej długości, praktycznie niedostrzegalnych gołym okiem w materiale niezwiązanych z tematyką tych kadrów, a sugerujących zainteresowanie się pewnym towarem, usługą czy tematyką.
Podprogowość systemu AI oznacza, że posługuje się on technikami podprogowymi ukrytymi poza świadomością ludzką lub celowymi technikami manipulacyjnymi albo technikami wprowadzającymi w błąd, aby zmienić zdanie osoby i nakierować ją na podjęcie decyzji, której normalnie by nie podjęła.
Systemy podprogowe wykorzystują więc podświadomość ludzką poprzez korzystanie z bodźców niedostrzegalnych przez człowieka, takich jak bodźce dźwiękowe czy obrazowe. Wykorzystywane techniki manipulacyjne charakteryzują się tym, że wyłączają lub ograniczają autonomię ludzką, z czego jednostka nie zdaje sobie sprawy.
Najprościej rzecz ujmując, chodzi o system AI, który podobnie jak reklamy telewizyjne, w sposób nieoczywisty próbują zachęcić swoich odbiorców do zakupu pewnych towarów, usług czy też podjęcia pewnej decyzji. Jak wskazuje motyw 29 AI ACT, skutkiem stosowania systemów podprogowych jest wystąpienie poważnych szkód, które w sposób niepożądany mogą wpływać na zdrowie fizyczne, psychiczne czy interesy finansowe. To właśnie te konsekwencje zdaniem Unii Europejskiej uzasadniają ich zakazanie.
W czym więc leży zagrożenie wynikające z systemu AI stosującego podprogowość, które nie znajduje się w reklamach otaczających nas wszędzie we współczesnym świecie? Można postawić w tym miejscu tezę, iż oprócz wyżej wskazanych skutków, które uzasadniają zakazanie tych systemów, problematyczne może być również wykorzystywanie tego rodzajów systemów AI do wpływania na procesy polityczne jak miało to miejsce w przypadku międzynarodowej afery z firmą Cambridge Analytica, której zarzucano ingerencję w wybory prezydenckie w USA oraz podczas referendum w Wielkiej Brytanii dotyczącego Brexit’u[1]. Systemy podprogowe mogą być więc doskonałym narzędziem do kontrolowania świadomości mas, w szczególności w kontekście cyfrowej rzeczywistości, w której przyszło nam żyć.
Systemy wykorzystujące podatność osób słabszych
Na bardzo podobnej zasadzie jak opisane powyżej systemy AI stosujące metody podprogowe działają systemy AI wykorzystujące podatność osób słabszych. Różnią się one tym, że ich działania opiera się nie tyle na podprogowości lub manipulacji, co na wykorzystywaniu słabości danej osoby lub określonej grupy osób, ze względu na ich wiek, niepełnosprawność lub szczególną sytuację społeczną lub ekonomiczną.
Skutkiem stosowania systemów AI wykorzystujących podatność osób słabszych jest zmiana zachowania takiej jednostki lub jednostek, co przejawia się w wyrządzeniu szkody lub uzasadnionym prawdopodobieństwem może wyrządzić szkodę. Ta przesłanka prawdopodobieństwa wyrządzenia szkody znacząco odróżnia systemy wykorzystujące podatność osób słabszych od systemów podprogowych, bowiem w tych ostatnich nawet nie występuje.
Takie ukształtowanie zakazu systemów wykorzystujących podatność osób słabszych zdecydowanie należy uznać za słuszne, choć wiele wątpliwości i problemów interpretacyjnych może powodować niedookreślenie przesłanki „uzasadnionego prawdopodobieństwa wyrządzenia szkody”.
Systemy scoring’u społecznego
Przepisy AI ACT zakazują wprowadzania do obrotu, oddawania do użytku albo wykorzystywania systemów AI, które dedykowane są do przeprowadzania oceny lub klasyfikacji osób fizycznych lub grup osób (tzw. scoring społeczny). Taka ocena lub klasyfikacja musi odbywać się przez określony czas na podstawie zachowania społecznego tych ludzi lub na podstawie znanych, wywnioskowanych albo na przewidywanych dla nich cechach osobistych lub cechach osobowości i prowadzić do:
- krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub grup osób w kontekstach społecznych, które nie są związane z kontekstami, w których pierwotnie wygenerowano lub zebrano dane,
- krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub grup osób, które jest nieuzasadnione lub nieproporcjonalne do ich zachowania społecznego lub jego wagi.
Z powyższego wynika, iż nie wszystkie systemy AI dotyczące scoringu społecznego będą zakazane, ale te które prowadzą w określonych sytuacjach do krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub grup osób. Jednakże sytuacje te zostały określone dość ogólnie, co niewątpliwie będzie rodziło problemu interpretacyjne, a tym samym wątpliwości prawnej dopuszczalności wykorzystywania niektórych systemów AI.
Pewną wskazówką w zakresie wykładni tej normy prawnej jest motyw 31 AI ACT zgodnie, z którym zakazane powinny być systemy AI umożliwiające prowadzenie przez podmioty publiczne lub prywatne scoringu społecznego, mogąceprowadzić do wyników stanowiących dyskryminację i do wykluczenia pewnych grup. Dotyczy to również systemów AI, które mogą naruszać prawo do godności i niedyskryminacji oraz wartości, jakimi są równość i sprawiedliwość. Natomiast zakaz ten nie powinien mieć wpływu na zgodne z prawem praktyki oceny osób fizycznych, które są stosowane w konkretnym celu zgodnie z prawem Unii i prawem krajowym.
W ocenie autorów pomysł objęcia zakazem systemów scoringu społecznego należy uznać za pozytywny. Na świecie już dziś istnieją tego rodzaju systemy, które budzą uzasadnione obawy o naruszanie podstawowych praw i wolności obywatelskich, czego doskonałym przykładem jest System Zaufania Społecznego funkcjonujący w Chinach[2].
Systemy indywidualnej predykcji kryminalnej
Jedną z naczelnych zasada prawa karnego jest zasada domniemania niewinności, według której każda oskarżona osoba jest niewinna wobec przedstawianych jej zarzutów, dopóki wina nie zostanie jej udowodniona i stwierdzona prawomocnym wyrokiem sądu.
Unia Europejska wyszła z założenia, iż osoby fizyczne nigdy nie powinny być oceniane na podstawie zachowań prognozowanych przez sztuczną inteligencję wyłącznie na podstawie poddania ich procesowi profilowania, na podstawie ich cech osobowości lub cech charakterystycznych, takich jak narodowość, miejsce urodzenia, miejsce zamieszkania, liczba dzieci, poziom zadłużenia lub rodzaj samochodu, bez uzasadnionego podejrzenia, że osoba ta uczestniczy w działalności przestępczej w oparciu o obiektywne możliwe do zweryfikowania fakty i bez ich oceny przez człowieka (motyw 42 AI ACT).
Wykorzystywanie systemów AI do predykcji kryminalnej opartych wyłącznie na profilowaniu ludzi po ich cechach osobowości lub cechach charakterystycznych może prowadzić do naruszania fundamentalnych praw i wolności obywatelskich, dlatego AI ACT zakazuje systemów AI dedykowanych do przeprowadzania ocen ryzyka w odniesieniu do osób fizycznych, by ocenić lub przewidzieć ryzyko popełnienia przez nich przestępstwa.
Zakaz ten nie ma zastosowania do systemów AI wykorzystywanych do wspierania dokonywanej przez człowieka oceny udziału danej osoby w działalności przestępczej, która to ocena opiera się już na obiektywnych i weryfikowalnych faktach bezpośrednio związanych z działalnością przestępczą.
Powyższy zakaz jednakże nie będzie dotyczył sytuacji, w których system AI ma być wykorzystywany do analizy ryzyka przeprowadzanej w celu oceny prawdopodobieństwa nadużyć finansowych przez przedsiębiorstwa na podstawie podejrzanych transakcji lub narzędzi analizy ryzyka dokonanej w celu przewidywania przez organy celne prawdopodobnej lokalizacji środków odurzających lub nielegalnych towarów, na przykład na podstawie znanych szlaków przemytu.
Autorzy:
Radca prawny Marcin Siemienkiewicz
Aplikantka adwokacka Dominika Naykowska
—
[1] https://www.komputerswiat.pl/artykuly/redakcyjne/facebook-i-cambridge-analytica-o-co-chodzi-w-tej-aferze/9nn7y9k
[2] https://instytutboyma.org/pl/social-credit-system-inteligentny-panoptykon-z-chinska-charakterystyka-czy-sposob-na-zbudowanie-spoleczenstwa-przyszlosci/