Cyfrowe granice. Jak algorytmy mają strzec Europy?
„Betonowe mury nie powstrzymały ludzi przed migracją, ułudą jest sądzić, że powstrzymają ich narzędzia sztucznej inteligencji” – tłumaczy Chris Jones, badacz migracji i praw człowieka.
Dziś z wielką przyjemnością mogę zapowiedzieć nowy cykl na tej stronie! W najbliższych tygodniach i miesiącach przeczytacie serię wywiadów o tym, jakie skutki i wyzwania niesie ze sobą wdrażanie algorytmów cyfrowych i „sztucznej inteligencji” do kolejnych sfer życia i instytucji państwa. Rozmowy te powstają przy współpracy i merytorycznym wsparciu Fundacji Panoptykon, dzięki której pionierskiej pracy dyskusja o cyfrowym nadzorze, prawach człowieka w dobie wielkich platform internetowych i regulacjach technologii posuwa się konsekwentnie do przodu od 15 lat.
Nie ukrywam, że cieszę się na publikację kolejnych rozmów w tym cyklu, bo przeczuwam że i w tym temacie uda się przetrzeć nowe szlaki. Zamiast straszyć albo naiwnie zachwyać się AI, postanowiliśmy bowiem zapytać, jak konkretne narzędzia i konkretne rozwiązania wpływają na bezpieczeństwo publiczne, rynek pracy i świadczenia społeczne, wymiar sprawiedliwości i dyskryminację, politykę migracyjną i ochronę granic… i tak dalej.
Mam nadzieję, że i Wy z zainteresowaniem sięgniecie po te rozmowy. Przed Wami pierwsza z nich. Wszystkie wywiady w tym cyklu ukazują się na bieżąco na stronach Fundacji Panoptykon.
Jakub Dymek: Umówiliśmy się, żeby porozmawiać o tym, jak technologie cyfrowe, algorytmy i sztuczna inteligencja zmieniają pojęcie ochrony granic. Ale przecież od zawsze społeczeństwa i państwa używały nowych narzędzi – drewna, cegły, betonu i drutu – żeby się grodzić i zamykać w określonych granicach.
Chris Jones*: Świetny punkt wyjścia – bo dziś granice dzięki technologiom odsuwają się od tego, co „ograniczają”.
Nie wiem, czy rozumiem. Jak to?
Powiedzmy, że jesteś obywatelem Unii Europejskiej i lecisz samolotem do USA. Niby nie potrzebujesz wizy, ale musisz wypełnić dokument zwany ESTA (Electronic System for Travel Authorization), zanim jeszcze wsiądziesz na pokład samolotu. A tam znajdują się wszystkie te pytania w rodzaju: „Czy jesteś lub byłeś kiedyś członkiem organizacji terrorystycznej?”, „Czy planujesz działalność szpiegowską lub sabotażową na terenie USA”…
Tak, pamiętam to!
Wypełniony przez ciebie formularz trafia do amrykańskiego Departamentu Bezpieczeństwa Narodowego, gdzie komputer przetwarza udzielone odpowiedzi i wyszukuje cię we wszystkich bazach danych, do jakich ma dostęp. Jeśli nie wykryje tzw. wzorców podejrzanych zachowań, najprawdopodobniej uzyskasz zgodę na wjazd. Co to w praktyce oznacza? Że granica państwa, w tym przypadku USA, zaczyna się już u ciebie w domu, gdzie wypełniasz wniosek. Możesz odbić się od niej, nie zbliżając się fizycznie na tysiące kilometrów. Granicę wyznacza algorytm.
Dziś jednak nie mówimy już tylko o przypadku amerykańskim, bo podobne systemy wdraża UE, Wielka Brytania, Australia. Każdorazowo wiąże się to z rozszerzeniem cyfrowego nadzoru na masową skalę.
Jasne. Ale to nie brzmi niezwykle groźnie w porównaniu np. do tego, co dzieje się na granicy polsko-białoruskiej.
To może wyglądać jak zwykła biurokracja, ale historia dała nam dość przykładów, jak okrutne potrafi być to narzędzie. Oczywiście masz rację: algorytm to nie to samo co drut kolczasty i pałka. Jednak ten anonimowy olbrzymi serwer, który spoczywa gdzieś na świecie pod opieką firmy w rodzaju Amazon Web Services, może służyć dokładnie temu samemu, co graniczny mur i pałka w rękach pilnującego go żołnierza. Nie mówiąc już o tym, jak dotkliwe są skutki takiej odmowy wjazdu dla osób, które potrzebują zabiegu medycznego czy uciekają z powodu grożącego im niebezpieczeństwa. Chodzi więc o to, żeby osiągnąć podobne skutki, ale niekoniecznie poprzez sięgnięcie od razu po czystą fizyczną przemoc.
Czyli mówisz, że celem jest wypchnięcie samej przemocy z dala od administracyjnych granic Europy – tak by mimo wszystko ten drut czy pałka dalej istniały, lecz byśmy nie widzieli ich skutków zbyt blisko nas?
Tak, umowy UE z Libią, Tunezją czy innymi państwami dokładnie temu służą. Oczywiście, to tak, że nie ma udokumentowanych przypadków przemocy wobec migrantów w Grecji, Bułgarii, Chorwacji, Litwie, na Węgrzech czy w Polsce. Dla rządów państw europejskich i instytucji UE bardzo wygodne jest jednak delegowanie kontroli migracji na rządy państw, które nie są tak ograniczone prawem, międzynarodowymi konwencjami czy oceną opinii publicznej.
Weźmy Tunezję. Migrantów można wyłapywać w miastach, a następnie wywozić na pustynię pod granicę z innym państwem i pozostawić, żeby tam radzili sobie dalej. Podobnie w Maroko. Jeszcze gorzej jest w Libii, bo tam nie mówimy już o współpracy UE z rządem centralnym, tylko z Libijską Strażą Przybrzeżną. Ta formacja zdaniem wielu obserwatorów nie różni się od bojówki. Misja ONZ wskazuje, że w zakresie traktowania migrantów w Libii wystąpiły przypadki, które mogą być uznane za zbrodnie przeciw ludzkości.
A komu zależy, żeby rozwijać to dalej?
Po pierwsze, chodzi o to, żeby zrealizować istniejące już od początku lat 90. marzenie o w pełni zintegrowanym, jednolitym systemie kontroli granic i rejestrowania podróżnych w całej Europie. Chodzi oczywiście o efektywność i uproszczenie biurokracji. Po drugie, o tzw. świadomość sytuacyjną, czyli w europejskim żargonie „zdolność do ciągłego nadzoru i obserwacji granic”. To przekonanie, że musimy wiedzieć, co dzieje się w każdym momencie i na każdym metrze europejskich granic – że to rzekomo niezbędne.
A zatem Frontex, europejska agencja ochrony granic, finansuje różne projekty badawcze, by uzyskać nowe narzędzia i połączyć te istniejące na poziomie różnych krajów w całość. Przykładowo: gdzieś na pustyni albo przez morze przemieszcza się grupa ludzi. Musimy wiedzieć, kim są! Czy pogoda im sprzyja? Czy są już na Morzu Śródziemnym? I tak dalej… Trzeci powód to politycy, którzy pragną pokazać swoją sprawczość. To, że „kontrolują” migrację, choć w rzeczywistości wcale jej nie kontrolują. Słowo to służy wyłącznie jako eufemizm na przemoc wobec ludzi o ciemniejszym odcieniu skóry i tych z biedniejszych rejonów świata.
A oprócz tego są jeszcze firmy…
Które lobbują za tym, żeby rozwijać technologie ochrony granic?
Unia Europejska ma olbrzymie bazy danych o ludziach. Zarządzanie tym to wielka pokusa, ale i bardzo duży koszt – mówimy o miliardach euro w ciągu jednej kadencji. Nie dziwi więc, że największe firmy ze świata IT i konsultingu biją się o te kontrakty: Atos, Sopra Steria, 3M. Oprócz nich są też firmy, które produkują drony. Wśród dostawców Frontexu są m.in. izraelscy producenci sprzętu wojskowego Elbit i Israel Aerospace Systems. Aktualnie stanowi to źródło kontrowersji w związku z toczącymi się przed międzynarodowymi trybunałami postępowaniami zmierzającymi do uznania działań Izraela za zbrodnie wojenne, zbrodnie przeciwko ludzkości, a nawet ludobójstwo.
Ale oprócz nich jest dużo więcej mniejszych i większych firm, które produkują i dostarczają wszystko: od kamer termowizyjnych i skanerów linii papilarnych po mundury. Między tymi firmami a europejskimi urzędnikami oraz politykami wytworzyła się przez ostatnie kilkanaście lat pewna zależność. Firmy mają interes w tym, aby wydatki na nowe projekty badawcze i rozwojowe w dziedzinie ochrony granic rosły. Europejscy oficjele chcą zaś, by wzmocnić rolę kontynentalnego przemysłu w kontekście konkurencji z USA, Izraela, Indii i tak dalej – mają więc powód, by wspierać i subsydiować tę branżę.
Nie upierałbym się jednak, że to wpływ sektora zbrojeniowego czy technologicznego pcha polityków w tę stronę. W rzeczywistości jest raczej na odwrót: to nacisk polityków tworzy rynek i konkurencję w dziedzinie technologii obsługującej ochronę granic i „kontrolę” migracji.
Ale czy narzędzia te można w ogóle zestawiać ze sztuczną inteligencją, o której roli tyle się w tym kontekście dziś mówi?
UE pracuje nad systemem pozwoleń na przemieszczanie się nazywanym European Travel Information Authorization System. W jego ramach dane od podróżnych, nawet tych, którzy nie potrzebują wiz, będą przetwarzane przez algorytm – np. moje, bo jestem obywatelem Zjednoczonego Królestwa. Na jakich podstawach i na bazie jakich kryteriów algorytm będzie podejmował różne decyzje – to oczywiście niejawne.
I teraz robi się ciekawie! Bo jeśli przeczytasz unijny AI Act, to właśnie taki rodzaj mechanizmu uznawany jest za sztuczną inteligencję. Przetwarzane przez komputery dane milionów ludzi będą wykorzystywane do opracowywania jeszcze bardziej rozwiniętych procedur i mechanizmów przetwarzania kolejnych danych – i tworzenia jeszcze dalej idących algorytmów. Mówimy o profilowaniu ludzi na masową skalę, ale także na indywidualnym poziomie, ponieważ każdemu przypisany zostanie „profil ryzyka”.
I czym to skutkuje?
To niekoniecznie oznacza, że osobie profilowanej pod tym kątem odmówi się wjazdu albo zakaże przekraczania granic. Ale może wpadniesz w jakąś szufladkę? Może powinniśmy powiadomić jakieś służby w twojej ojczyźnie albo w innym państwie członkowskim o tym, gdzie jesteś? Może twoje dokumenty powinny zostać prześwietlone bardziej dokładnie? Tak mogą wyglądać różne decyzje.
Mówimy w gruncie rzeczy o tym, że niesprawdzona jeszcze technologia zostanie przetestowana na setkach milionów ludzi. A nie mamy żadnych dowodów, że coś podobnego jest potrzebne. Nie widziałem żadnych badań, które wskazywałyby, że miliony osób podróżujących do Europy każdego roku trzeba objąć aż takim nadzorem, bo stanowią zagrożenie. A ten program obejmie także w przyszłości osoby, które już mają wizy – i będzie się dalej rozszerzał.
Czy to będzie zautomatyzowane?
W teorii nie ma prawnej możliwości, żeby proces decydowania o zezwoleniu lub odmowie wjazdu realizował sam algorytm bez odpowiedzialności człowieka. Prawo na poziomie unijnym tego zabrania. Jednak choć nie ma żadnych planów, aby podobny proces zautomatyzować w najbliższej przyszłości, nie oznacza to, że decyzje algorytmów nie będą miały wpływu na decyzje urzędników.
Dlaczego?
Podobne systemy dostarczają urzędnikom gotowych rekomendacji czy ocen, które w oczywisty sposób wpływają na ich późniejsze kroki.
Można więc powiedzieć, że i tu dochodzi do pewnego rodzaju oddalenia czy wypchnięcia trudnych albo kontrowersyjnych decyzji i przeniesienie odpowiedzialności za nie na rozwiązanie cyfrowe.
To zjawisko, które nazywamy outsourcingiem moralnym. Bazuje ono właśnie na tym, żeby decyzje o ciężarze moralnym – które mogą kogoś potencjalnie skrzywdzić albo prowadzić do wyboru mniejszego lub większego zła – odsunąć od ludzi je podejmujących, a przenieść np. na algorytmy. Możemy sobie więc wyobrazić przyszłość, w której ten moralny outsourcing zostaje naprawdę wdrożony. I system komputerowy ocenia, komu bardziej należy się ochrona międzynarodowa czy zezwolenie na wjazd: osobie chorej, cierpiącej z powodu zaburzeń psychicznych, doświadczającej przemocy domowej, wywodzącej się z mniejszości narodowej, a może jeszcze komuś innemu? O ile łatwo sobie wyobrazić sam proces, trudniej założyć, że algorytm zdolny byłby do uczciwej oceny. Chciałbym jednak zaznaczyć, że choć to jest idea, o której się w unijnych instytucjach rozmawia, nie mamy pewności, czy rzeczywiście wdrażanie jej w życie idzie do przodu. Ale czy coś podobnego można już testować? Jak najbardziej.
Jak może zatem wyglądać przyszłość praw człowieka i ochrony europejskich granic w miarę postępów technologii?
Ironia polega na tym, że nie musimy wybiegać wyobraźnią daleko w przyszłość. Wystarczy zauważyć, co dzieje się wokół nas. Miliony ludzi codziennie poruszają się po UE i przekraczają jej granice całkowicie normalnie – choć za cenę tego, że zrzekają się części swojej prywatności (muszą się zgodzić na skany tęczówki czy odcisków palców). Ale oprócz nich są inni. Ci, którzy urodzili się w niewłaściwym kraju, w złym miejscu i czasie – oni nie mogą cieszyć się luksusem swobodnego poruszania po UE. Nieważne, czy szukają schronienia, czy czegokolwiek innego – muszą znaleźć inne sposoby, by do tutaj się dostać. Wszystkie rozwiązania prawne czy technologiczne, które dziś mamy, służą tylko podtrzymaniu i wzmocnieniu tej nierównowagi. A więc problemy leżą gdzie indziej niż rozwiązania, które miałyby im rzekomo zaradzić.
To się stało wyraźne po rosyjskiej inwazji na Ukrainę. Wówczas nie było problemu, żeby do sprawy podejść radykalnie odmiennie. Instytucje europejskie, rządy państw członkowskich i same społeczeństwa Europy przywitały obywatelki i obywateli Ukrainy bardzo ciepło. Dlaczego więc nie możemy zrobić podobnie w przypadku innych narodowości: Afgańczyków czy Syryjczyków? Warto zapytać, jak to się dzieje, że gdy przez jedną granicę przepuszczamy pociągi pełne ludzi, na drugiej trzymamy ludzi w lesie i okładamy ich pałką?
Władze Polski odpowiedziałyby ci na to pytanie natychmiast. Dzieje się tak, dlatego że migracja wykorzystywana jest jako narzędzie presji przez autorytarne reżimy, by wytworzyć dla Europy problemy.
Nie ulega wątpliwości, że reżim w Mińsku pomagał ludziom podróżować do Białorusi i potem próbować dostać się do Polski czy Litwy. Ale osoby, które podnoszą ten argument, nie chcą zauważyć, że to się dzieje za każdym razem, gdy Europa umawia się np. z Turcją czy Marokiem na przetrzymywanie migrantów – i w ten sposób przenosi swoje granice dalej. Później zawsze będzie podatna na tego typu presję. Wystarczy, że władze Turcji czy Maroka przestaną tak ściśle pilnować granic czy zawracać tych ludzi. Dokładnie to, co stało się miedzy Polską a Białorusią – czyli polityczny konflikt, który doprowadził do chaosu na granicach – stało się między Hiszpanią a Marokiem. To jest nasz problem, że ludzi z innych państw traktujemy jako „broń wymierzoną w nas”, choć jednocześnie potrafimy traktować Ukraińców jak sąsiadów w potrzebie.
To może zatem technologie mają pomóc w tym, aby podobnych sytuacji unikać?
Tylko że to dość słaby argument, aby dalej rozwijać cyfrowy nadzór czy biurokrację. Przekonaliśmy się wszak, że ludzi przed migracją nie są w stanie powstrzymać ani mury, ani druty – te elektroniczne też nie zmienią faktu, że ludzie migrowali i będą migrować.
Co więc zrobić z AI i algorytmami wykorzystywanymi przez państwa?
Uważam, że wielu z nich należałoby po prostu zakazać. Nie widzę przeszkód, dla których mielibyśmy tego nie zrobić. Oczywiście toczy się wielka debata wokół AI Act, a nasza organizacja jest częścią koalicji domagającej się zakazania pewnych technologii (w szczególności rozpoznawania twarzy i automatycznego profilowania). Nie zawsze nam się udaje. W odniesieniu do technologii panuje bowiem przekonanie o nieuchronności wdrożenia kolejnych wynalazków. Częste jest myślenie, które podpowiada: „I tak to wprowadzą, więc musimy się z tym pogodzić i wymyślić jakieś regulacje”. To jest o tyle przewrotne, że część z tych projektów technologicznych nie byłaby możliwa bez publicznych pieniędzy i wsparcia UE. Oczywiście, że istnieją bardziej demokratyczne sposoby kierowania procesem rozwoju technologii. Jako społeczeństwa Zachodu mamy sporo doświadczenia z blokowaniem społecznie szkodliwych wynalazków.
Ale granice nie znikną wraz z zakazaniem rozwoju pewnych narzędzi.
Zgoda. Ale są technologie, których samo istnienie stwarza zagrożenie dla podstawowych praw i demokratycznych wartości rzekomo przez nas wyznawanych. Najlepszym przykładem niech będzie używanie systemów identyfikacji twarzy w przestrzeni publicznej lub – jak nazywa się to w języku AI Act – „zdalnego rozpoznawania biometrycznego”. Ostatecznie od postulowanego zakazu powstało tyle wyjątków prawnych, że państwa członkowskie UE uzyskają swobodę sięgania po te narzędzia przy różnych okazjach. W ten sposób – dzięki wyjątkom od kilku zapisów prawnych – tworzymy model państwa, w którym każdy obywatel może być zidentyfikowany przez władze w każdej sytuacji. Czy o to nam chodziło w modelu europejskiej demokracji? Ten fatalizm, który mówi, że jeśli dana technologia istnieje, to musi zostać wdrożona, w oczywisty sposób stawia technologiczny determinizm ponad kluczowe wartości, takie jak prawa człowieka, wolności obywatelskie i zasady demokratyczne.
Czyli regulacje to za mało?
Ktoś może pomyśleć, że skoro mamy jakieś zabezpieczenia czy regulacje, to wszystko będzie dobrze. Ale po pierwsze: wiemy doskonale, co się stanie, gdy technologie już raz zostaną wprowadzone, a ktoś postanowi dane regulacje jednak obejść. Po drugie, powinniśmy zadać sobie pytanie, czy naprawdę wierzymy, że możemy zaufać liderom naszych państw – co z tymi regulacjami zrobią rządy skrajne albo bardzo represyjne wobec mniejszości? Nie trzeba szukać daleko, aby znaleźć i w UE takich przywódców. Czy im również na pewno chcemy dać do ręki cały ten aparat inwigilacji, kontroli granic, profilowania obywateli?
Zatem zakazanie AI i algorytmów w dziedzinie migracji wydaje się z twojej perspektywy najlepszym rozwiązaniem także dla samych obywateli Europy i jej demokratycznych standardów?
Nasze podejście do migracji wytworzyło skrajnie nierówny system, który traktuje pewne grupy ludzi jako gorsze, niegodne tych samych praw. Jego skutkami są rasizm, dyskryminacja i przemoc. Narzędzia, o których tu rozmawiamy, nie pomogą zmienić tego stanu rzeczy. One służą temu, by obsługę całego systemu uczynić łatwiejszą dla tych, którzy nim zarządzają – dla urzędników czy polityków. Jeśli więc traktujemy nasze zasady czy standardy poważnie, nie powinniśmy się na to godzić. Powinniśmy ufundować nasze podejście do przemieszczania się ludzi pomiędzy granicami na pryncypiach demokracji i praw człowieka. Technologie mogą pomóc w ograniczonym zakresie ograniczonej grupie ludzi, ale używane ich na fundamencie dyskryminacji i przemocy to zamiana złej sytuacji na jeszcze gorszą.
*Chris Jones jest dyrektorem wykonawczym organizacji StateWatch, która zajmuje się pracą analityczną i dziennikarstwem śledczym w zakresie łamania praw człowieka i wolności obywatelskich. Specjalizuje się w zagadnieniach migracji, wymiaru sprawiedliwości i bezpieczeństwa.
Licencja CC BY-SA.