Policja testuje systemy predykcji przestępstw. Czy to początek państwa totalnego?
W Polsce ruszyły pilotażowe testy technologii, która dotąd kojarzyła się z filmami science fiction. Policyjne algorytmy mają przewidywać przestępstwa, zanim te się wydarzą. Choć oficjalnie chodzi o zwiększenie bezpieczeństwa, pojawiają się pytania o granice kontroli i prawa obywatelskie. Czy to początek ery prewencji totalnej?

Fot. Warszawa w Pigułce
Sztuczna inteligencja w służbie porządku
Chodzi o tzw. systemy predykcji przestępstw – narzędzia wykorzystujące analizę danych, które mają pozwolić służbom przewidzieć, gdzie i kiedy może dojść do wykroczeń lub aktów przemocy. Na podstawie wcześniejszych statystyk, schematów zachowań i danych przestrzennych, algorytm generuje mapy zagrożeń. Policja może dzięki nim kierować patrole w miejsca uznane za „najbardziej ryzykowne”.
W Europie systemy tego typu testowano już m.in. w Niemczech, Holandii i Wielkiej Brytanii. Teraz czas na Polskę. Testy, jak ustalili dziennikarze, są prowadzone w wybranych miastach i obejmują zarówno obszary miejskie, jak i podmiejskie.
Kontrowersje narastają
Entuzjaści technologii mówią o rewolucji w działaniach prewencyjnych. Krytycy widzą w tym jednak poważne zagrożenie. Czy sztuczna inteligencja może decydować o tym, kto „potencjalnie” stanie się przestępcą? Czy wzmożony nadzór nad konkretnymi rejonami nie prowadzi do dyskryminacji lub nadużyć?
Eksperci od prawa i wolności obywatelskich biją na alarm: brak jasnych regulacji, nadzoru i mechanizmów kontroli może zamienić nowe technologie w narzędzia nadmiernej inwigilacji. I przypominają, że podobne systemy w USA były krytykowane za wzmacnianie uprzedzeń rasowych i klasowych.
Co wiemy o testach w Polsce
Polska policja nie ujawnia szczegółów. Wiadomo jedynie, że testowane są dwa modele predykcji – jeden oparty na analizie danych z przeszłości, drugi wspomagany przez zewnętrzne algorytmy. Oficjalnie celem jest „lepsze rozpoznanie zagrożeń i skuteczniejsze planowanie działań patrolowych”.
Nie wiadomo, kto stoi za technologicznym wsparciem projektu. Nie ujawniono też, jak dane są przetwarzane i kto ma dostęp do wyników analiz. Pojawiają się podejrzenia, że część systemów korzysta z danych telekomunikacyjnych i monitoringu miejskiego.
Kwestia zaufania
Policja zapewnia, że system ma wyłącznie charakter pomocniczy i nie służy do wytypowania konkretnych osób. Ale jak pokazuje historia innych krajów, granica między prewencją a profilowaniem społecznym bywa cienka. Zwłaszcza gdy w grę wchodzą automatyczne decyzje oparte na niejawnych algorytmach.
Czy Polska stoi u progu nowego modelu prewencji, w którym człowiek będzie oceniany nie na podstawie czynu, lecz prawdopodobieństwa jego popełnienia? Na razie to tylko testy. Ale pytania, które wywołują, są bardzo realne.

Kocham Warszawę, podróże i gastronomię i to właśnie o nich najczęściej piszę.