Policja testuje systemy predykcji przestępstw. Czy to początek państwa totalnego?

warszawawpigulce.pl 20 godzin temu

W Polsce ruszyły pilotażowe testy technologii, która dotąd kojarzyła się z filmami science fiction. Policyjne algorytmy mają przewidywać przestępstwa, zanim te się wydarzą. Choć oficjalnie chodzi o zwiększenie bezpieczeństwa, pojawiają się pytania o granice kontroli i prawa obywatelskie. Czy to początek ery prewencji totalnej?

Fot. Warszawa w Pigułce

Sztuczna inteligencja w służbie porządku

Chodzi o tzw. systemy predykcji przestępstw – narzędzia wykorzystujące analizę danych, które mają pozwolić służbom przewidzieć, gdzie i kiedy może dojść do wykroczeń lub aktów przemocy. Na podstawie wcześniejszych statystyk, schematów zachowań i danych przestrzennych, algorytm generuje mapy zagrożeń. Policja może dzięki nim kierować patrole w miejsca uznane za „najbardziej ryzykowne”.

W Europie systemy tego typu testowano już m.in. w Niemczech, Holandii i Wielkiej Brytanii. Teraz czas na Polskę. Testy, jak ustalili dziennikarze, są prowadzone w wybranych miastach i obejmują zarówno obszary miejskie, jak i podmiejskie.

Kontrowersje narastają

Entuzjaści technologii mówią o rewolucji w działaniach prewencyjnych. Krytycy widzą w tym jednak poważne zagrożenie. Czy sztuczna inteligencja może decydować o tym, kto „potencjalnie” stanie się przestępcą? Czy wzmożony nadzór nad konkretnymi rejonami nie prowadzi do dyskryminacji lub nadużyć?

Eksperci od prawa i wolności obywatelskich biją na alarm: brak jasnych regulacji, nadzoru i mechanizmów kontroli może zamienić nowe technologie w narzędzia nadmiernej inwigilacji. I przypominają, iż podobne systemy w USA były krytykowane za wzmacnianie uprzedzeń rasowych i klasowych.

Co wiemy o testach w Polsce

Polska policja nie ujawnia szczegółów. Wiadomo jedynie, iż testowane są dwa modele predykcji – jeden oparty na analizie danych z przeszłości, drugi wspomagany przez zewnętrzne algorytmy. Oficjalnie celem jest „lepsze rozpoznanie zagrożeń i skuteczniejsze planowanie działań patrolowych”.

Nie wiadomo, kto stoi za technologicznym wsparciem projektu. Nie ujawniono też, jak dane są przetwarzane i kto ma dostęp do wyników analiz. Pojawiają się podejrzenia, iż część systemów korzysta z danych telekomunikacyjnych i monitoringu miejskiego.

Kwestia zaufania

Policja zapewnia, iż system ma wyłącznie charakter pomocniczy i nie służy do wytypowania konkretnych osób. Ale jak pokazuje historia innych krajów, granica między prewencją a profilowaniem społecznym bywa cienka. Zwłaszcza gdy w grę wchodzą automatyczne decyzje oparte na niejawnych algorytmach.

Czy Polska stoi u progu nowego modelu prewencji, w którym człowiek będzie oceniany nie na podstawie czynu, ale prawdopodobieństwa jego popełnienia? Na razie to tylko testy. Ale pytania, które wywołują, są bardzo realne.

Idź do oryginalnego materiału