Algorytmy sprawiedliwości. Jak sztuczna inteligencja wpływa na system sądowniczy

magazynpismo.pl 4 godzin temu

Weszli do windy. Gdy jechali nią na dół, Anderton powiedział:

– Pewnie zdajesz sobie sprawę z podstawowej prawnej wady systemu Prewencji. Krótko mówiąc, zajmujemy się ludźmi, którzy nie popełnili jeszcze przestępstwa.

– Ale z całą pewnością kiedyś to zrobią – odrzekł Witwer z przekonaniem.

Newsletter

Aktualności „Pisma”

W każdy piątek polecimy Ci jeden tekst, który warto przeczytać w weekend.

Zapisz się

– Na szczęście nie… bo łapiemy ich, zanim zdążą popełnić jakąkolwiek zbrodnię. I dlatego jej popełnienie to zupełna metafizyka. Twierdzimy, iż są winni. Oni z kolei twierdzą, iż są całkowicie niewinni. I w pewnym sensie mają rację” (przeł. Konrad Brzozowski).

W noweliRaport mniejszościPhilip K. Dick szkicuje świat, w którym wszelkie przestępstwa są przewidywane, a sprawcy ujmowani, zanim jeszcze dopuszczą się zabronionego czynu. Wizja ta rozpala wyobraźnię, ale też może budzić uśmiech politowania. Elementem fantastycznym u Dicka jest jednak nie sam fakt istnienia takiego systemu predykcji, ale mechanizm jego działania – decyzje zapadają tam na podstawie wizji trojga jasnowidzów. Brzmi abstrakcyjnie? W systemie sądowniczym dysponujemy czymś realnym, a jednak zadziwiająco podobnym do fantastycznych opowieści – sztuczną inteligencją. Jej wykorzystanie w policji czy sądownictwie z jednej strony może wyglądać jakscience fiction, ale z drugiej jest znacznie bardziej ograniczone i przestarzałe, niż można by przypuszczać.

Co prawda pojęcie „realności” w kontekście sztucznej inteligencji (AI) jest mało precyzyjne. „Sztuczna inteligencja” to najczęściej termin-worek dla różnorodnych systemów, które zawierają w sobie różnego rodzaju zaawansowane algorytmy oparte między innymi na uczeniu maszynowym. Modele te są trenowane na dużych zbiorach danych historycznych, by na ich podstawie generować prognozy, na przykład dotyczące ryzyka kredytowego, przenoszenia chorób zakaźnych czy planowania popytu w handlu.

Prognozy takie mogą dotyczyć także ryzyka recydywy czy orzeczenia sądu. I również w ich przypadku im więcej danych i lepsza ich jakość (a więc kompletność, dokładność oraz aktualność), tym dokładniejsze wyniki, przynajmniej w teorii. W praktyce jednak algorytmy te dziedziczą nie tylko nasze dane, ale też uprzedzenia czy błędy poznawcze[o znaczeniu tych ostatnich w sądownictwie pisała Maja Hawranek, „Pismo” nr 7/2025 – przyp. red.]. Do tego dochodzą mniej lub bardziej wyrafinowane modele statystyczne, czyli równania matematyczne mające przewidywać wyniki na podstawie danych historycznych. Granica między klasyczną analityką danych a sztuczną inteligencją jest więc często płynna, ponieważ oba podejścia mogą korzystać z podobnych technik, różnić się stopniem automatyzacji czy skalą analizy, choć ostatecznie prowadzą do tego samego: generowania wniosków i rekomendacji na podstawie danych. Dlatego właśnie, gdy spojrzymy na skutki społeczne czy prawne, nie ma większego znaczenia, czy decyzja została podjęta z użyciem prostego modelu statystycznego czy głębokiej sieci neuronowej. Ważniejsze jest to, do czego te narzędzia zostaną wykorzystane. A możliwości jest sporo.

Algorytmy w kryminalistyce

Zastosowanie algorytmów w kryminalistyce to proces, który trwa dużo dłużej niż obecnyboomna AI. Chyba najlepszym tego przykładem są systemy analizujące odciski palców i porównujące je z tymi w bazie danych. Automatyczny System Identyfikacji Daktyloskopijnej (Automated Fingerprint Identification System, AFIS) został wprowadzony do użytku przez FBI w Stanach Zjednoczonych w 1999 roku z wykorzystaniem cyfrowej bazy danych rozwijanej od lat 80. Proces ten polega na zeskanowaniu odcisku, wydobyciu tak zwanych minucji, czyli charakterystycznych punktów linii papilarnych, a następnie zakodowaniu ich w numerycznej formie. Taki profil jest porównywany z zapisami w bazie, a system zwraca listę najbardziej podobnych odcisków wraz z oceną prawdopodobieństwa dopasowania, którą ostatecznie weryfikują technicy kryminalistyki.

W Polsce odciski pobierane w związku z przestępstwami trafiają do AFIS od 2000 roku. I chociaż podstawą działania tego systemu jest skuteczna, stosunkowo prosta z dzisiejszej perspektywy technologia, to nie znaczy, iż AI nie może jej wspomóc. w tej chwili sztuczną inteligencję zaprzęga się do lepszego rozpoznawania częściowych lub rozmazanych odcisków. Z kolei badania prowadzone przez zespół Columbia Engineering wykazały, iż dzięki użyciu sieci neuronowych możliwe jest dopasowanie pary odcisków należącej do tej samej osoby, ale z różnych palców. To coś, co wydawało się do tej pory niemożliwe, a teraz otworzyło drogę do dalszych badań, które mogą ułatwić powiązanie śladów należących do jednej osoby, ale z dwóch różnych miejsc zbrodni.

Przeczytaj też:Jak wytropić przestępcę na Facebooku

Oczywiście odciski palców to tylko początek. Nowoczesne technologie – coraz częściej wliczając w to sztuczną inteligencję – wykorzystywane są także chociażby do identyfikacji twarzy czy głosu albo analizy DNA znalezionego na miejscu zbrodni.

Niektóre kraje stosują na przykład rozpoznawanie twarzy prewencyjnie, jak choćby Chiny w ramach projektu Skynet/Tianwang. System ten jest podłączony do ponad 600 milionów kamer, które na bieżąco monitorują obywateli i mogą w kilka sekund dopasować ich podobiznę do zdjęć z bazy zawierającej miliardy fotografii z niemal 100-procentową skutecznością – jeżeli wierzyć oficjalnym źródłom. Ciekawą opcją tej technologii ma być rozpoznawanie podejrzanych zachowań i wysyłanie alarmów do ludzkiego personelu.

W 2023 roku polski resort sprawiedliwości wdrażał w Zakładzie Karnym w Chełmnie podobne rozwiązanie – system wykrywający niepożądane zachowania osadzonych na podstawie analizy danych z monitoringu. Dzięki temu system może przyspieszyć interwencję w niebezpiecznych sytuacjach czy pomóc odciążyć służbę więzienną od ślęczenia przed ekranem – dzięki dźwiękowym i wizualnym sygnałom, które pojawiają się, kiedy system rozpozna na przykład bójkę. Może, bo jeszcze brakuje danych dotyczących rzeczywistego wpływu na bezpieczeństwo osadzonych i personelu więziennego.

Czy zatem AI przybliża nas do scenariusza, w którym służby będą w stanie przewidzieć zdarzenia, które się jeszcze nie wydarzyły?

Newsletter

Zachwyty „Pisma”

Zuzanna Kowalczyk podzieli się z Wami osobistymi refleksjami wokół książek, nagrań, spektakli i filmów.

Zapisz się

Chicago, rok 2013. Robert McDaniel otwiera drzwi ekipie policjantów. Nic przecież nie zrobił, więc czego mogli chcieć? Oskarżyć o coś? Zatrzymać? Przesłuchać? Nie. Zapukali do jego drzwi, bo system predykcyjny oznaczył go jako osobę, która z prawdopodobieństwem większym niż 99,9 procent populacji Chicago weźmie udział w strzelaninie. Nie wiadomo, czy jako ofiara, czy jako sprawca. Policjanci przyszli więc z ostrzeżeniem. Od tego momentu McDaniel znajdował się pod nadzorem służb. Z czasem osoby z jego bliskiego środowiska odwróciły się od niego, a podejrzenia, iż jest kapusiem, zaczęły się nasilać. W 2017 roku przewidywania policji potwierdziły się po raz pierwszy – McDaniel został postrzelony w kolano. Trzy lata później, blisko swojego domu, znów stał się celem ataku. Mężczyzna przeżył i mimo iż wiedział, kim są sprawcy, odmówił sprzedania kolegów z blokowiska. Trafił na listę osób zagrożonych udziałem w strzelaninie, co wzbudziło nieufność, która najpewniej doprowadziła do obu ataków, działając jak samospełniająca się przepowiednia.

Prawdopodobieństwo popełnienia przestępstwa, czyli system predykcji

System, który oznaczył McDaniela, to tylko jeden z przykładów narzędzi predykcyjnych, które najczęściej przyjmują jedną z dwóch form: część koncentruje się na miejscu i czasie potencjalnych przestępstw (PredPol, PreCobs, CAS), a część na osobach i ich skłonności do popełnienia przestępstw lub recydywy. Do tej drugiej kategorii należy Correctional Offender Management Profiling for Alternative Sanctions (COMPAS), system oceny ryzyka sprawców wykorzystywany w USA. Na podstawie algorytmów, które analizują takie czynniki, jak uzależnienie, edukacja, stabilność zatrudnienia czy historia karalności (niektóre z tych danych pochodzą z samoopisowych ankiet, niektóre z akt osobowych, co budzi zasadne kontrowersje), COMPAS ocenia ryzyko recydywy w skali od 1 do 10. Jednocześnie w innej skali, tak zwanych potrzeb kryminogennych, szacuje, jakie środki mogą zostać włączone w celu pomocy danej osobie (terapia, wsparcie w edukacji bądź szukanie pracy). Osoby z wysokim ryzykiem recydywy podlegają dokładniejszej superwizji i częstszym interwencjom, takim jak wizyty kuratora. Niestety, dokładny model działania nie został ujawniony, nie wiadomo więc, w jaki sposób prowadzone są te przewidywania. Ale to niejedyne związane z nim kontrowersje.

Zajmujący się dziennikarstwem śledczym portal ProPublica w 2016 roku przeanalizował wyniki tego systemu i odkrył, iż trafność prognozy recydywy wynosiła 61 procent, ale w przypadku przemocy okazała się celna jedynie w 20 procentach przypadków. Pojawiły się też obawy przed stronniczością związaną z zakodowanym w algorytmie rasizmem – częściej błędnie klasyfikował on osoby czarnoskóre jako stwarzające wysokie ryzyko, natomiast białe – jako stwarzające ryzyko niskie. Jak przekonuje ProPublica, błędów tych nie dało się wyjaśnić historią kryminalną, wiekiem ani płcią.

A jak COMPAS wpływa na pracę sądów? Dobrym punktem odniesienia do tego pytania jest sprawa Wisconsin przeciwko Loomisowi z 2016 roku, w której Eric Loomis, oskarżony o jazdę skradzionym pojazdem i ucieczkę przed policją, został oznaczony przez system jako osoba wysokiego ryzyka i w toku postępowania sądowego skazany na sześć lat pozbawienia wolności. Sprawa została zaskarżona do Sądu Najwyższego, który co prawda podtrzymał wyrok, ale jednocześnie wyznaczył istotną granicę – narzędzia takie jak COMPAS wolno brać pod uwagę wyłącznie pomocniczo, z jasnym zastrzeżeniem, iż są metodami o działaniu niejawnym, obarczonymi ryzykiem uprzedzeń. Wynik takiej oceny nie określa twardego prawdopodobieństwa, stanowi jedynie wskazówkę, która wymaga dalszej interpretacji. Sprawa Loomisa jest przywoływana nie dlatego, iż algorytm zdecydował o karze, ale z tego …

Idź do oryginalnego materiału