Policja Nowego Orleanu wykorzystuje SI bez wiedzy urzędników miejskich

Rozwiązania z zakresu tzw. predictive policing, czyli – pisząc wprost – przewidywania przestępstw, są dziś stosowane przez wiele oddziałów policji na całym świecie. W naszym serwisie znajdziecie obszerny artykuł na ten temat, do którego lektury zachęcam. Jednak problem z algorytmami sztucznej inteligencji, z których zaczęli korzystać policjanci z Nowego Orleanu polega przede wszystkim na tym, że oto rozwiązanie, które w istotny sposób wpływa na funkcjonowanie instytucji utrzymywanej przez amerykańskich podatników, zostało wdrożone bez powiadomienia demokratycznie wybranych urzędników miasta Nowy Orlean.
Raport Mniejszości (fot. DreamWorks SKG)

Raport Mniejszości (fot. DreamWorks SKG)

Jeżeli w tym momencie cisną się wam na usta słowa “państwo policyjne”, to my mamy podobne odczucia. Działania NOPD mają niewiele wspólnego z demokracją i obowiązującymi w państwach prawa regułami wprowadzania technologii, które mają wpływ na to, jak działają służby publiczne.

Tymczasem modele predykcyjne, szczególnie te wykorzystywane przez sztuczne inteligencje powinny być wdrażane ze szczególną ostrożnością i z poszanowaniem wszelkich procedur. Zwłaszcza w przypadku, gdy wyniki analizy maszynowej przeprowadzonej przez sztuczną inteligencję mają skutkować wysłaniem uzbrojonych oddziałów policji w konkretny region miasta.

Zresztą system opracowany przez firmę Palantir, przy wsparciu funduszy CIA był już wcześniej mocno krytykowany (zainteresowanych odsyłam do wcześniejszego tekstu dotyczącego tej krytyki), głównie dlatego, że predykcja maszynowa jest – po pierwsze niezbyt dokładna, a po drugie działa trochę jak samospełniające się przepowiednie. Wielu ekspertów zwraca uwagę, że wysłanie uzbrojonych oddziałów w konkretny rejon zawsze powoduje wzrost napięć społecznych w danym miejscu, tworząc niepotrzebne dodatkowe bariery pomiędzy organami ścigania a społecznością, która przez te organy ma być chroniona. Rolą policji nie jest patrzenie na chronionych przez nią obywateli jak na wrogów, a trudno sobie wyobrazić, by było inaczej, gdy policjant, członek wysyłanego oddziału wie, że jest wysyłany w rejon, w którym “coś się wydarzy”, bo tak przecież orzekła sztuczna inteligencja.

Jednak nawet, gdy pominiemy (choć niezwykle ważną) kwestię dokładności modeli predykcyjnych, samo ich stosowanie budzi zrozumiałe obawy w kontekście praw obywatelskich i prywatności. Aktualnie w żadnym z państw prawa nie jest możliwe zatrzymanie kogoś bez uzasadnionego podejrzenia. Rodzi się zatem pytanie, czy wynik analizy danych przeprowadzony przez system predykcyjny może być uznany za takie uzasadnione podejrzenie. Chiny od lat inwestują w podobne systemy do masowej inwigilacji swoich obywateli, co ułatwia władzom wyłapywanie “podejrzanych” i “radykałów” a następnie wysyłanie ich na przymusową “reedukację”. Sposób w jaki NOPD wdrożyła system Palantir bardzo przybliża Stany Zjednoczone do Chin. | CHIP