Wielka myśl: czy roboty powinny przejąć kontrolę nad zwalczaniem wykroczeń?

rada nadzorcza Francisco niedawno głosowała za pozwoleniem policji na rozmieszczenie robotów wyposażonych w śmiercionośne materiały wybuchowe – zanim cofnęła się kilka tygodni później. W Ameryce głosowanie wywołało zaciekłą debatę na temat militaryzacji policji, ale rodzi fundamentalne pytania dla nas wszystkich dotyczące roli robotów i sztucznej inteligencji w zwalczaniu przestępczości, sposobu podejmowania decyzji policyjnych i, w istocie, samego celu naszej przestępczej systemy wymiaru sprawiedliwości. W Wielkiej Brytanii funkcjonariusze działają na zasadzie „policji za zgodą”, a nie siłą. Jednak według badania przestępczości 2020 dla Anglii i Walii zaufanie społeczne do policji spadło z 62% w 2017 r. do 55%. Jedna z ostatnich ankietzapytał londyńczyków, czy Met jest instytucjonalnie seksistowski i rasistowski. Prawie dwie trzecie odpowiedziało „prawdopodobnie” lub „zdecydowanie”.

Być może nie jest to zaskakujące, biorąc pod uwagę głośne przypadki przestępstw popełnionych przez funkcjonariuszy policji, takich jak Wayne Couzens , który zamordował Sarah Everard, i David Carrick , który niedawno przyznał się do 49 przestępstw, w tym gwałtu i napaści na tle seksualnym.

Nowy komisarz, Mark Rowley, powiedział, że „musimy przygotować się na bardziej bolesne historie” i ostrzegł, że w nadchodzących miesiącach oczekuje się, że dwóch lub trzech funkcjonariuszy tygodniowo pojawi się w sądzie w związku z zarzutami karnymi. Ale co, jeśli problem z policją wykracza poza tak zwane „złe jabłka”, nawet poza kulturę i politykę, które pozwalają na niekontrolowany rozkwit dyskryminacji? Co jeśli jest to również osadzone w sposobie, w jaki istoty ludzkie faktycznie podejmują decyzje?

Działania policyjne wymagają każdego dnia podejmowania setek decyzji, często w warunkach skrajnej presji i niepewności: kogo i gdzie objąć policją, którym przypadkom i ofiarom nadać priorytet, komu wierzyć i jakie linie dochodzeniowe obrać. Jak wyjaśnia Malcolm Gladwell w Blink , te szybkie decyzje – często określane jako „przeczucia” – są oparte na naszych indywidualnych doświadczeniach społecznych i emocjonalnych, ale także na uprzedzeniach, które wszyscy przyswoiliśmy sobie z szerszego społeczeństwa, takich jak rasizm, seksizm, homofobia i transfobia.

Czy zatem sztuczna inteligencja może zaoferować sprawiedliwszą i skuteczniejszą drogę naprzód dla policji XXI wieku? Zasadniczo istnieją dwa rodzaje sztucznej inteligencji: „wąska sztuczna inteligencja”, która może wykonywać określone zadania, takie jak rozpoznawanie obrazów, oraz „sztuczna inteligencja ogólnego przeznaczenia”, która dokonuje znacznie bardziej złożonych osądów i decyzji obejmujących wszystkie rodzaje domen. Sztuczna inteligencja ogólnego przeznaczenia opiera się na głębokim uczeniu się — pochłanianiu ogromnych ilości danych i wykorzystywaniu ich do ciągłego dostosowywania i poprawiania wydajności oraz ma potencjał przejmowania coraz większej liczby zadań wykonywanych przez ludzi w pracy. ChatGPT, najnowocześniejszy model przetwarzania języka, który umożliwia pisanie artykułów naukowych, artykułów, a nawet wierszy w ciągu kilku sekund, jest najnowszym tego przykładem, który pobudza wyobraźnię opinii publicznej.

Sztuczna inteligencja może już przeszukiwać miliony zdjęć i analizować ogromne ilości postów w mediach społecznościowych w celu zidentyfikowania i zlokalizowania potencjalnych podejrzanych. Opierając się na innych rodzajach danych, może również pomóc przewidzieć czasy i miejsca, w których przestępstwo jest najbardziej prawdopodobne. W szczególnych przypadkach może testować hipotezy i odfiltrowywać błędy, umożliwiając funkcjonariuszom skupienie się na kierunkach śledztwa najlepiej uzasadnionych dostępnymi dowodami.

Szybsze, sprawiedliwsze, oparte na dowodach decyzje za ułamek kosztów z pewnością brzmią atrakcyjnie, ale wczesne badania sugerują potrzebę zachowania ostrożności. Tak zwana „policja predykcyjna” wykorzystuje informacje historyczne do identyfikowania potencjalnych przyszłych sprawców i ofiar, ale badania wykazały, że dane źródłowe dla tego rodzaju modelowania mogą być pełne uprzedzeń, generując na przykład wyniki, które kategoryzują osoby kolorowe jako nieproporcjonalnie „ niebezpieczne” lub „bezprawne”. Badanie Rand Corporation z 2016 r. wykazało, że „mapa cieplna” przewidywanych brutalnych przestępstw w Chicago nie zmniejszyła przemocy z użyciem broni, ale doprowadziła do większej liczby aresztowań w dzielnicach o niskich dochodach i zróżnicowanych rasowo.

Mówiąc głębiej, sztuczna inteligencja jest zaprojektowana do osiągania celów, które sobie wyznaczyliśmy. Tak więc, jak ostrzegł profesor Stuart Russell w swoich wykładach Reith z 2021 r ., wszelkie zadania muszą być dokładnie określone w ramach korzystnych dla ludzkości, aby, jak w Uczniu czarnoksiężnika, polecenie przyniesienia wody nie spowodowało niepowstrzymanej powodzi.

W końcu możemy nauczyć się projektować stronniczość i unikać perwersyjnych konsekwencji, ale czy to wystarczy? Jak zauważyła prof. Batya Friedman ze szkoły informacyjnej Uniwersytetu Waszyngtońskiego: „Sprawiedliwość to coś więcej niż tylko właściwa decyzja. Jest to proces, w którym istoty ludzkie dają sobie nawzajem świadectwo, rozpoznają się nawzajem, rozliczają się nawzajem, odnawiają się nawzajem”.

Zamiast debatować nad tym, co sztuczna inteligencja będzie, a czego nie będzie w stanie zrobić w przyszłości, powinniśmy zapytać, czego oczekujemy od naszego systemu karnego i wymiaru sprawiedliwości oraz w jaki sposób sztuczna inteligencja może nam pomóc to osiągnąć. Jest mało prawdopodobne, aby nasze ambicje zostały spełnione przez zwykłe zastąpienie funkcjonariuszy komputerami – ale pomyśl, co można osiągnąć w zespole człowiek-maszyna, w którym każdy uczy się od siebie i dodaje wartość innym. Co by było, gdybyśmy poddali ludzi tej samej kontroli, co całkiem słusznie poddajemy sztucznej inteligencji, wystawiając nasze uprzedzenia i założenia na ciągłe i konstruktywne wyzwania? Co by było, gdyby sztuczna inteligencja mogła pomagać w wykonywaniu powtarzalnych i wymagających dużych zasobów zadań, dając funkcjonariuszom policji to, co prof. Eric Topol, pisząc o rewolucji AI w medycynie, nazwał „darem czasu”? Umożliwiłoby im to traktowanie zarówno ofiar, jak i oskarżonych z godnością, którą mogą uosabiać tylko ludzie i na którą zasługują wszyscy członkowie społeczeństwa.

Być może pozwoliłoby to zdobyć zaufanie i zgodę opinii publicznej, od których tak naprawdę zależy działanie policji.

Jo Callaghan to strateg specjalizujący się w przyszłości pracy, autorka debiutanckiego kryminału W mgnieniu oka, wydanego przez Simon & Schuster.