Algorytmy w wymiarze sprawiedliwości radzą sobie lepiej od sędziów

Komputery oraz ich algorytmy mogą pomagać w unikaniu niektórych typowych błędów, jakie zdarzają się sędziom. Pod pewnymi względami radzą sobie nawet lepiej od ludzi.

Komputerowe programy pomogą w procesach sądowych

.Jak zauważają naukowcy z Massachusetts Institute of Technology (MIT), wielu specjalistów musi podejmować decyzje, które prowadzą do trudnych do przewidzenia wyników. Do takich osób należą m.in. sędziowie, którzy decydują o tym, czy oskarżona osoba może pozostać na wolności za kaucją – albo jaki ustanowić wyrok.

Jednocześnie coraz więcej firm posługuje się komputerowymi programami do dokonywania wyborów, obarczonych dużym ryzykiem.

Podobnie – w oparciu o różne dane na temat ludzkich zachowań – działają np. algorytmy filtrujące spam, podpowiadające produkty w sklepach internetowych czy podpowiadające tekst w czasie pisania na smartfonie.

Na podstawie informacji uzyskanych od nowojorskich sędziów zespół z MIT opracował model pokazujący systemowe błędy, jakie pojawiają się w podejmowanych przez sędziów decyzjach odnośnie ryzyka ucieczki wypuszczanych za kaucją oskarżonych. Decyzje te są podejmowane w dużej mierze na podstawie różnych cech danej osoby, w tym rasy, wieku i wcześniejszego zachowania.

Gdyby algorytmy zastąpiły sędziów ryzyko błędów zmniejszyłoby się o 20 procent

.W badaniu uwzględniono prawie aż półtora miliona spraw, przy czym w ok. połowie z nich oskarżonego wypuszczono. Model wskazał, że aż 20 proc sędziów popełniało systemowe błędy w związku z przewidywaniem przyszłego zachowania wypuszczonych oskarżonych. Okazało się na przykład, że ponad 30 proc. decyzji było niezgodnych z możliwościami oskarżonych w kwestii zapłaty kaucji oraz z ryzyka, że nie pojawią się na rozprawie. Algorytmy rozwiązały by taki problem.

Eksperymenty pokazały natomiast, że zastąpienie sędziów algorytmami poprawiłoby wyniki o ok. 20 proc.

„Efekty zastąpienia ludzi algorytmami zależą od równowagi między tym, czy człowiek popełnia systematyczne błędy na podstawie dostępnych informacji dostępnych także dla algorytmu, a tym, czy dostrzega jakiekolwiek przydatne prywatne informacje” – wyjaśnia Ashesh Rambachan, główny autor publikacji z badań (https://academic.oup.com/qje/article-lookup/doi/10.1093/qje/qjae013). 

AI to już nie science-fiction

Ewa FABIAN, warszawska adwokat, entuzjastka nowych technologii, alumna Politechniki Warszawskiej przedstawia na łamach Wszystko co Najważniejsze 3 mity o sztucznej inteligencji.

MIT 1: Sztuczna inteligencja to zjawisko z gatunku science fiction

Nauczyliśmy się myśleć o literaturze, filmie, grach komputerowych z gatunku science fiction w kategoriach rozrywki, i to oczywiście zarezerwowanej dla tych, którzy taką rozrywkę lubią. Fanów fantastyki naukowej, czyli science fiction oraz fantasy – toleruje się; fani fantastyki tolerują pozostałych. Każdy znajdzie w przemyśle rozrywkowym coś dla siebie. Znajomość fantastyki naukowej zwykle nie jest uważana za przydatną wiedzę. Często jest natomiast traktowana za wyznacznik lekkiego dziwactwa.

MIT 2: Maszyna zawsze działa dokładnie tak, jak ją zaprogramowano

Dotarcie do zrozumienia, choćby częściowego, mechanizmów deep learning, to dla wszystkich spore wyzwanie. Postawię tezę, że w pełni rozumie to zagadnienie garstka ludzi. Tym bardziej powinniśmy to wyzwanie podejmować, rozmawiać o sztucznej inteligencji i o niej pisać. Przyswojenie sobie hasła deep learning i poprzestanie na tym nie wystarczy w sytuacji, w której mamy szukać zastosowań dla nowej technologii czy wprowadzać dla niej prawne regulacje. Potwierdzają to choćby głosy po przyjęciu przez Unię Europejską Rozporządzenia ogólnego o ochronie danych osobowych (2016/679), które wchodzi w życie w maju 2018 roku.

MIT 3: System prawny nie wymaga jeszcze dostosowania do sztucznej inteligencji

„Tymczasem abyśmy mieli do czynienia z utworem, musi być to dzieło człowieka. Wynika to nie tylko z polskiego prawa, ale także z regulacji międzynarodowych i nie ma co do tego najmniejszych wątpliwości. Na etapie tworzenia systemu ochrony praw autorskich nikomu nie przyszło do głowy, że utwór może być dziełem maszyny. W Google Translate mamy do czynienia z tłumaczeniem będącym dziełem maszyny. Oznacza to, że nie jest to utwór chroniony prawem autorskim. Nie jest to zatem utwór chroniony względem nikogo i brak podstaw chociażby do tego, by wymagać za korzystanie z niego jakiegokolwiek wynagrodzenia autorskiego. Może to także oznaczać, że na wykonanie tłumaczenia przez Google Translate, na korzystanie z niego i rozporządzanie nim, nie potrzebujemy zgody uprawnionego autora oryginału. Z niecierpliwością czekam na stanowisko sądów i przedstawicieli zawodów prawniczych w tej sprawie” – opisuje autorka.

PAP/WszystkocoNajważniejsze/MB
Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 30 maja 2024