A jeśli roboty poprowadzą lepiej niż prawnicy?

Ewa FABIAN

Warszawska adwokat, entuzjastka nowych technologii, alumna Politechniki Warszawskiej, międzynarodowych kancelarii prawniczych i Instytutu Arbitrażowego SCC w Sztokholmie.

zobacz inne teksty autora

Autor książki “Koniec świata prawników”, Richard Susskind, napisał o robotach: “To słowo (robot) pochodzące z języka czeskiego (robota) znaczy „harówka” lub „poddaństwo” i jest stosunkowo świeże – użył go po raz pierwszy w 1921 roku w sztuce R.U.R. czeski autor Karel Čapek”[i]. W tej sztuce, zaliczanej do gatunku science fiction, Čapek nie tylko ukuł określenie, bez którego dziś już się nie obędziemy, ale nawet zidentyfikował trend określania technologii akronimami. Minęło niespełna sto lat, a technologia jest owiana taką samą aurą tajemności jak w czasach, kiedy materializowała się głównie w ludzkiej wyobraźni.

Perspektywa rozwoju sztucznej inteligencji

.Za rozwojem sztucznej inteligencji będzie nam coraz trudniej nadążyć. Na międzynarodowych konferencjach dotyczących myśli technologicznej padają takie stwierdzenia: do 2035 roku sztuczna inteligencja (AI) będzie dorównywała ludzkiej, do 2045 roku – inteligencji wszystkich ludzi zamieszkujących planetę Ziemię razem wziętych. W maju odbiła się szerokim echem konferencja I/O 2016, na której Google zaprezentował armii developerów aplikacji swoje najnowsze technologie i produkty. Padło stwierdzenie: już teraz posiadamy najlepsze programy rozpoznawania głosu, tłumacza i wyszukiwarkę – to już tylko jeden krok od tego, by zintegrować system i zacząć z nim rozmawiać: pytać i przeszukiwać głosem czy to całą sieć, czy własne zbiory plików, prosić o „inteligentne” zawężanie wyników i podpowiedzi rozwiązań oparte o nasze preferencje. W oparciu o to podejście powstały m.in. Google assistant i Google Home, zaliczające się do nurtu Internetu rzeczy (Internet of Things).

W marcu tego roku produkt Google DeepMind – AlphaGo – wygrał pojedynek z mistrzem Go, Lee Sedolem. Mówi się, że to większy sukces niż wygrana Deep Blue (IBM) z Garrym Kasparowem w 1997 roku, a to ze względu na wyższą liczbę możliwych kombinacji i idącą za tym większą nieprzewidywalność chińskiego Go w porównaniu do szachów. Już w tym miejscu powinny nam się zapalić lampki ostrzegawcze – po pierwsze, czy mogłam napisać, że komputer „wygrał” pojedynek? A jeśli wygrał, to co z tego wynika?

Chodzi mi jednak nie o ambicje i samoocenę geniuszy, ale o pytanie o podmiotowość robota wyposażonego w sztuczną inteligencję, zdolnego do uczenia się, bo właśnie z tym mamy teraz do czynienia. Czy robot poniesie odpowiedzialność za wywołanie szkody? Czy może posiadać majątek, z którego pokryje szkodę i którym w swojej autonomii rozporządzi? Czy weźmie udział w negocjacjach i zawrze ugodę? A może sam rozstrzygnie spór w miejsce sędziego (koncepcja tzw. systemów ODR – Online Dispute Resolution)? Czy się ubezpieczy? Czy samochód robot będzie prowadził bardziej bezwypadkowo niż człowiek? Czy robot udzieli lepszej porady prawnej? Czy będzie lepszym chirurgiem? Czy będzie uczciwszym księgowym albo bankierem?

Problemy i rozwiązania prawne

.W kontekście sztucznej inteligencji wypowiadali się już prawnicy rozważający istotę działalności twórczej (J. Barta, R. Markiewicz). Zdarza się bowiem, że dzieło powstaje nie w wyniku bezpośredniej działalności czynnika ludzkiego, ale za pośrednictwem maszyny, algorytmu albo też częściowo lub całkowicie z przypadku, albo w wyniku działania niekontrolowanego i nieszkolonego zwierzęcia. Przyjmuje się, że ludzka kontrola (choćby konkretne założenia algorytmu) jest niezbędna do powstania prawa autorskiego. Autorem może być tylko człowiek. Profesorowie nie wykluczają jednak, że „opracowanie tzw. sztucznej inteligencji lub zastosowanie komputerów biologicznych wykorzystujących cząsteczki DNA lub RNA, wymuszą potrzebę zrewidowania zapatrywań na istotę twórczości, co jednak wymagałoby przełamania zasady, że twórcza działalność intelektualna jest właściwa tylko istocie ludzkiej”.[ii] Ten moment jeszcze nie nadszedł, czy może to już? Dzięki przemyśleniom dokonanym na tle takiej „miękkiej” dziedziny prawa jaką jest prawo autorskie jesteśmy bliżsi zrozumieniu, gdzie przebiega granica pomiędzy sytuacją, kiedy istnieje wystarczający element kontroli człowieka nad maszyną (traktowany chociażby jako tzw. związek przyczynowy między działaniem a szkodą), a kiedy takiej kontroli już nie ma.

Emancypacja maszyny

.Kiedy związku nie ma, bo ludzka kontrola jest mniej oczywista, pojawia się autonomia maszyny – i potencjalna próżnia prawna w dziedzinie chociażby odpowiedzialności za szkodę. Bo w obecnym stanie prawnym robot ani superkomputer nie mogą mieć zdolności prawnej (czyli ani praw, ani obowiązków), ani nawet jej namiastki. W tej sytuacji maszyna autonomicznie wygeneruje decyzję mającą skutki w postaci na przykład powstania szkody, a prawnicy będą się potem głowić w drobiazgowych postępowaniach sądowych, zamawiać ekspertyzy biegłych za niebotyczne pieniądze i czekać latami na wyrok. Wszystko po to, żeby odpowiedzieć na pytanie, czy odpowiedzialność ponosi posiadacz maszyny, jej producent, autor oprogramowania (i którego) czy jeszcze ktoś inny. Czy takie postawienie sprawy jest efektywne kosztowo i społecznie użyteczne? W technologiach dostarczanych masowemu odbiorcy?

Zdaniem Krzysztofa Wojdyło (Wardyński i Wspólnicy) w prawie potrzebne są zmiany ustalające zasady odpowiedzialności za szkody wyrządzone przez autonomiczne roboty, najlepiej na zasadzie ryzyka (w wysokim standardzie ochrony poszkodowanego) i pozwalające na usunięcie wątpliwości co do podmiotu odpowiedzialnego. Ponadto postuluje wprowadzenie rejestru robotów i obowiązkowego ubezpieczenia cywilnoprawnych skutków czynności robotów (analogia do pojazdów), poza tym stworzenie minimalnych wymagań dla algorytmów instalowanych w systemach operacyjnych autonomicznych robotów, minimalnych wymagań ochrony ich systemów operacyjnych, mechanizmów śledzenia ewentualnych ingerencji w systemy operacyjne oraz ograniczeń w obrocie autonomicznymi robotami (Robotyka, raport wydany przez kancelarię Wardyński i Wspólnicy, kwiecień 2015 r.).

Za oceanem pojawiają się bardziej radykalne pomysły – czy nie byłoby łatwiej, gdyby roboty miały jakąś formę podmiotowości prawnej? David C. Vladeck argumentuje, że osoby prawne też otrzymały zdolność prawną z jakiegoś powodu – czy nie byłoby najprościej pozwolić na pozywanie autonomicznych robotów przed sądem? Jeżeli maszyna jest zdolna do uczenia się, to jak długo kontrolują ją jej projektanci?[iii] W tym kontekście nasuwają się skojarzenia z kultowymi filmami jak choćby Odyseja kosmiczna 2001 czy Bladerunner – to opowieści o maszynach, które pomimo wszystkich umieszczonych w nich zabezpieczeń okazały się zdolne do zabijania, a także (w tym ostatnim przykładzie) do uczuć wyższych.

Autonomiczne samochody, drony bezzałogowe, autopilot

.Pytanie o moralność przewija się w kontekście prac nad, przykładowo, rozwojem autonomicznych samochodów. Do jakiego zachowania zaprogramować te maszyny na wypadek dramatycznych sytuacji, kiedy trzeba wybierać pomiędzy życiem a życiem? Co do zasady człowiek nie jest zdolny do zaprogramowania się na taką okoliczność, a wynik jest często dziełem przypadku, działania instynktu, decyzji podjętej w ułamku sekundy. Maszyna teoretycznie mogłaby w tym czasie wykonać jakąś kalkulację, więc prowadzi się pogłębione filozoficzne rozważania na ten temat.

Jednak wiele wskazuje na to, że maszyny byłyby po prostu lepszymi kierowcami niż ludzie – nie piją, nie męczą się, nie zasypiają, nie rozpraszają emocjami. Jeśli prawo zezwoli na korzystanie z autonomicznych samochodów, kto wie, może ubezpieczenie tych maszyn będzie tańsze niż ubezpieczenie samochodów prowadzonych przez ludzi? Jednak na obecnym etapie technologia autopilota jest dopuszczona głównie w przestworzach (drony bezzałogowe, autopilot w samolocie), zapadły już nawet pierwsze orzeczenia dotyczące odpowiedzialności za wadliwość takich systemów (Richardson v. Bombardier).

Prawnicy

.Międzynarodowe korporacje od jakiegoś czasu inwestują w rozwój technologii, które zapewne odmienią życie prawników i przedstawicieli innych profesji doradczych. Istnieją już systemy analizujące ogromne zbiory danych – dokumentów, emaili i innych nieuporządkowanych zapisów – na potrzeby postępowań sądowych, regulacyjnych czy due diligence (przykładowo eBrevia). Systemy te mogą też służyć prewencji, wykrywając nieprawidłowości w firmie zanim dojdzie do sporu sądowego, kontroli, śledztwa czy transakcji. Wysokie koszty wytwarzania i obsługi tych technologii nie są przeszkodą dla firm, w których obciążająca informacja przekłada się na możliwość utrzymania wysokiej pozycji na rynku. Oczywiście rodzi to pytania o zgodność technologii z ochroną danych osobowych czy prawami pracownika, ale to osobny temat.

Jednak mowa jest nie tylko o filtrowaniu dokumentów pod kątem słów kluczy i słownych kontekstów. W oparciu o superkomputer Watson (IBM) stworzono system wspomagający pracę prawników także na etapie wstępnej analizy problemu prawnego, kwerendy w prawniczych bazach danych i generowania propozycji rozwiązań. System nazywa się ROSS i współpracuje z nim już przynajmniej jedna kancelaria prawnicza (Baker & Hostetler), dedykując go do obsługi postępowań upadłościowych. Jest to program wyposażony w zdolność uczenia się.

ROSS prawdopodobnie nie będzie jedynym systemem wspomagania pracy kancelarii. W 2015 międzynarodowa kancelaria Dentons powołała do życia NextLaw Labs, które opracowuje możliwości zintegrowania nowoczesnych technologii z praktyką prawniczą. Temu przedsięwzięciu również partneruje IBM. Czy stworzenie technologii zastępujących prawnika we wstępnej analizie dużych ilości tekstu (obecnie najczęściej wykonywaną przez ludzi z pomocą coraz lepszych prawniczych baz danych) spowoduje zmniejszenie zapotrzebowania na osoby wykonujące ten zawód? Trudno przewidzieć, biorąc pod uwagę jak wiele problemów prawnych może wywołać pojawienie się w naszym życiu autonomicznych technologii…

Przyszłość

.Sztuczna inteligencja staje się powoli faktem, a jej regulacja z całą pewnością wymaga dostosowania prawa i to najlepiej na poziomie międzynarodowym. Myśl technologiczna ma jednak znacznie mniej ograniczeń niż prawnicza. Prawnicy są także znacznie bardziej przywiązani do (dobrze pojętego) konserwatyzmu. Ale nie trzeba popadać w pesymizm. Jeśli ludzie nie wpadną na pomysł, jak wpisać uczące się maszyny w ramy prawne, może maszyny zrobią to za nas?

Ewa Fabian

[i] “The word ‘robot’, derived from the Czech word robota, meaning ‘drudgery’ or ‘servitude’, is of more recent origin, first used in 1921, in a play, R.U.R., by the Czech author Karel Čapek.” R.Susskind, The Future of the Professions: How Technology Will Transform the Work of Human Experts, tłumaczenie autorskie. [ii] J. Barta (red.), System Prawa Prywatnego. Prawo autorskie, Warszawa 2013, s. 82. [iii] D. C. Vladeck, Machines Without Principals: Liability Rules And Artificial Intelligence, Washington Law Review, vol. 89-117, s. 124.

Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.
Dalsze rozpowszechnianie artykułu tylko za zgodą wydawcy.

Chcę otrzymywać powiadomienia o najnowszych tekstach.

  • Nie poprowadzą lepiej.

    Nie odpowiada mi za bardzo to, że sztuczka inteligencja jest tutaj nieprecyzyjnie zdefiniowana. Z jednej strony Autorka daje sygnał, że chodzi jej o coś co jest odbiciem zdolności człowieka (Perspektywa rozwoju sztucznej inteligencji), z drugiej natomiast podaje przykłady czegoś co nie jest silną sztuczną inteligencją, a jedynie słabą, a ta przecież już istnieje. Brak jasnego określenia tego o czym mowa daje możliwość prowadzenia najluźniejszych dywagacji.

    Wygrana w Go oczywiście jest ważnym wydarzeniem, ale to jak to zrobiono nie jest tak niewiarygodnie przełomowe. Komputer wygrał, ale zachowywał się mimo wszystko standardowo. Prawnik z obyciem w wielu prostszych i schematycznych rozprawach nie gwarantuje talentu i niestandardowych rozwiązań.

    Czy nie byłoby łatwiej, gdyby roboty miały jakąś formę podmiotowości prawnej? Coś z pewnością stałoby się łatwiejsze. Pytanie: dla kogo? Takie postulaty to również próba przenoszenia odpowiedzialności, a nawet zrzucenia jej z siebie. Jak długo nie istniałaby dotkliwa dla robotów sankcja, albo nie zostałaby zniesiona jej potrzeba (co jest zaprzeczeniem problemu), tak długo byłoby to jedynie przesunięcie polegające np. na przerzuceniu albo poszerzeniu ciężaru dowodu (tak jak jest to właśnie z osobami prawnymi).

    Myląc słabą sztuczną inteligencję z mocną nadmiernie łatwo jest wpaść w trwogę i pesymizm. Te liczne przykłady z artykułu, począwszy od coraz lepszych narzędzi analitycznych i baz danych, a skończywszy na generatorach to już jest sztuczna inteligencja. Nieraz przyczynia się ona do tego, że ktoś staje się zbędny, ale wcale nas nie zastępuje we wszystkich procesach.

    Oczywiście nie można wykluczyć, że tak będzie i nie piszę z pozycji takiej, że wiem i mam rację. Wolę jednak sceptyczne podejście przy okazji formułowania takich wizji. Zresztą nie to jest tak naprawdę kwestią rozstrzygającą.

    Co to znaczy, że ktoś prowadzi sprawę lepiej? Pomijając partactwo i przypadki oczywistych błędów jest to nie do rozstrzygnięcia w sposób pewny. Trudno wyobrazić sobie również zadowalające przybliżenie dla próby takiego werdyktu. Przekonanie, że ktoś poprowadzi sprawę lepiej jest emocją. To my, ludzie, orzekamy o tym kto jest gorszy, a kto lepszy i nie zawsze przekonują nas liczby. Wyobrażam sobie klientów przyszłości, którzy do opowiadania o okolicznościach sprawy wtrącają, że za nic nie daliby poprowadzić swojej sprawy maszynie i dlatego przychodzą do tej kancelarii. Wyobrażam sobie też takich, którzy nie mogliby znieść myśli, że ich los spoczywałby w rękach człowieka, który inaczej niż komputer pochodzi do sprawy.

    Sami siebie dobrze nie znamy, a już chcielibyśmy stworzyć coś co nam dorównuje, albo nas przewyższa.

Autorzy wszyscy autorzy

A B C D E F G H I J K L M N O P R S T U W Y Z