Trzy mity o Sztucznej Inteligencji
O tym, dlaczego prawnicy powinni rozumieć sztuczną inteligencję
Artykuł w New York Times Magazine z 14 grudnia 2016 r. „Wielkie przebudzenie sztucznej inteligencji”[i] zaczyna się od opisu tej nocy, kiedy profesor Uniwersytetu Tokijskiego badający interakcje człowiek-komputer, Jun Rekimoto, nie mógł zasnąć. Pogłębienie rozumienia sposobu działania sieci neuronowych powinno wywołać bezsenność u nas wszystkich, z prawnikami włącznie. Słowo „przebudzenie” nieprzypadkowo znalazło się w tytule publikacji New York Times’a.
W najbliższym czasie część z nas, a oby jak najwięcej, zacznie baczniej przyglądać się rozwojowi tzw. sztucznej inteligencji, rozprawiając się z mitami, proponując nowe definicje, zauważając jej obecność w codziennym życiu. I zaczniemy – część z nas, a oby jak najwięcej – wyciągać wnioski. Poniżej proponuję trzy mity na temat AI.
MIT 1: Sztuczna inteligencja to zjawisko z gatunku science fiction
Nauczyliśmy się myśleć o literaturze, filmie, grach komputerowych z gatunku science fiction w kategoriach rozrywki, i to oczywiście zarezerwowanej dla tych, którzy taką rozrywkę lubią. Fanów fantastyki naukowej, czyli science fiction oraz fantasy – toleruje się; fani fantastyki tolerują pozostałych. Każdy znajdzie w przemyśle rozrywkowym coś dla siebie. Znajomość fantastyki naukowej zwykle nie jest uważana za przydatną wiedzę. Często jest natomiast traktowana za wyznacznik lekkiego dziwactwa.
W listopadzie 2014 roku Ursula K. Le Guin – wiekowa już pisarka z wybitnymi osiągnięciami w obu głównych nurtach fantastyki – odebrała nagrodę National Book Foundation za zasługi dla amerykańskiej literatury. Dała wówczas wyraz emocjom środowiska, którego jest czołową przedstawicielką, w jednym mistrzowskim zdaniu: „I z radością przyjmuję tę nagrodę dla tych i dzielę ją z tymi, którzy jako pisarze byli tak długo wykluczeni z literatury; moi koledzy i koleżanki tworzący fantasy i science fiction; pisarze wyobraźni, którzy przez ostatnie 50 lat patrzyli, jak piękne nagrody idą do tak zwanych… realistów”. Warto obejrzeć nagranie przemówienia Le Guin, choćby tylko by posłuchać reakcji publiczności na pobrzmiewające czarnym humorem słowo „realiści”[ii]. Wiemy dziś przecież, że wiele z obserwacji, które zawdzięczamy Ursuli Le Guin czy Stanisławowi Lemowi, to nie imaginacja, a nawet nie przyszłość, ale już codzienność. Potwierdziliśmy choćby, że „powstaną wskutek sukcesywnego zrastania się informatycznych maszyn i banków pamięci – państwowe, kontynentalne, a potem i planetarne sieci komputerowe, a to jest realny kierunek rozwoju” – jak pisał Stanisław Lem w „Dialogach” w 1957 roku.
Sztuczna inteligencja była rozważana i opisywana przez wielu wizjonerów. Dziś przywoływanie tych pomysłów jest już jednak mniej pilne, niż opisywanie tego, co stanowi naszą rzeczywistość. Ważniejszą potrzebą jest, abyśmy nauczyli się rozumieć czas teraźniejszy i przewidzieć czas przyszły. Być może taka logika przyświecała Gideonowi Lewis-Krausowi, autorowi „Wielkiego przebudzenia sztucznej inteligencji”, kiedy wybrał dla swojej publikacji formę literacką. Są tam dialogi, których nie powstydziłby się Issac Asimov, opis wyglądu postaci (w tym przypadku, naukowców i współpracowników Google), a nawet epilog zatytułowany „Maszyny bez dusz”. W pierwszej chwili forma tego artykułu mnie lekko zdumiała. Pomyślałam jednak, że być może piszący o tych zjawiskach zorientowali się już, że bez wywołania zdumienia nie da się tematyki AI łatwo i do tego prawidłowo wytłumaczyć.
MIT 2: Maszyna zawsze działa dokładnie tak, jak ją zaprogramowano
Dotarcie do zrozumienia, choćby częściowego, mechanizmów deep learning, to dla wszystkich spore wyzwanie. Postawię tezę, że w pełni rozumie to zagadnienie garstka ludzi. Tym bardziej powinniśmy to wyzwanie podejmować, rozmawiać o sztucznej inteligencji i o niej pisać. Przyswojenie sobie hasła deep learning i poprzestanie na tym nie wystarczy w sytuacji, w której mamy szukać zastosowań dla nowej technologii czy wprowadzać dla niej prawne regulacje. Potwierdzają to choćby głosy po przyjęciu przez Unię Europejską Rozporządzenia ogólnego o ochronie danych osobowych (2016/679), które wchodzi w życie w maju 2018 roku.
Autorzy rozporządzenia zauważyli ryzyko związane z tzw. profilowaniem, które, jak podano w preambule: „polega na dowolnym zautomatyzowanym przetwarzaniu danych osobowych pozwalającym ocenić czynniki osobowe osoby fizycznej, a w szczególności analizować lub prognozować aspekty dotyczące efektów pracy, sytuacji ekonomicznej, zdrowia, osobistych preferencji lub zainteresowań, wiarygodności lub zachowania, lokalizacji lub przemieszczania się osoby, której dane dotyczą”.
W związku z doniosłością niektórych decyzji podejmowanych w oparciu o profilowanie (udzielenie kredytu, zatrudnienie, wysokość świadczeń itd.), unijny prawodawca będzie wymagał zapewnienia, aby osoba profilowana miała „prawo do uzyskania interwencji człowieka, prawo do wyrażenia własnego stanowiska, prawo do uzyskania wyjaśnienia co do decyzji wynikłej z takiej oceny oraz prawo do zakwestionowania takiej decyzji”[iii]. Tymczasem znawcy technologii deep learning nieśmiało zwracają uwagę, że w przypadku sieci neuronowych sposób dotarcia przez maszynę do tego czy innego wniosku jest bardzo trudny do wyśledzenia, jeśli w ogóle możliwy – przynajmniej na obecnym etapie rozwoju AI.
Działanie sieci neuronowych dobrze tłumaczy przywołany na wstępie artykuł New York Times’a, niestety napisany dość wymagającym językiem, ale tak naprawdę najlepiej zapytać o działanie tych sieci dobrego informatyka. Specjaliście wystarczyło kilka zdań i gestów, abym się zorientowała, że sieci neuronowe to coś innego, niż wcześniej myślałam. Są to bowiem systemy, które nie wykonują poleceń, ale uczą się pod okiem człowieka i z jego pomocą. W okresie treningu systemom tym pozwala się na popełnienie błędów, dzięki czemu uczą się one lepszego samodzielnego wykonywania zadań. Im dłużej system działa, tym daje lepsze efekty.
Laikowi najtrudniej jest pojąć, że pracując nad funkcjonalnościami sieci neuronowych informatycy musieli porzucić kontrolę nad maszyną. Przyzwyczailiśmy się do myślenia, że skoro algorytmy są logiczne, komputery wygrywają w grach logicznych (takich jak szachy czy GO), to cała populacja robotów czy aplikacji będzie zachowywać się logicznie i przewidywalnie. Myśleliśmy, że skoro życia w „prawdziwym świecie” nie da się sprowadzić do logicznych ciągów komend, to komputery nigdy nas nie zastąpią nas w czynnościach, których sami nie potrafimy sprowadzić do logicznych ciągów komend. Tak jest na przykład z tłumaczeniem tekstu czy rozpoznawaniem obrazów, które maszyna „widzi” po raz pierwszy. To przekonanie niestety trzeba włożyć między bajki.
Okazuje się bowiem, że w sieciach neuronowych poszczególne „neurony” po prostu są, po czym metodą prób i błędów zaczynają tworzyć wzory relacji do innych neuronów, od razu w wielu „wymiarach”, a cały system zapamiętuje efekty tego treningu i wyciąga z niego wnioski. W przypadku sieci wykorzystywanych do nowej generacji tłumaczeń Google (na razie dostępnych dla angielskiego z językiem hiszpańskim, francuskim, portugalskim, niemieckim, chińskim, japońskim, koreańskim i tureckim) tych wymiarów jest około tysiąca. Jak określono to w „Wielkim przebudzeniu”, po treningu każde słowo reprezentuje około 1000 liczb (relacji do innych neuronów), choć na początku zakładano, że będzie ich potrzeba więcej.
Założenia sieci neuronowych są bardzo teoretyczne, natomiast dopracowanie sieci w taki sposób, aby „dobrze się uczyła”, pracownicy Google określili jako rodzaj sztuki. Pracownik Google Mike Schuster wspomina, że podczas prac nad nowym translatorem jego koledzy nie zawsze wiedzieli, dlaczego coś działa. Co jednak ważne, to po porzuceniu pełnej kontroli nad programami, po wprowadzeniu zgromadzonej przez ludzi wiedzy do sieci neuronowej o zwiększonej mocy obliczeniowej, uzyskano niespodziewany skok w poprawności tłumaczeń. Skok ten był na tyle rewolucyjny, że porzucono wszelkie prace nad poprzednim modelem tłumacza i skupiono się na nowym. Sama z niecierpliwością czekam na polską odsłonę nowego Google Translate.
Sposób funkcjonowania sieci neuronowych i niezwykłe efekty, jakie pozwalają one osiągnąć, powinny nas doprowadzić do redefinicji samego pojęcia sztucznej inteligencji.
Wielu autorów i komentatorów już jakiś czas temu przestało czekać na świadome maszyny, bo tak długo, jak jesteśmy w stanie stworzyć wystarczająco silną iluzję człowieka lub efektów jego pracy, będzie to poszukiwana przez nas sztuczna inteligencja. W tym miejscu mogłabym nawiązać do takich przemawiających do wyobraźni filmów jak Blade Runner z 1982 roku, ale czas się zmierzyć z tym, że nie mówimy już o inspirującej fabule, atrakcyjnym ozdobniku, ale raczej o narzędziach do zrozumienia przyszłości.
MIT 3: System prawny nie wymaga jeszcze dostosowania do sztucznej inteligencji
Po przyswojeniu sobie tego, co sztuczna inteligencja potrafi, przychodzi czas na zastanowienie się, jak zmienił się w związku z tym paradygmat i jak powinno to zostać odzwierciedlone w systemie prawnym. W tej prognozie nie będę się oczywiście silić na wymienianie potencjalnych implikacji dla prawa, ale warto przytoczyć choćby dwa przykłady.
Skoro mowa o tłumaczeniu, ma ono swoje miejsce w systemie ochrony praw autorskich. Prawo do korzystania z tłumaczenia (przekładu) lub rozporządzania nim jest prawem zależnym. Oznacza to, że autor oryginału lub inny uprawniony do zezwalania na wykonywanie praw zależnych musi udzielić zgody na korzystanie z tłumaczenia, w przeciwnym razie korzystający z niego narusza autorskie prawa majątkowe. Korzystanie z wykonanego przez nas tłumaczenia cudzego utworu wymaga zgody uprawnionego; dopiero po uzyskaniu tej zgody można go wydać, opublikować w Internecie, czerpać korzyści finansowe itd. Tłumaczenie samo w sobie jest też utworem. Oznacza to, że tłumaczenie jest chronione, jako nowy utwór, według tych samych zasad, co utwór oryginalny. „Bycie utworem” jest warunkiem ochrony w reżimie praw autorskich [iv].
Tymczasem abyśmy mieli do czynienia z utworem, musi być to dzieło człowieka. Wynika to nie tylko z polskiego prawa, ale także z regulacji międzynarodowych i nie ma co do tego najmniejszych wątpliwości. Na etapie tworzenia systemu ochrony praw autorskich nikomu nie przyszło do głowy, że utwór może być dziełem maszyny.
W Google Translate mamy do czynienia z tłumaczeniem będącym dziełem maszyny. Oznacza to, że nie jest to utwór chroniony prawem autorskim. Nie jest to zatem utwór chroniony względem nikogo i brak podstaw chociażby do tego, by wymagać za korzystanie z niego jakiegokolwiek wynagrodzenia autorskiego. Może to także oznaczać, że na wykonanie tłumaczenia przez Google Translate, na korzystanie z niego i rozporządzanie nim, nie potrzebujemy zgody uprawnionego autora oryginału. Z niecierpliwością czekam na stanowisko sądów i przedstawicieli zawodów prawniczych w tej sprawie.
Drugi przykład jest nieco bardziej odległy i pesymistyczny, a jednocześnie nawiązujący do przywołanego wyżej unijnego Rozporządzenia ogólnego o ochronie danych osobowych. W opublikowanym niedawno artykule The Wall Street Journal podaje, w kilku miejscach odwołując się do „Roku 1984” Georga Orwella, o tym, co dzieje się w Chinach.
Rozpoczęto eksperymenty z systemem ewaluacji obywateli, Sesame Credit, które ocenia „społeczne zaufanie” do obywateli w oparciu o najrozmaitsze dane dostępne na ich temat, dzięki czemu przyspiesza i ułatwia podejmowanie decyzji. Mogą one dotyczyć udzielenia obywatelowi pożyczki, dostania się jego dzieci do wybranej szkoły, możliwości podróżowania za granicę, uzyskania dobrego pokoju hotelowego, miejsca w najlepszej restauracji, szybszej odprawy bezpieczeństwa na lotnisku, możliwości wynajmu samochodu czy roweru bez wpłacania kaucji [v].
Trzeba w tym miejscu dodać, że rozwój nauki w Baidu, chińskim odpowiedniku Google, w zakresie sieci neuronowych jest na bardzo porównywanym poziomie, jak ma to miejsce w przypadku zachodnich sieci. Obie firmy idą pod tym względem łeb w łeb, ich pracownicy czytają wydawane przez konkurenta publikacje podsumowujące ostatnie osiągnięcia parę godzin po opublikowaniu.
Chińskie pomysły spotkały się z krytyką Zachodu i organizacji działających na rzecz ochrony praw podstawowych. Z jednej strony krytyka tych rozwiązań, w sposób oczywisty naruszających prawa człowieka, wydaje się jak najbardziej trafna i potrzebna. Z drugiej strony powinniśmy mieć świadomość, że takie samo profilowanie, choć mniej scentralizowane, mnie przejrzyste i mniej wpisujące się w plany rządów poszczególnych państw czy regionów – jest prowadzone u nas. Gdyby tak nie było, po co organy Unii Europejskiej przyjmowałyby w Rozporządzeniu ogólnym o ochronie danych osobowych szczególne uprawnienia dla profilowanych obywateli?
Cytowany w tym kontekście George Orwell zauważył, że „jeśli wolność słowa w ogóle coś oznacza, to oznacza prawo do mówienia ludziom tego, czego nie chcą słyszeć” [vi]. Korzystając z wolności słowa wypada mi na koniec zapytać – co, jeśli społeczeństwo profilowane będzie społeczeństwem tańszym w utrzymaniu, lepiej uporządkowanym i – choćby pozornie – szczęśliwszym? Czy w obliczu globalnych problemów ludzie sami nie oddadzą władzy w ręce Wielkiego Brata, po prostu po to, by żyło się lepiej?
Ewa Fabian
[i] „The Great A.I. Awakening”. How Google used artificial intelligence to transform Google Translate, one of its more popular services – and how machine learning is poined to reinvent computing itself. Gideon Lewis-Kraus, The New York Times Magazine, 14 grudnia 2016 r.
[ii] Tłumaczenie własne, „And I rejoice in accepting it for and sharing it with all the writers who were excluded from literature for so long; my fellow authors of fantasy and science fiction; writers of the imagination, who for the last 50 years watched the beautiful rewards go to the so called… realists.” Źródło: [LINK]
[iii] Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych), Dz.Urz.UE.L 2016 Nr 119, str. 1, preambuła (71).
[iv] Jestem świadoma, ze humaniści wytkną mi różnicę pomiędzy tłumaczeniem a przekładem i wskażą, że robot w żadnym razie nie może być autorem przekładu jako wyższej formy tłumaczenia – awansem zwracam uwagę, że nie o tym jest ten artykuł.
[v] „China’s Social Credit System: Turning Big Data Into Mass Surveillance”. Stanley Lubman (Berkeley School of Law), The Wall Street Journal, 21 grudnia 2016 r.
[vi] „If liberty means anything at all it means the right to tell people what they do not want to hear”. Źródło: The Freedom of the Press, „The Times Literary Supplement”, 15 września 1972 r.