Ewa FABIAN: Czytając Mistewicza. Albo o świecie 2.0 z wieloma niewiadomymi

Czytając Mistewicza.
Albo o świecie 2.0 z wieloma niewiadomymi

Photo of Ewa FABIAN

Ewa FABIAN

Warszawska adwokat, entuzjastka nowych technologii, alumna Politechniki Warszawskiej, międzynarodowych kancelarii prawniczych i Instytutu Arbitrażowego SCC w Sztokholmie.

zobacz inne teksty Autorki

Po przeczytaniu artykułu Eryka Mistewicza pt. „Twitter blokuje, Facebook cenzuruje, Google kontroluje” udałam się do pobliskiego sklepu. Sobotę dobrze jest rozpocząć dobrym śniadaniem, a szczególnie świeżym sokiem pomarańczowym. Sok przygotował mi robot, co w żaden sposób nie wpływa na smak soku, a mnie oszczędza czasu i klejącej się kuchni. Z sokiem udałam się do ekspresowej automatycznej kasy, bo przecież nie będę stać w kolejce z jednym sokiem. Z kasy skorzystałam nieco zbyt energicznie i coś popsułam. Pani kontroler nakrzyczała na mnie, że zakupy pakuje się dopiero, kiedy kasa o tym wyraźnie powie, bo inaczej cały proces trzeba powtórzyć i żeby to było ostatni raz.

Właściwie mogłabym powiedzieć, że wyświetlił mi się ideogram „pakuj zakupy”. Że może rosnąca z każdym dniem irytacja pani kontroler „głupimi klientami” bierze się z tego, że robot, który mieszka w ekspresowej kasie, jest słabo zoptymalizowany. Działa, ale trochę mu brakuje do doskonałości. Zmilczałam, bo znam już chociażby opór systemów bankowych na jakiekolwiek sugestie. Optymalizacja robotów? Pani mi przecież powie, że to ja mam się nauczyć korzystać z maszyny, maszyna jest nienaprawialna. Maszyna się nie uczy, uczy się tylko człowiek. A proces uczenia człowieka wymaga nakrzyczenia, popsucia miłego sobotniego poranka. Uczenie człowieka wymaga konfliktu, nagromadzenia emocji, nie załatwimy tego na chłodno.

.Skąd robot czy algorytm ma wiedzieć, w jakim kierunku powinien zmienić swoje działanie? Skąd ma wiedzieć, że ideogram, który wyświetlił, zostanie przez człowieka źle zrozumiany? Skąd ma wiedzieć, że potraktował człowieka niesprawiedliwie? Oczywiście, nie robot jest za to odpowiedzialny, ale jego twórca. Dlatego użytkownik powinien mieć łatwą i niewymagającą szczególnych umiejętności ani praw dostępu komunikację z robotem, algorytmem czy platformą społecznościową, a ostatecznie – z twórcą robota czy oprogramowania do niego.

Dobrym przykładem „bezduszności” są zautomatyzowane procedury Content ID i inne związane z ochroną praw autorskich i osobistych w serwisie YouTube, szczególnie w zakresie bezzwrotnego odbierania monetyzacji z reklam w razie cienia podejrzenia, że coś z kanałem jest nie w porządku. Ostatnio też wiele się mówi o działaniach Twittera, Facebooka czy wyszukiwarek, w coraz większej mierze w kontekście międzynarodowej polityki. Systemy mediów społecznościowych są jednak bardzo skomplikowane. Nie wiemy, jak one działają, przede wszystkim w sensie technicznym. Znamy wycinek tego czy innego procesu, regulaminy i regulacje prawne, ale co do zasady mało kto – jeśli ktokolwiek – rozumie wszystko.

Platformy społecznościowe natrafiają na problem – jak choćby naruszanie praw autorskich w celu uzyskania łatwego zarobku, czego ubocznym efektem może być zablokowanie filmu, na którym znany przebój uroczo podśpiewuje 2-letnie dziecko. Z drugiej strony w wyniku określonych treści może zdarzyć się nagonka na osobę lub grupę osób, co w skrajnych przypadkach może skończyć się samobójstwem, samosądem, eskalacją nienawiści na niespotykaną skalę. Oczywiście, że próbując regulować takie sytuacje, platforma może naruszać prawo wolności wypowiedzi, inne podstawowe prawa polityczne i społeczne. Oczywiście, że ryzykuje posądzenie o wykonywanie praw, które przysługują suwerennej władzy państwowej, a nie service providerom. Może być posądzona o manipulację informacją, skoro nikt w pełni nie rozumie procesów stojących za działaniem systemu. Ale czy może ryzykować czekanie na reakcję, dajmy na to, ONZ (skoro problem jest globalny), jeśli ta prawdopodobnie nigdy nie nastąpi, bo władze państwowe zaplatały się w swoje własne przepisy i przestarzałe systemy reagowania? Co, jeśli tylko firma zdolna do profesjonalnego przetwarzania ogromnej liczby danych ma w tej sytuacji jakiekolwiek rozwiązanie do zaoferowania?

.Zaczęłam od soku, który byłam w stanie opisać w całej jego prostocie, a potem wszystko popsułam nawiązywaniem do kwadrylionów bajtów i procesów globalnych, których nikt z nas w pełni nie rozumie. Mam wrażenie, że dobrze jest czasem sprawę uprościć. Dlatego, wracając do soku, nieadekwatność maszyny do sposobu, w jaki komunikuje się człowiek, spowodowała mój potencjalny konflikt z panią kontroler w sklepie spożywczym. Osoba ta na mnie nakrzyczała, bo tak radzi sobie z problemem, który napotyka w swojej pracy. Przenosząc problem soku na skalę globalną, należy się zastanowić, czy słusznie unosimy się emocjami tam, gdzie trzeba działać w kierunku humanizacji sposobu działania robotów, algorytmów, prezentacji informacji, wyszukiwania, monetyzowania treści, systemów ochrony praw. Wszystkim nam zależy na naszej wolności, swobodach obywatelskich, ochronie bezpieczeństwa, pokoju i dobrobycie. Choć krzycząc na siebie osiągniemy jakiś efekt, a nawet tymczasowe rozwiązanie, lepiej byłoby zwrócić się do robota ze śrubokrętem w ręku i programistą na podorędziu.

Pewnie zabrzmi to jak utopia i niestety wymaga zmiany paradygmatu myślenia, ale jeśli spróbujemy zwracać się wspólnie „przeciwko” robotom zanim zwrócimy się przeciwko ludziom (podkreślam – wspólnie), to może w ostatecznym rozrachunku osiągniemy potrzebny konsensus i spokojnie wkroczymy w nową epokę. Choć sama mało w to wierzę i, zdaje się, nie wierzył w to Stanisław Lem, dałabym temu szansę.

Ewa Fabian

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 29 października 2016