O. Eric SALOBIR OP: Bóg i Dolina Krzemowa

Bóg i Dolina Krzemowa

Photo of O. Eric SALOBIR OP

O. Eric SALOBIR OP

Francuski dominikanin, założyciel i prezes sieci OPTIC promującej badania i innowacje w humanistyce cyfrowej. Konsultor ds. mediów i technologii przy Stolicy Apostolskiej; przyczynił się do reorganizacji watykańskich mediów. Wykłada komunikację cyfrową na Katolickim Uniwersytecie Paryskim. Autor książki Dieu et la Silicon Valley (2000).

Ryc. Fabien CLAIREFOND

Nie możemy być uzależnieni od amerykańskiego Big Techu. To kluczowa kwestia dla odrębności kultury europejskiej – mówi O. Eric SALOBIR OP w rozmowie z Michałem KŁOSOWSKIM

Michał KŁOSOWSKI: Bóg ma cokolwiek wspólnego z Doliną Krzemową?

Eric SALOBIR OP: Myślę, że istnieje wiele powiązań między Bogiem a Doliną Krzemową. Nawiązuje Pan do tytułu mojej książki Dieu et la Silicon Valley?

Tak. Dostrzegam zderzenie pojęć, które łączy się ze sobą niezwykle rzadko.

To nie prawda. Dieu et la Silicon Valley to książka o interakcjach, o relacjach z ludźmi w Dolinie Krzemowej, o styku technologii i człowieczeństwa. Z jednej strony żyją tam i pracują ludzie z Europy, z których wielu jest katolikami, a przynajmniej wyrosło w tradycji chrześcijańskiej. Z drugiej to zagłębie wielkich firm technologicznych kojarzonych raczej z bezdusznym nastawieniem na zysk.

To jeszcze nie świadczy o tym, że można tak łatwo połączyć metafizykę z technologią.

A jednak. Przyzna Pan, że technologia niezaprzeczalnie ma coś wspólnego z duchowością i tym specyficznym sposobem myślenia religijnego, które od najdawniejszych lat pojawia się w naszych umysłach. Oczywiście chodzi o myśl religijną w bardzo antropologicznym sensie.

Twierdzi Ojciec, że zarówno religia, jak i potrzeba rozwoju technologicznego wynikają z antropologii, z ludzkiej natury.

Tak. Zwłaszcza sposób, w jaki dziś postrzegamy technologię i patrzymy na kolejne nowinki technologiczne, ma wiele wspólnego z prymitywną szamańską duchowością. Potwierdza to też sposób, w jaki z technologii korzystamy.

Chodzi o wiarę, jaką pokładamy w niezawodność najnowszych technologii, czy o to, że technologia obiecuje nam świetlaną przyszłość?

I to, i to. Przecież obecnie traktujemy technologię tak, jakby była jakąś magią, cudowną odpowiedzią na wszystkie bolączki ludzkości! Nawet nasze domy organizujemy wokół bożków Alexy czy Siri.

Zamiast pomagać się rozwijać, technologia zaczyna dominować w życiu współczesnego człowieka?

Rozwinę tę myśl na przykładzie naszych domów. Obecne uzależnienie od technologii można porównać do starożytnych bogów ogniska domowego. Google Home, Alexa, Siri i inne zaczynają zajmować się wszystkim za nas, niemalże pełnić rolę opiekuńczą: zmieniają temperaturę w budynku, pilnują, aby było czym oddychać… Więcej, zaczynają odpowiadać na najważniejsze ludzkie pytania, a my w ich odpowiedziach i działaniach pokładamy coraz większą ufność.

Istnieje ogromna różnica między prostym pytaniem „jaka dziś pogoda?” a pytaniami egzystencjalnymi. Na te chyba jeszcze technologia nie może dać odpowiedzi?

Nawet jeśli nie może, to widać po kierunku rozwoju dzisiejszej technologii, że do tego pretenduje. Tak też ją projektują jej twórcy. Spójrzmy na sposób, w jaki technologia AI zmienia ludzki stosunek do świata zewnętrznego, świata przyrody i natury.

To znaczy?

Każda odpowiedź, którą daje nam technologia, jest odpowiedzią jedyną i niepowtarzalną, prawie niezaprzeczalną. Dzięki technologii mamy oczywiście dostęp do wielu informacji, do ogromnej wiedzy, ale preferencyjne traktowanie niektórych informacji w stosunku do innych, sposób ich układania i przedstawiania jest co najmniej niepokojący.

Skąd bierze się ten niepokój?

Gdy na przykład wyszukuje Pan coś w wyszukiwarce Google, najprawdopodobniej wybierze Pan pierwszy lub drugi wynik, który się wyświetlił. Ten, który jest na górze listy.

To akurat dość naturalne…

Oczywiście, z jednym „ale”. Sztuczna inteligencja jest zaprojektowana tak, aby dawać jedną, ostateczną odpowiedź, ale bazującą na preferencjach i algorytmach, nauczaniu maszynowym, a także – na wcześniejszych wyszukiwaniach. Jeśli na przykład zapytać Siri, jaka jest stolica Izraela, odpowiedź może być problematyczna, jednakże zawsze będzie zaprogramowana tak, aby podać wynik najbardziej oczekiwany przez użytkownika, na przykład bazujący na jego dotychczasowych zapytaniach.

Zawsze możemy zapytać inną wyszukiwarkę, poszukać na innej stronie…

Od różnych dostawców otrzymujemy różne odpowiedzi, każda z nich jednak pretenduje do bycia tą jedyną, ostateczną. Zbieżną także z naszą historią i poprzednimi wyszukiwaniami. To wzmacnia radykalizmy, utrudnia dialog.

Faktycznie, brzmi to mocno religijnie. To powód, dla którego Watykan zaczyna interesować się technologią?

Watykan nie boi się technologii jako takiej, nie obawia się rozwoju technologii, nawet w kierunku jakiejś nowej religii. Kluczową kwestią jest to, że technologie przekształcają ludzi. A Kościół katolicki troszczy się o ludzi. O bioetykę, o wolną wolę, o możliwość wyboru. Tego technologie pozostawiają ludziom coraz mniej.

Jak ma się to do obietnic guru technologii, którzy malują przyszłość świata w świetlanych barwach właśnie dzięki rozwojowi techniki?

Zmienia się życie ludzi, zmieniają się ich relacje, zagrożona jest demokracja, niestabilne staje się zatrudnienie. Czy to jest świetlana przyszłość? Oczywiście nie. Ale to nie tyle wina technologii, ile skutek jej rozwoju. Kościół jest zaniepokojony tymi przemianami. Kościół chce rozpocząć dialog na temat tego, jakie społeczeństwa budujemy dzięki technice, jakie technologie możemy tworzyć dzięki społeczeństwom i dla ich dobra.

Dla wielu ludzi na świecie technologia i dostęp do sieci stały się odpowiedzią na realne problemy, na wykluczenie. Może jednak technologia stanowi konkurencję dla religii?

Nie sądzę, bo celem religii nie jest dostarczanie odpowiedzi. A technologia jest nastawiona na rozwiązania, często zero-jedynkowe, jak już wspomnieliśmy. Tak przecież działają algorytmy: mają dawać odpowiedzi na pytania, rozwiązywać problemy. Jednak wiemy z historii, że rozwiązywanie problemów w skali mikro nie rozwiązuje problemów w skali makro.

Ale zawsze to krok do przodu.

Aplikacja, która zapewnia realizację jednej usługi, nie rozwiązuje wszystkich problemów. Nawet Adam Smith powiedział, że wolna ręka rynku działa wyłącznie w określonych przypadkach.

Chce Ojciec powiedzieć, że technologia stała się zbytnio liberalna?

Tak. W pewnym momencie będziemy próbowali rozwiązać każdy problem, tworząc więcej problemów, aby nakarmić tę maszynę. To perpetuum mobile, którego uruchomienie nie wystarcza, a wręcz tworzy kolejne problemy, nie dając odpowiedzi na zagadnienia podstawowe.

Co więc dziś jest tym podstawowym zagadnieniem?

To, że nie mamy żadnego planu dla naszych społeczeństw. Demokracja rozpada się z powodu populizmu, którego ujściem jest sieć. Platformy sieciowe przekształcają gospodarkę. Weźmy na przykład Uber. Prawdopodobnie nadejdzie taki czas, że Uber będzie dominował w sektorze transportu. Co wówczas? Hipotetycznie każdy człowiek może zostać zablokowany. To może dotknąć i klientów, i kierowców. Podobny problem dotyczy właścicieli sklepów na platformach sprzedażowych. Jeśli np. Amazon zdecyduje się podnieść marżę, niewielki sprzedawca nie ma co z tym zrobić, musi się z tym pogodzić.

A nie było tak zawsze, że ktoś dyktował warunki, a ktoś musiał się do nich dostosować?

Nigdy nie działo się to na tak wielką skalę.

Twory takie jak Alexa aspirują do tego, by dawać ostateczną odpowiedź. Uber czy Facebook korzystają z algorytmów, które w pełni kontrolują i które mogą wykorzystać przeciwko samym użytkownikom. A jednak wciąż sporo katolików wykorzystuje te narzędzia…

Nie sądzę, żeby katolicy mogli lub powinni używać algorytmów w takim stopniu, w jakim robi to sztuczna inteligencja. Fakt, że algorytmy odtwarzają tylko przeszłość, jest wielkim niebezpieczeństwem. Także duchowym.

Chodzi o uczenie maszynowe, tj. sposób, w jaki algorytmy na bazie poprzednich działań użytkownika nabywają „wiedzę”?

Niebezpieczeństwo przewidywalnej policji lub innych instytucji staje się bardzo realne. Obliczanie niebezpieczeństwa nie powinno być wyłącznie korelacją danych z przeszłości. Ludzie stają się skategoryzowani, skatalogowani niemalże na bazie tego, kim byli. To, jak zachowujesz się dzisiaj, jest nieistotne dla algorytmów, mimo że ludzie są nieprzewidywalni. A przecież wolna wola istnieje po to, żeby każdy z nas mógł się zmienić i naprawić popełnione wcześniej błędy.

Czyli co tak naprawdę należy zrobić? Zupełnie pozbyć się technologii?

Technologie są wytwarzane przez ludzi i przez nich są wykorzystywane. Chodzi o to, aby upewnić się, że budujemy technologię, która stawia człowieka w centrum. Technologię, która humanizuje. Dziś niestety mamy do czynienia z technologiami, które bazują na powtarzalności danych pozyskiwanych z przeszłości. To odczłowiecza, zabiera przestrzeń na wolną wolę.

Wspomniał Ojciec Adama Smitha. Zdehumanizowana technologia przynosi realne profity. Tworzenie technologii przyjaznej człowiekowi jest opłacalne?

Nie ma jednej, ostatecznej odpowiedzi. Dziś pracujemy nad tym, czy upewnienie się, że w procesie tworzenia technologii już na poziomie najprostszych algorytmów jest ona nastawiona na pomoc człowiekowi. Technologia nie powinna być tworzona tylko po to, by prosperować na rynku i nadużywać naszej prywatności, wykorzystywać dane do nabijania kabzy twórców algorytmów. A tak dzieje się dzisiaj. Ważne jest, aby ustalić wspólne zasady działania i wykorzystywania technologii.

Współczesny kapitalizm został przekształcony przez big data i Big Tech?

Tak.

A co z wolną wolą?

Niestety, ale wolną wolę oddajemy dobrowolnie. Robimy wszystko, aby oszczędzać energię. Jeśli maszyna oferuje nam drogę na skróty, korzystamy z niej. Nie zastanawiamy się nad tym, czy skrót, który jest nam dany, jest najlepszą drogą. To niebezpieczne. Ludzkie lenistwo jest niebezpieczne. A technologia wykorzystuje to lenistwo i na nim bazuje.

Czyli nie chodzi o to, byśmy byli mniej technologiczni, ale bardziej aktywni?

Chodzi o to, by używać technologii w sposób bardziej odpowiedzialny. Wykorzystywać, na ile się da, ludzką sprawność, gdy chodzi o bardziej znaczące decyzje w życiu. Nie podążać za technologią, tylko z niej korzystać.

Jak powinniśmy używać technologii, by być lepszymi ludźmi?

Dopiero zaczęliśmy pracować nad tym zagadnieniem, niestety nie mam konkretnej odpowiedzi.

Odpowiedzią jest edukacja?

To oczywiste, ale umiejętności technologiczne to tylko widoczna część góry lodowej. Powinniśmy pomóc ludziom rozkwitnąć w erze AI. Główną jej częścią jest pomoc ludziom w radzeniu sobie z technologiczną czy bardziej – poznawczą rewolucją, którą widzimy.

Ale nie jest to taka rewolucja jak w filmach science fiction, gdzie roboty są zagrożeniem dla ludzi.

Także ta rewolucja niesie dla ludzi zagrożenia. Niektórzy, jeśli się nie dostosują, mogą stać się przestarzali. Edukacja nie jest wystarczająca w perspektywie nowych technologii powstających bez wartości skoncentrowanych na człowieku.

Wspomina Ojciec o wielu problemach, między innymi z demokracją i fake newsami. Możemy edukować ludzi, by byli w stanie odróżnić prawdę od fałszu?

Na pewno możemy uczyć ludzi w zakresie sztuki sprawdzania faktów oraz źródeł. Ludzie nie będą w stanie walczyć z fake newsami. Wiemy na pewno, że fake newsy rozprzestrzeniają się w sieci sześć razy szybciej niż prawdziwe wiadomości. Więc drogą do celu jest uczenie algorytmów, nawet nie ludzi, jak selekcjonować prawdziwe wiadomości. Filtrowanie przez AI.

Technologia powinna być tworzona w inny sposób. Jak wpływać na jej twórców?

Musimy szkolić i motywować ludzi tworzących technologię. To koncepcja etyki przez projektowanie. To tak, jak tworzy się kulturę etyczną w firmie.

To znaczy?

Gigantyczne firmy są podatne na działania akcjonariuszy. Musimy to po prostu wykorzystać, mieć do tego możliwości i narzędzia. Akcjonariusz musi być bardziej odpowiedzialny.

To też pytanie o używanie mediów społecznościowych.

Ten kompromis jest dobry. Ale problem nie leży w kompromisie, lecz w ryzyku uszkodzenia systemu danej technologii. Gdy dochodzi do tego, wady znacznie przewyższają zalety. Ludzie ryzykują, nie wiedząc, co ryzykują.

Co jest temu winne?

Kultura indywidualizmu. Promują ją algorytmy AI i to jest bardzo niebezpieczne. W pewnym momencie, jeśli model społeczny stanie się zbyt indywidualistyczny i egoistyczny, może to doprowadzić do dyktatury.

Technologie wspomagają dyktatury? Nie ma nic pośrodku?

Istnieje pomiędzy nimi wąskie okno możliwości dla Europy, by stworzyć trzecią drogę. To suwerenność technologiczna, stworzona zgodnie z naszymi wartościami. Jeśli chcemy, by technologia miała dla nas znaczenie, to musimy być jej twórcami. Nie Stany Zjednoczone, nie Chiny. Nie możemy być aż tak zależni od amerykańskiego Big Tech. Nasza technologia musi być partnerem dla technologii z zewnątrz. Nie możemy być tylko rynkiem.

To też kwestia własności korporacji z sektora Big Tech.

Owszem, problem polega na tym, że USA nie mogą zlikwidować swoich gigantów technologicznych, ponieważ jeśli to zrobią, Chińczycy przejmą to, co z nich zostanie. A USA nie są w stanie funkcjonować bez Big Techu.

W Europie możemy?

Możemy regulować. Powinniśmy wspierać naszych deweloperów i nie pozwolić, by przejęła ich któraś ze stron. Europa za bardzo konkuruje, również wewnątrz. Powinniśmy to zmienić.

Pora na europejską koncepcję technologiczną?

Wiara jest dla nas motorem robienia dobrych rzeczy, ale nie mówi nam konkretnie, co mamy robić. Mamy silną antropologię. Katolicyzm dał Europie odpowiedź na pytanie, co to znaczy być człowiekiem. Powinniśmy z tego korzystać. Katolicka nauka społeczna jest również bardzo ważna. Może nam pomóc budować społeczeństwo w zgodzie z Ewangelią.

W nowej erze wiara połączona z technologią też może dać taką odpowiedź?

Musimy pozostać poddani duchowi. Jako krytycy musimy pomagać ludziom w transkodowaniu tego, co jest w tradycji, na coś, co ma większe zastosowanie w życiu i technice. To właśnie robimy w naszej fundacji. Etyka również powinna dojść do głosu, ponieważ jest ważną częścią naszej wiary. Wszystkie te wskazania powinny być przyjęte przez liderów wielkich technologii.

Rozmawiał Michał Kłosowski

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 13 marca 2022