Prof. Andrzej ZYBERTOWICZ: Na łasce kodu i sieci

Na łasce kodu i sieci

Photo of Prof. Andrzej ZYBERTOWICZ

Prof. Andrzej ZYBERTOWICZ

Socjolog. Doradca Prezydenta RP. Ostatnio wydał "Samobójstwo Oświecenia. Jak neuronauka i nowe technologie pustoszą ludzki świat".

Ryc.Fabien Clairefond

zobacz inne teksty Autora

Cywilizacja naukowo-techniczna doszła do sytuacji, w której internet stał się dla całego systemu społecznego ludzkości głównym źródłem podatności na zagrożenia – pisze prof. Andrzej ZYBERTOWICZ

.Dnia 19 lipca 2024 r. miała miejsce wielka awaria Microsoftu. Przerwane zostało normalne funkcjonowanie bankowości i usług finansowych, lotnictwa, kolei, służby zdrowia, mediów, handlu elektronicznego, logistyki, instytucji edukacyjnych, administracji publicznej i sektora non profit. Odwołano tysiące lotów, wiele pociągów, wstrzymano zaplanowane zabiegi medyczne, zawieszono transakcje finansowe i handlowe, przestały nadawać niektóre stacje telewizyjne, w niektórych stanach USA nie działały telefony alarmowe 911. Zaburzenia wystąpiły w wielu krajach Europy, Azji, obu Ameryk, Afryki i Australii. 

Zdaniem niektórych ekspertów jest to największa awaria, jaka kiedykolwiek nastąpiła w sektorze technik informatycznych. Firma CrowdStrike, dostarczająca systemy bezpieczeństwa dla systemu Windows, bezpośrednio odpowiedzialna za awarię, ogłosiła, że nie było ataku hakerskiego, lecz nastąpiła wadliwa aktualizacja oprogramowania. Błędny odcinek kodu w aktualizacji został – zapewne bez wcześniejszego testowania – wysłany do licznych klientów na całym świecie. Według danych Microsoftu awarii uległo ok. 8,5 mln komputerów, czyli poniżej 1 proc. wszystkich urządzeń z systemem Windows. Ponieważ jednak były to komputery obsługujące systemy infrastruktury, np. pracę lotnisk, to skutki dotyczyły ogromnej, trudnej do ustalenia liczby osób i instytucji.

Już 19 lipca dwóch amerykańskich znanych badaczy problematyki sztucznej inteligencji skomentowało tę awarię.

Gary Marcus, emerytowany profesor Uniwersytetu Nowojorskiego, napisał: „Przebudźcie się. Jeśli jeden błąd może sparaliżować linie lotnicze, banki, sprzedawców detalicznych, media i nie tylko, to dlaczego uważacie, że jesteśmy gotowi na AGI [ogólną sztuczną inteligencję]? (…) Nieuregulowana branża AI to przepis na katastrofę”. Profesor MIT, Max Tegmark zauważył sarkastycznie: „Dzięki nienagannej kulturze bezpieczeństwa, która nie pozwala, by coś wdrażać, zanim zostanie odpowiednio przetestowane, jestem pewien, że Microsoft jest gotowy, aby bezpiecznie zarządzać inteligentniejszą od człowieka sztuczną inteligencją, którą próbuje zbudować z OpenAI”.

.Zróbmy mały eksperyment myślowy: jakie skutki przyniosłaby ta awaria, gdyby nastąpił taki oto przypadkowy zbieg wydarzeń. 

Przeprowadzony 13 lipca 2024 r. zamach na Donalda Trumpa kończy się jego śmiercią. Bardzo spolaryzowana amerykańska opinia publiczna staje na krawędzi histerii; obsesje spiskowe rozkręcają się do granic możliwości, a powszechny dostęp do broni przyczynia się do wybuchów przemocy. Z kolei gdy 19 lipca następuje awaria, zbiegają się z nią w czasie ataki terrorystyczne w Europie i agresywne posunięcia w wojnie hybrydowej Rosji z Zachodem. Do gry włączają się różnej maści hakerzy, np. próbując szantażem wyłudzić pieniądze od różnych instytucji, co jeszcze bardziej pogłębia zamieszanie.

Jaką skalę destabilizacji mielibyśmy wtedy? Jak zareagowałyby na kryzysową sytuację Zachodu niektóre autorytarne państwa spoza Europy? U progu jakiej wielkiej wojny świat mógłby się znaleźć? Kto wtedy byłby w stanie włączyć hamulec?

Co zatem awaria Microsoftu mówi nam o kondycji cywilizacji, do której technoentuzjaści tak ochoczo zapraszają sztuczną inteligencję? By na to pytanie odpowiedzieć, sięgam po pojęcie architektury rozumiane w kontekście inżynierskim, czyli jako sposób zaprojektowania jakiegoś działającego systemu. By w uproszczeniu uchwycić całościowy obraz, wyróżniam trzy poziomy owej architektury: 1. poszczególne komputery, 2. sieci, w których one pracują; na najwyższym poziomie jest to internet, 3. cała obecna cywilizacja.

W projektowaniu systemów inżynierskich obowiązuje zasada, że mają być one foolproof, czyli dosłownie: odporne na głupotę. Idzie o takie projektowanie urządzeń, by minimalizować ryzyko błędów lub niewłaściwego użycia przez osoby nietechniczne lub niedoświadczone. Niemniej komputery mają miejsca konstrukcyjnie wrażliwe, swoje pięty achillesowe, których uszkodzenie przynosi awarię całości. Chodzi o to, by takich punktów w konstrukcji było jak najmniej i aby dla zwykłego użytkownika były one trudno dostępne.

Fachowcy posługują się określeniem „pojedynczy punkt awarii” (ang. Single Point of Failure, SPOF), który jest właśnie jakiegoś systemu piętą achillesową. To znaczy, że awaria w tym punkcie powoduje przerwanie działania całego systemu lub utratę podstawowych jego funkcjonalności. Konstruktorzy starają się uniknąć obecności takich punktów, m.in. stosując redundancję, tj. tworząc układy zapasowe, umożliwiające działanie całości w razie awarii wrażliwego ogniwa. Przykładem jest zdublowanie układu hamulcowego w samochodzie. Zarazem wiadomo, że nie można zbudować systemu w stu procentach odpornego na błędy. By obniżyć koszty, w praktyce często rezygnuje się z redundancji. Zyski lub szybkość działania przedkłada się nad bezpieczeństwo. To właśnie staje się jednym z przekleństw rewolucji cyfrowej.

Internet jako zdecentralizowaną sieć komunikacyjną wymyślono po to, aby była jak najmniej wrażliwa na zakłócenia, np. w razie ataku przeciwnika. Internet to sieć ze swej natury redundantna – uszkodzenie jej poszczególnych węzłów lub łączy nie powstrzymuje przepływu informacji, bo do dyspozycji jest wiele dróg zapasowych. Niestety, obecnie, wbrew początkowym założeniom, internet wcale nie stał się łąką różnorodności i kreatywności, ale jak wskazują niektórzy analitycy, nabrał cech wielkiej plantacji, gdzie nieliczna grupa plantatorów decyduje o tym, co i jak mogą robić wszyscy pozostali. To dlatego – jak pokazała ostatnia awaria (i wcześniejsze, z których nie wyciągnięto wniosków systemowych) – z jednego punktu systemu mógł wyjść impuls głęboko zakłócający działania wielu ogniw internetu na całym świecie. Impuls, dodajmy, niskokosztowy, który swoją destrukcyjną siłę zawdzięcza tej monokulturowej architekturze sieci, jaką stał się dzisiejszy internet.

.O ile przy tym istnienie pojedynczych punktów awarii w przypadku poszczególnych komputerów można uznać za inżyniersko dopuszczalne, to rozlewanie się jej skutków na szerokie połacie internetu należy uznać za skandaliczne. Dlaczego? Jeśli spojrzymy nie na przyczyny awarii, ale na skalę jej skutków, dostrzeżemy ryzyko systemowe najwyższego poziomu, gdyż dotyczące dobrostanu i egzystencji całej ludzkości.

Globalizacja połączona z rewolucją cyfrową doprowadziła do tego, że system ludzkiej cywilizacji jako całość przestał być foolproof. Awaria z 19 lipca pokazała, że zagrożenie przyszło ze strony renomowanej firmy, specjalizującej się w bezpieczeństwie informatycznym. I nawet jeśli stało się tak, że zawinił jeden człowiek i/lub procedury przyjęte w firmie CrowdStrike, to bardzo poważnym błędem jest skupianie uwagi na tym, a pomijanie uwarunkowań architektury internetu, która najwyraźniej nie jest foolproof.

To, że na poziomie procedur obowiązujących w firmach CrowdStrike i Microsoft nie potrafiono zapobiec rozlaniu się awarii na ogromne połacie internetu, już mówi wiele. Najwyraźniej w kulturze organizacyjnej zbyt wielu firm zbyt dosłownie traktuje się hasło Marka Zuckerberga Move fast and break things. Wiąże się z tym niepokojący trend, który można ująć tak: im bardziej złożone, zintegrowane i wszechobecne stają się systemy technologiczne, tym większe ryzyko i większa skala potencjalnych skutków nawet drobnych awarii.

Pogoń za efektem skali utrudniającym konkurencji wejście do gry, a przez to zwiększającym zyski, napędza wielowymiarową integrację systemów technologicznych. Efekt skali to zjawisko, w którym wzrost produkcji lub rozmiaru organizacji prowadzi do obniżenia jednostkowych kosztów oraz zwiększenia efektywności. Zarazem efekty skali mogą przyczynić się do powstawania coraz większych i coraz bardziej skomplikowanych systemów, które mogą być zarówno korzystne, jak i niebezpieczne.

Sukces rozwiązań chmurowych, takich jak te oferowane przez monopolistów – Google, Amazon czy firmę Microsoft, prowadzi do ich masowego stosowania. Pojedynczy dostawcy usług zyskują dominującą pozycję w kluczowych obszarach. To z kolei zwiększa ryzyko „efektu kaskadowego” – awaria jednego elementu może pociągać za sobą lawinę problemów w skali globalnej. Znaczy to, że skalowanie, czyli poszerzenie zakresu stosowania jakiegoś rozwiązania, często odbywa się kosztem odporności systemów na zakłócenia.

W pogoni za wzrostem firmy technologiczne często stawiają na szybkość i efektywność kosztem bezpieczeństwa. Bezpieczeństwo kosztuje, wymaga bowiem wprowadzenia systemów zapasowych (czyli redundancji), decentralizacji (czyli większych kosztów zarządczych) i innych mechanizmów zwiększających odporność na awarie. Skupienie się na jednym, globalnym systemie może być tańsze i prostsze w zarządzaniu, ale jednocześnie czyni go bardziej podatnym na awarie, które z jednego miejsca rozleją się na duże części systemu.

W miarę skalowania systemy technologiczne stają się niezwykle złożone. Trudno jest przewidzieć wszystkie możliwe interakcje i zależności między elementami, co utrudnia rozpoznanie i eliminację potencjalnych punktów zapalnych. Nie trzeba było przecież tej wielkiej awarii Microsoftu, by wiedzieć, że złożoność utrudnia przewidywanie awarii i zapobieganie im. A jednak z awarii wcześniejszych nie wyciągnięto zapobiegawczych wniosków. Tak jakby wszyscy stali się zakładnikami pułapki, w którą wyewoluował internet.

Dlatego niepokoić musi, a co najmniej prowadzić do nieporozumień, gdy w komentarzach dotyczących awarii Microsoftu czytamy: „Wiele zależy od człowieka, od jego kompetencji i wiedzy, bo ostatecznie to on jest na końcu całego systemu bezpieczeństwa informatycznego – podkreśla w rozmowie z Onetem Przemysław Szulecki, ekspert od spraw cyberbezpieczeństwa związany m.in. z Fundacją Pułaskiego”. Jeśli taki naiwny, asystemowy schemat myślenia będziemy powielać w obliczu wyzwań bezpieczeństwa związanych z rozwojem AI, to rokowania dla ludzkości wyglądają kiepsko.

Zbyt głęboka zależność od technologii dodatkowo utrudnia właściwe potraktowanie wcześniejszych zaburzeń jako sygnałów ostrzegawczych i takie korygowanie jej architektury, które wiązałoby się z naruszeniem interesów najsilniejszych korporacji. Być może to nadmierne skoncentrowanie właścicielskie w ramach internetu, wynikające m.in. z procesów kapitalistycznej monopolizacji, stanowi główną podatność, która nadała skalę awarii z 19 lipca 2024 r.

.Przejdźmy teraz z poziomu architektury internetu na poziom architektury systemu o nazwie Ludzkość. Krok ten jest niezbędny, ponieważ poprzez internet cyfryzacja „wżarła się” w strukturę wszystkich bodaj systemów społecznych. To zaś powoduje, że technologie informatyczne już stały się poważną, może główną podatnością ludzkości jako systemu cywilizacyjnego. A w przyszłości, gdy technologie te zostaną nasycone modelami AI, wyłonią się podatności nowego typu, jakie dziś trudno przewidzieć.

Inżynierowie mówią, że należy położyć większy nacisk na następujące kwestie:

  • decentralizacja – miast tworzyć monolityczne systemy, trzeba dążyć do budowania rozproszonych sieci, bardziej odpornych na awarie;
  • redundancja – kluczowe elementy infrastruktury powinny mieć swoje zapasowe odpowiedniki, by w razie awarii zapewnić ciągłość działania;
  • tam, gdzie to możliwe, przyjąć otwarte standardy – ich interoperacyjność ułatwiłaby współpracę między różnymi systemami i zmniejszyłaby zależność od jednego dostawcy.

To nie są żadne nowatorskie postulaty, ale nie czekając na to, aż AI rozwiąże problemy za nas, trzeba wymusić ich wprowadzenie jak najprędzej. 

Dlaczego jednak tego typu wymogi, choć dobrze znane, nie zostały dotąd wprowadzone w życie? W tym momencie trzeba przejść od rekomendacji inżynierskich do socjologicznych. Mówią one, że nie możemy wszyscy podlegać jednej ideologii, jednemu światopoglądowi, jednemu systemowi prawnemu, jednym zasadom podatkowym, jednej walucie (zwłaszcza elektronicznej), jednolicie scyfryzowanym technologiom i jednemu centrum władzy. Im bardziej się do takiej „jedności” zbliżymy, tym bardziej będziemy bezbronni w obliczu nowych, coraz mocniejszych modeli AI.

Pora powiedzieć sobie, że cywilizacja naukowo-techniczna doszła do sytuacji, w której internet stał się dla całego systemu społecznego ludzkości głównym źródłem podatności na zagrożenia. A kolejny krok to uświadomienie sobie, że trzeba znaleźć sposób na przeciwstawienie się grupom interesów, których potęga wyrosła m.in. dzięki takiemu uformowaniu się architektury cywilizacyjnej, że zawiera ona liczne podatności z obszaru IT. 

.Rewolucja cyfrowa przyniosła dwa powiązane ze sobą trendy: ludzie są od siebie oddzielani, a systemy techniczne są integrowane. W dodatku spędzający mnóstwo czasu przed ekranami ludzie stają się społecznie coraz mniej odpowiedzialni. A wysoce złożone, nadmiernie sprzężone ze sobą systemy techniczne, które tej nieodpowiedzialności miały zaradzić, stały się głównym źródłem zagrożeń. Systemy techniczne należy, wbrew krótkowzrocznym biznesowym kalkulacjom, rozdzielać na układy mniejsze, współpracujące, ale niebędące wzajem swoimi zakładnikami. A my ponownie zbliżmy się do siebie.

Andrzej Zybertowicz

Tekst ukazał się w nr 66 miesięcznika opinii „Wszystko co Najważniejsze” [PRENUMERATA: Sklep Idei LINK >>>]. Miesięcznik dostępny także w ebooku „Wszystko co Najważniejsze” [e-booki Wszystko co Najważniejsze w Legimi.pl LINK >>>].

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 28 grudnia 2024