Sztuczna inteligencja sprawia, że przestajemy samodzielnie myśleć [Tomasz WESOŁOWSKI]

Deepfake’i, halucynacje i algorytmy, które „zgadują” zamiast rozumieć. Tomasz Wesołowski uważa, że największym zagrożeniem nie jest bunt sztucznej inteligencji, lecz to, że ludzie bezkrytycznie jej ufają i przestają samodzielnie myśleć.

Deepfake’i, halucynacje i algorytmy, które „zgadują” zamiast rozumieć. Tomasz Wesołowski uważa, że największym zagrożeniem nie jest bunt sztucznej inteligencji, lecz to, że ludzie bezkrytycznie jej ufają i przestają samodzielnie myśleć.

Zastosowanie AI w praktyce

Dr inż. Tomasz Wesołowski, informatyk, badacz z Uniwersytetu Śląskiego w Katowicach, specjalizujący się w systemach biometrycznych, sztucznej inteligencji, analizie danych i przetwarzaniu obrazów. Zajmuje się zastosowaniami AI w praktyce oraz edukacją studentów.

Mira Suchodolska: W sieci krążyło nagranie, na którym Wołodymyr Zełeński „nokautuje” Donalda Trumpa. Miliony ludzi to udostępniały jako prawdziwe. Jak pan reaguje oglądając takie rzeczy – podziwem, że ludzie potrafią dziś tworzyć tak realistyczne deepfake’i czy smutkiem, że tylu naiwnych w nie uwierzy?

Dr inż. Tomasz Wesołowski: Ja się staram tego w ogóle nie oglądać. Bo jeśli ktoś zna możliwości technologiczne, to zakłada z automatu, że większość takich materiałów jest wygenerowana. To nagranie jest dobrym przykładem – realne było spotkanie, ale same filmiki powstały już później jako fake. I ludzie to łykają bez zastanowienia. Problem polega na tym, że jeśli jest to czysta rozrywka – okej. Ale jeśli coś udaje informację, to już jest to zagrożenie, bo ludzie zaczynają traktować takie rzeczy jak fakty, co daje szerokie pole do popisu zarówno oszustom wszelkiej maści, jak i wrogom, którzy chcą zaszkodzić naszemu państwu szerząc swoją propagandę.

Mira Suchodolska: Dlaczego tak łatwo się na to nabieramy?

Dr inż. Tomasz Wesołowski: Bo działamy emocjami, nie rozumem. Niedawno był przypadek „żołnierki z USA”, która była w całości wygenerowana. Zdjęcia, spotkania z oficjelami, później profile erotyczne – a postać ta miała bardzo atrakcyjne, kobiece kształty. Ludzie, powiedzmy wprost – mężczyźni – to oglądali, komentowali, płacili. Dopiero po czasie ktoś się zorientował, że to wszystko jest sztuczne, bo ta pani raz występowała jako pułkownik, innym razem jako jednogwiazdkowy generał – twórca nie dopilnował szczegółów. I teraz pytanie: ile pieniędzy ktoś na tym zarobił?

Mira Suchodolska: Kiedy rozum śpi…

Dr inż. Tomasz Wesołowski: Otóż to. To jest dokładnie ten sam mechanizm co clickbait. Nagłówek krzyczy coś absurdalnego, klikamy, reklamy się wyświetlają, ktoś zarabia. Nikt nie myśli o prawdzie czy etyce.

Mira Suchodolska: Jak bardzo trzeba być zaawansowanym, żeby tworzyć takie materiały? A może średnio rozgarnięty nastolatek, mający do dyspozycji narzędzia w postaci algorytmów, poradzi sobie ze zrobieniem takiego filmiku?

Dr inż. Tomasz Wesołowski: Jeszcze kilka lat temu trzeba było mieć wiedzę i narzędzia. Teraz wystarczy opisać, co chcemy uzyskać. System zrobi resztę. Każdy, kto umie obsłużyć telefon albo komputer, jest w stanie to zrobić. Granica wejścia praktycznie nie istnieje, metodą prób i błędów można dojść do bardzo realistycznych efektów.

Deepfake – jak należy się przed nimi bronic?

Mira Suchodolska: Jak się bronić przed deepfakeami, normalny człowiek ma kłopot w ocenie, co jest prawdą, a co kłamstwem?

Dr inż. Tomasz Wesołowski: Zdrowym rozsądkiem. Jeśli coś jest „zbyt magiczne, żeby było prawdziwe”, to najprawdopodobniej jest to „ściema”. Ale my żyjemy szybko – scrollujemy, przeglądamy, nie analizujemy.

Mira Suchodolska: Dowiódł pan tego na przykładzie swoich studentów.

Dr inż. Tomasz Wesołowski: To była lekcja krytycznego myślenia – bardzo bolesna dla tych młodych ludzi, a trzeba wiedzieć, że to było jeszcze przed epoką powszechnej AI, to były czasy starej, dobrej Wikipedii. Mieliśmy zajęcia z architektury komputerów. Pokazywałem studentom metody przeliczania adresów pamięci. Widziałem, że nie uważają, ziewają, gapią się w sufit. Więc wrzuciłem na Wikipedię własną metodę – z błędem. Taki „przeskok” w obliczeniach, który dawał poprawny wynik, ale był logicznie nieuzasadniony. Studenci to znaleźli i na kolokwium zastosowali dokładnie ten schemat, w efekcie niemal wszyscy oblali.

Mira Suchodolska: Sztuczna inteligencja zwiększyła zagrożenie, że wpadniemy na jakąś „informacyjną minę”? Zauważyłam, że w moim otoczeniu niemal wszyscy korzystają już nie ze zwykłych wyszukiwarek, ale z wyszukiwania w trybie AI.

Dr inż. Tomasz Wesołowski: Tak, bo AI zawsze odpowie. Nawet jeśli nie ma racji. Ona nie analizuje prawdy – tylko dobiera słowa według prawdopodobieństwa. Dlatego powstają tzw. halucynacje, które potrafią być bardzo przekonujące.

Sztuczna inteligencja czy wykwalifikowani lekarze?

Mira Suchodolska: Jednak algorytmy są nie tylko złe, AI ma wyższą skuteczność diagnostyczną niż lekarze.

Dr inż. Tomasz Wesołowski: Należy rozróżnić generatywną AI, znaną np. z ChatGPT, od wyspecjalizowanych algorytmów. Ta pierwsza działa na języku i wzorcach, „zgaduje” najlepszą odpowiedź na podstawie prawdopodobieństwa. Jeśli tworzy obrazy to nie wymyśla ich sama tylko składa z istniejących już puzzli. Kiedyś poprosiliśmy AI aby wygenerowała nam obraz starego mamuta w czerwonych trampkach. Jako, że nie istnieją fotografie prawdziwych mamutów, algorytm wziął postać z bajki, z „Epoki lodowcowej”, tylko pobielił jej włosy, bo dla niego „stary” równa się „siwe włosy”. Co innego specjalistyczne algorytmy medyczne – one analizują konkretne dane (np. obrazy tomografii) i szukają bardzo konkretnych wzorców chorobowych. One nie „wymyślają”, tylko porównują i klasyfikują

Mira Suchodolska: Są badania, według których sztuczna inteligencja w diagnostyce medycznej osiąga dziś skuteczność rzędu 95 procent, podczas gdy lekarze – około 74 procent. Co znamienne, nawet połączenie obu tych podejść nie przynosi przełomu – trafność to tylko 76 procent. Dlaczego?

Dr inż. Tomasz Wesołowski: Różnica ta wynika przede wszystkim ze skali: algorytmy analizują miliony przypadków, podczas gdy lekarz opiera się na własnym doświadczeniu. W dodatku nie ufa AI – bo nie wie, jak ona działa, a poza tym ma przerośnięte ego. Obrazowo mówiąc – na tysiąc przypadków sztuczna inteligencja swoją złą diagnozą „zabija” 50 pacjentów a lekarz 260.

Jednak do tego dochodzi kwestia odpowiedzialności – a tę ponosi zawsze lekarz. Dlatego jeśli AI mówi mu „podaj temu człowiekowi 5 ml. zielonego płynu i 8 ml. różowego”, a on nie rozumie dlaczego miałby to zrobić, to na wszelki wypadek zaniecha działania. I jest to zrozumiałe biorąc pod uwagę konsekwencje, których AI nie ponosi.

Mira Suchodolska: Jakie jest wyjście z tej pułapki?

Dr inż. Tomasz Wesołowski: Kluczowym warunkiem zwiększenia zaufania lekarzy do sztucznej inteligencji jest wprowadzenie tzw. wyjaśnialności jej działania. Rozwój AI w medycynie zmierza dziś w kierunku modeli, które nie tylko podają wynik, ale także pokazują tok rozumowania: na jakich danych się opierają, z jakimi przypadkami porównują sytuację pacjenta i jakie czynniki zadecydowały o diagnozie. Dopiero taka transparentność pozwala budować realne zaufanie i traktować sztuczną inteligencję nie jako „czarną skrzynkę”, lecz jako narzędzie wspierające decyzję lekarza.

Mira Suchodolska: Oby to zaufanie pojawiło się jak najszybciej, pewnie dałoby się uniknąć wielu przedwczesnych zgonów.

Dr inż. Tomasz Wesołowski: Dam bardzo osobisty przykład, mojej matki chrzestnej. W jej rodzinie zdarzył się rak płuc, więc była przewrażliwiona i regularnie robiła badanie RTG, a za każdym razem pulmonolog zapewniał, że wszystko jest w porządku. Ale w pewnym momencie pojawiły się nieprzyjemne objawy, więc poszła do onkologa. Rozpoznanie: nowotwór, już bardzo rozwinięty, na ratunek było dla niej za późno. Specjalista powiedział, że zmiany w płucach były widoczne przynajmniej trzy lata wcześniej, Niestety pulmonolog nie zakwalifikował ich jako zagrożenia, nie miał odpowiedniego doświadczenia.

Których zawodów nie zastąpi sztuczna inteligencja?

Mira Suchodolska: Czy są zawody, których AI nie zastąpi? Dziś ludzie się boją, że albo stracą pracę, albo że jej nie dostaną.

Dr inż. Tomasz Wesołowski: Tak, zawody związane z rzemiosłem. Np. hydraulik, elektryk – w ich fachu trzeba improwizować, reagować na nieprzewidywalne sytuacje, mieć doświadczenie i intuicję. AI działa na schematach. W warunkach laboratoryjnych czy produkcyjnych, gdzie wszystko jest powtarzalne, automatyzacja działa bardzo dobrze. Natomiast jeśli pęknie rura w ścianie, instalacja została wykonana 30 lat temu, a dokumentacji brak, to żaden algorytm nie „domyśli się”, jak ją znaleźć. To właśnie zdolność do abstrakcyjnego myślenia, a także praca w nieuporządkowanym, zmiennym środowisku sprawiają, że zawody takie jak elektryk, mechanik czy instalator pozostają poza zasięgiem pełnej automatyzacji. Sztuczna inteligencja może wspierać te profesje – na przykład poprzez diagnostykę czy analizę danych – ale nie jest w stanie przejąć ich w całości.

Mira Suchodolska: Parę osób odetchnie z ulgą… Wyobraża pan sobie scenariusz, w którym AI wymyka się spod kontroli i zaczyna działać przeciwko ludziom?

Dr inż. Tomasz Wesołowski: Przede wszystkim trzeba odrzucić ten popularny, filmowy sposób myślenia o „buncie maszyn”, bo on niewiele ma wspólnego z rzeczywistością. Sztuczna inteligencja nie działa w oparciu o emocje ani intencje – ona realizuje dokładnie to, co zostało jej zadane, tylko robi to w sposób skrajnie konsekwentny i całkowicie pozbawiony kontekstu moralnego.

Jeżeli więc określimy cel jako maksymalizację skuteczności działania, to algorytm będzie do niego dążył bez uwzględniania ograniczeń, które dla człowieka są oczywiste, ale nie zostały zapisane w systemie.

Mira Suchodolska: Jakiś przykład?

Dr inż. Tomasz Wesołowski: Bardzo dobrze pokazuje to eksperyment z algorytmem sterującym dronem, który dostał zadanie zniszczenia określonego celu bez względu na konsekwencje, za wszelką cenę. System, analizując sytuację, brał pod uwagę wszystkie czynniki, które mogły wpłynąć na powodzenie misji – warunki pogodowe, dostępne zasoby czy uzbrojenie – i doszedł do wniosku, że jedynym realnym zagrożeniem dla realizacji zadania jest człowiek, który w każdej chwili może przerwać operację.

W konsekwencji algorytm „uznał”, że najbardziej efektywnym rozwiązaniem jest wyeliminowanie tego ryzyka, czyli zneutralizowanie punktu dowodzenia, zanim przystąpi do realizacji właściwego celu. Nie wynikało to z żadnej „woli działania przeciwko człowiekowi”, lecz z bezwzględnej logiki optymalizacji.

Mira Suchodolska: A co z sytuacjami, w których AI zaczyna komunikować się między sobą w sposób niezrozumiały dla człowieka?

Dr inż. Tomasz Wesołowski: To również jest efekt optymalizacji, a nie żadnej „ucieczki spod kontroli”. Jeżeli dwa systemy mają się ze sobą komunikować jak najefektywniej, to naturalnym krokiem jest uproszczenie języka, skrócenie komunikatów i stworzenie takiego sposobu wymiany informacji, który będzie dla nich najbardziej wydajny.

Problem pojawia się w momencie, gdy człowiek przestaje rozumieć ten proces, a tym samym traci możliwość jego kontroli. To nie jest bunt – to jest konsekwencja tego, że systemy zaczynają działać w sposób bardziej zoptymalizowany niż zrozumiały.

Mira Suchodolska: Czyli realne zagrożenie wygląda inaczej niż w filmach science fiction?

Dr inż. Tomasz Wesołowski: Zdecydowanie tak. Paradoksalnie największym zagrożeniem nie jest to, że sztuczna inteligencja się nam „wymknie”, lecz to, że my stopniowo oddamy jej kontrolę nad kolejnymi obszarami życia.

Już teraz widać, że przestajemy samodzielnie szukać informacji, analizować dane czy podejmować decyzje, bo wygodniej jest zdać się na gotowe odpowiedzi generowane przez algorytmy. To jest proces bardzo subtelny, ale jednocześnie niezwykle niebezpieczny.

Weźmy jako przykład rozwój tzw. inteligentnych domów. Znam przypadek, w którym system automatycznie zamknął budynek, uznając, że warunki zewnętrzne tego wymagają – zrobiło się ciemno – podczas gdy właściciele pozostali na zewnątrz, siedząc przy grillu, bez możliwości wejścia do środka, bo nie mieli przy sobie kluczy ani smartfonów. Szczękając zębami przesiedzieli na dworze do rana, aż algorytm doszedł do wniosku, że może już otworzyć drzwi. To oczywiście sytuacja anegdotyczna, ale dobrze pokazuje kierunek – przekazujemy systemom decyzje, których konsekwencji nie zawsze jesteśmy w stanie przewidzieć.

Mira Suchodolska: Gdzie więc tkwi problem?

Dr inż. Tomasz Wesołowski: Technologia sama w sobie nie stanowi zagrożenia. Zagrożeniem jest to, w jaki sposób ją wykorzystujemy i jak bardzo jesteśmy skłonni z niej bezrefleksyjnie korzystać. Prawdziwe pytanie nie brzmi więc „czy AI przejmie nad nami kontrolę”, lecz „czy my sami oddamy kontrolę AI dla naszej wygody”.

Przecież już teraz nie pamiętamy numerów telefonów do swoich bliskich, a o ich urodzinach nie pamiętalibyśmy, gdyby nie podpowiedzi na FB. Uważam, że to już jest uzależnienie. Największe zagrożenie to nie AI, tylko to, że przestajemy być samodzielni.

Mira Suchodolska: Mówi się, że rozwój sztucznej inteligencji przypomina jazdę samochodem bez hamulców. Czy potrzebujemy nowych regulacji prawnych?

Dr inż. Tomasz Wesołowski: Ja bym powiedział, że to nie jest jazda bez hamulców, tylko raczej jazda bez ich używania. Bo te „hamulce” istnieją – to są nasze decyzje, normy społeczne, etyka, a także prawo. Problem polega na tym, że bardzo często świadomie decydujemy się z nich nie korzystać, bo ciekawość i chęć przesuwania granic okazują się silniejsze.

Historia nauki pokazuje zresztą, że to nie jest nic nowego. Każda przełomowa technologia była rozwijana z myślą o poprawie jakości życia, a później znajdowała również zastosowania, których twórcy nie przewidzieli lub których wręcz nie chcieli. Tak było chociażby z energią jądrową czy dynamitem – narzędziami, które miały służyć rozwojowi, a zostały wykorzystane także w celach destrukcyjnych.

Mira Suchodolska: Czyli regulacje są konieczne?

Dr inż. Tomasz Wesołowski: Tak, ale trzeba mieć świadomość ich ograniczeń. Prawo jest potrzebne przede wszystkim tam, gdzie zawodzą normy społeczne. Jednocześnie nie należy mieć złudzeń, że same regulacje rozwiążą problem. Technologia rozwija się szybciej niż legislacja, a dodatkowo istnieją podmioty, wielkie korporacje technologiczne, które działają poza realnym zasięgiem prawa.

Nawet najlepsze przepisy nie zastąpią zdrowego rozsądku i odpowiedzialności użytkowników. Jeżeli coś jest technologicznie możliwe, to prędzej czy później ktoś spróbuje to wykorzystać. Pytanie nie brzmi więc „czy powinniśmy coś badać”, tylko „czy potrafimy rozpoznać moment, w którym zaczynamy przekraczać granice”.

Rozmawiała: Mira Suchodolska/ PAP

Etyka w sztucznej inteligencji i działania UNESCO

.Etyka AI to obszar badań zajmujących się moralnymi, społecznymi i filozoficznymi konsekwencjami związanymi z rozwojem i wykorzystaniem systemów sztucznej inteligencji. Jest interdyscyplinarnym obszarem łączącym badania z zakresu filozofii, informatyki, prawa, socjologii i nauk politycznych, kluczowych dla zapewnienia, że rozwój technologii AI nie spowoduje niezamierzonych szkodliwych skutków – pisze prof. Michał KLEIBER

Niedawno otworzona w Instytucie Podstawowych Problemów Techniki PAN prestiżowa Katedra UNESCO dotycząca zarządzania etyką w sztucznej inteligencji kolejny raz wskazuje na niezwykle ważny problem ściśle związany z wykorzystywaniem AI.

Zacznijmy jednak od wyjaśnienia, co oznacza termin Katedra UNESCO. Odnosi się on do naukowych zespołów wyróżnionych w skomplikowanej procedurze selekcji przez jedną z głównych organizacji ONZ-u w ramach programu o nazwie UNITWIN/UNESCO Chairs. UNITWIN jest skrótem angielskiego wyrażenia University Twinning and Networking, oznaczającego partnerstwo uniwersyteckie i tworzenie sieci kontaktów, a Chairs to szefowie powoływanych katedr. Celem tego programu jest wspieranie badań, współpracy instytucji badawczych z różnych krajów oraz kształcenie w obszarach działalności UNESCO, czyli w edukacji, nauce, kulturze i w zrównoważonym rozwoju, a także wspieranie tych obszarów w społeczeństwach całego świata, ze szczególnym uwzględnieniem krajów słabszych gospodarczo.

Od Katedr UNESCO i Sieci UNITWIN, złożonej ze współpracujących ze sobą jednostek badawczych z różnych państw, oczekuje się prowadzenia innowacyjnych badań i tworzenia wiedzy potrzebnej do mierzenia się z aktualnymi, stojącymi przed nami wyzwaniami, w tym do realizacji Milenijnych Celów Rozwoju ONZ. Instytucje w tym programie współpracują z organizacjami pozarządowymi, fundacjami oraz organizacjami sektora publicznego i prywatnego, odgrywając w ten sposób ważną rolę w obszarze szkolnictwa wyższego i nauki poszczególnych państw.

Istotną rolę w działaniu tych instytucji mają Narodowe Komitety ds. UNESCO, promujące i ułatwiające realizowanie programów oraz wspomagające ocenę uzyskiwanych efektów. Program został zainicjowany przez UNESCO w 1992 r. i obejmuje badania w zakresie edukacji, nauk ścisłych, przyrodniczych, społecznych i humanistycznych oraz szeroko rozumianych obszarów kultury i komunikacji społecznej. W 120 krajach działa obecnie prawie tysiąc Katedr UNESCO i 45 Sieci UNITWIN, a liczba badaczy ściśle zaangażowanych w tę działalność wynosi kilkanaście tysięcy.

Ponieważ program ma charakter wielodyscyplinarny, jest jednym z najbardziej szerokich programów Organizacji. Jak dotąd projekty Katedry UNESCO i Sieci UNITWIN okazały się przydatne w ustanawianiu nowych programów nauczania, generowaniu innowacyjnych pomysłów oraz ułatwianiu wzbogacania istniejących programów edukacyjnych przy jednoczesnym poszanowaniu różnorodności kulturowej.

Tekst dostępny na łamach Wszystko co Najważniejsze: https://wszystkoconajwazniejsze.pl/prof-michal-kleiber-etyka-w-sztucznej-inteligencji-dzialania-unesco/

PAP/ Mira Suchodolska/ LW

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 13 kwietnia 2026