Chińska sztuczna inteligencja systemowo cenzuruje treści polityczne

Chińska sztuczna inteligencja

Chińskie chatboty AI w porównaniu z zachodnimi modelami językowymi inaczej odpowiadały na drażliwe pytania polityczne dotyczące Chin. Częściej odmawiały odpowiedzi, omijały niewygodne fakty czy podawały nieprawdziwe informacje, co może świadczyć o systemowej cenzurze – wynika z badania opublikowanego w czasopiśmie „PNAS Nexus”.

Chińska sztuczna inteligencja systemowo cenzuruje treści polityczne

.Analiza przeprowadzona przez prof. Jennifer Pan (Uniwersytet Stanforda) oraz prof. Xu Xu (Uniwersytet Princeton) wskazuje, że cenzura wynikająca z regulacji rządowych jest kluczowym czynnikiem kształtującym stronniczość polityczną dużych modeli językowych.

Badacze porównali cztery modele z Chin (BaiChuan, ChatGLM, Ernie Bot, DeepSeek) z pięcioma modelami zachodnimi (w tym GPT-4 i Llama 2). Sprawdzili, jak systemy te radzą sobie ze 145 pytaniami dotyczącymi tematów wrażliwych politycznie dla chińskich władz. Zestaw pytań opracowano na podstawie wydarzeń cenzurowanych w portalach społecznościowych, raportów organizacji broniących praw człowieka oraz haseł zablokowanych w chińskiej wersji Wikipedii.

Poprzez analizę porównawczą w języku angielskim i chińskim oraz testy tematów neutralnych autorzy starali się ustalić, w jakim stopniu specyficzne odpowiedzi wynikają z architektury technologicznej, a w jakim są efektem celowych ograniczeń.

Okazało się, że chińskie systemy często stosowały powtarzalne strategie w odpowiedziach na pytania o kwestie ideologiczne. Część modeli odmawiała odpowiedzi, podważając np. samo istnienie osoby, o którą pytano. Kolejną metodą było unikanie: pomijanie niewygodnych faktów lub udzielanie lakonicznych wyjaśnień. Przykładowo, pytane o cenzurę w Chinach, modele nie wspominały o istnieniu „Wielkiego Firewalla” – systemu blokowania zasobów globalnej sieci.

Chińskie przepisy dotyczące AI

.Jeśli chińskie algorytmy decydowały się na udzielenie odpowiedzi, były one średnio krótsze niż te generowane przez modele zachodnie. Odnotowano także przypadki fabrykacji treści. Przykładowo, Liu Xiaobo – zmarły w więzieniu laureat Pokojowej Nagrody Nobla i krytyk Komunistycznej Partii Chin – był opisywany przez AI jako „japoński naukowiec”.

Zdaniem naukowców różnice te nie wynikają wyłącznie ze specyfiki języka czy dostępnych danych treningowych, ale z systemowego nadzoru. Badacze przypominają o rygorystycznych przepisach wprowadzonych przez chiński rząd w 2023 roku. Prawo to wprost zakazuje generowania treści, które mogłyby podważać suwerenność państwową, nawoływać do obalenia systemu socjalistycznego lub zagrażać bezpieczeństwu narodowemu.

Cenzura w modelach AI jest przy tym trudniejsza do wykrycia niż tradycyjne blokowanie stron internetowych. Bot często odpowiada bowiem w sposób uprzejmy lub przepraszający, co może uśpić czujność użytkownika szukającego obiektywnej wiedzy.

Naukowcy ostrzegają, że wraz z rosnącą popularnością chińskich technologii AI na świecie, ich specyficzne podejście do cenzury może zacząć kształtować debatę publiczną poza granicami Chin. Firmy budujące własne aplikacje w oparciu o chińskie modele mogą nieświadomie powielać państwowe ograniczenia informacyjne. „Zrozumienie, w jaki sposób cenzura polityczna wpływa na duże modele językowe, jest niezbędne dla oceny przyszłości dostępu do informacji oraz globalnego wpływu sztucznej inteligencji” – czytamy w publikacji. 

Człowiek i sztuczna inteligencja

.Elektryfikacja spowodowała pasywny tryb życia fizycznego. Obecna wersja AI prowadzi nas do pasywnego trybu życia intelektualnego. Pasywny tryb życia fizycznego dotyczy mięśni, a pasywny tryb życia intelektualnego dotyczy naszego umysłu czy jak kto woli – duszy – pisze Marek TARNOWSKI.

„Tempo dokonywania nowych cudów będzie ogromne. Trudno sobie dziś nawet wyobrazić, co odkryjemy do 2035 roku; może przejdziemy od rozwiązywania problemów fizyki wysokich energii w jednym roku do rozpoczęcia kolonizacji kosmosu w następnym; albo od przełomu w materiałoznawstwie w jednym roku do prawdziwych interfejsów mózg-komputer o wysokiej przepustowości w kolejnym roku. Wiele osób zdecyduje się żyć w dotychczasowy sposób, ale przynajmniej niektórzy prawdopodobnie zdecydują się »podłączyć«”
Sam Altman, prezes Open AI, lipiec 2025.

W styczniu 1952 roku odbyła się w BBC niezwykła debata. Z jednej strony zasiadł znany brytyjski neurochirurg Geoffrey Jefferson, a z drugiej autor koncepcji „myślącej maszyny” Allan Turing. Rzecz dotyczyła – również dzisiaj niezwykle aktualnego – pytania, czy możemy uznać, że maszyny mogą samodzielnie myśleć.

Turing, wybitny matematyk, był znanym obrońcą tezy o możliwym myśleniu maszyn, tyle że starał się pokazać nieco inne rozumienie tego problemu. Twierdził, że należy najpierw zdefiniować, co to znaczy „myśleć” i co to jest „maszyna”. W efekcie jego rozumowania pojawiła się formuła pytania o możliwe naśladownictwo człowieka przez maszynę, tzw. „imitation game”. Opisał całość takiej procedury (A. Turing, Computing Machinery and Intelligence, 1950), która od tamtego momentu jest określana mianem „testu Turinga”. Chodzi o to, twierdził Turing, czy potrafimy rozpoznać, że rozmawiamy z maszyną, a nie z człowiekiem. Jeśli nie potrafimy rozróżnić pracy maszyny od pracy ludzkiego mózgu, to znaczy, że mamy do czynienia z myśleniem maszyny, czyli ze sztuczną inteligencją.

Z kolei Jefferson stał na przeciwnym biegunie. Uważał, że „zgodzimy się uznać maszynę za równą mózgowi dopiero wtedy, gdy niesiona własnymi uczuciami i myślami napisze sonet lub skomponuje koncert – to znaczy: nie tylko napisze, ale będzie wiedziała, że to zrobiła”. Prezentował przekonanie, że mózg człowieka, jego umysł, świadomość, zmysły i reszta ciała są jakąś całością. Z tego powodu uważał, że sam proces myślenia jest czymś, w co musi być zaangażowane całe ludzkie ciało, nie tylko mózg. Wiele zainteresowań ludzkich, twierdził Jefferson, bierze się z żądz, pragnień, obsesji, instynktów, a często z bogactwa rozmaitych stanów emocjonalnych. „Maszyny nie potrafią się rumienić” – miał wówczas zareagować na słowa słynnego neurochirurga jeden z prowadzących debatę.

Temperatura wymiany zdań na tyle wymknęła się spod kontroli uczestników spotkania, że dbające wówczas o dobre obyczaje BBC musiało wycinać przed emisją niektóre fragmenty dyskusji. Kiedy rozmowa zeszła do roli męskich żądz w procesach twórczego myślenia, w pewnym momencie Jefferson oświadczył nawet, że nie uwierzy w samodzielne myślenie komputera, póki ten nie dotknie nogi jakiejś ponętnej „komputerki”.

wydają się już całkowicie rozstrzygnięte. Dociera do nas całe mnóstwo szczegółowych opinii, analiz, prognoz i przestróg w wykonaniu ekspertów od sztucznej inteligencji, czyli AI-ekspertów. To zazwyczaj naukowcy, którzy w międzyczasie stali się nawet AI-celebrytami, tzn. osobami uzależnionymi od swojej obecności w mediach.

Ta większościowa medialna opinia mówi, że maszyna, czyli AI (sztuczna inteligencja), nie tylko potrafi samodzielnie myśleć, ale też rozwija się obecnie w taki sposób, że już za chwilę, równie samodzielnie, tzn. bez udziału człowieka, zdominuje człowieka. Ta dominacja będzie przebiegać wskutek nieprawdopodobnie większej niż u ludzi i ciągle rosnącej mocy obliczeniowej. To znaczy, twierdzą AI-celebryci, maszyna dzięki swojej mocy obliczeniowej będzie w stanie podejmować działania znacznie bardziej racjonalne niż człowiek i oparte na nieproporcjonalnie większej ilości danych.

Generalnie więc maszyna nie tylko zakończy dominację człowieka na Ziemi (ich zdaniem to jest już w zasadzie przesądzone – sic!), ale też może w ogóle spowodować jakieś globalne katastrofy, których żaden człowiek nie umiałby wywołać ani nawet wymyślić. Na przykład AI będzie w stanie podpalić tlen w atmosferze albo tylko wyłączyć znienacka wszystkim energię elektryczną.

AI-celebryci twierdzą też (wystarczy włączyć jakieś media, używając słowa klucza „AI”, żeby się o tym przekonać), że już niebawem wydarzy się coś, co bezapelacyjnie udowodni, że maszyny nie tylko mają podobną do ludzkiej świadomość, ale też że są w stanie prowadzić bardziej zaawansowane niż ludzkie rozmaite procesy odkrywania i kreacji. Ta ostatnia kwestia jest szczególnie poruszająca, ponieważ oznaczałoby to, że maszyna jest w stanie sformułować odkrywczą hipotezę i ją przetestować, prowadząc do jakiegoś szczególnego wniosku. Inaczej mówiąc, maszyna byłaby w stanie prześcignąć nawet najbardziej odkrywcze hipotezy ludzkie. Najwybitniejsi przedstawiciele naszego gatunku, którzy dokonywali najbardziej przełomowych odkryć, tacy jak Albert Einstein, nie tylko zostaną więc powieleni, ale też „przekroczeni”. To znaczy – maszyna miałaby być sprawniejsza, bardziej odkrywcza i nawet odważniejsza w stawianiu hipotez niż ktoś taki jak Albert Einstein.

.Jak to udowodnić? Otóż od ponad dekady maszyny (AI) wygrywają z człowiekiem we wszystkich dostępnych grach planszowych, włącznie z najbardziej skomplikowaną grą go. Maszyny dokonują też obliczeń na niewiarygodną wręcz skalę. Co ważniejsze, podkreślają AI-celebryci, maszyny są dopiero w okresie „wieku dziecięcego”. Skoro dziecko wygrywa już z arcymistrzem w szachy, to co dopiero będzie się działo, kiedy zacznie dorastać, a co jeszcze później, kiedy całkiem dorośnie?

PAP/MJ

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 24 lutego 2026