Cenzura w sztucznej inteligencji, będzie jej coraz więcej?

Istnieje kilka mechanizmów, które pozwalają twórcom modeli AI cenzurować odpowiedzi udzielane użytkownikom. Cenzura w sztucznej inteligencji wpływa na jakość pracy systemu – wskazał Krzysztof Wróbel, współtwórca modelu Bielik.

Użytkownicy systemów sztucznej inteligencji powinni być świadomi, jak cenzura może być włączona w działanie modeli AI

.Z badania opublikowanego niedawno w czasopiśmie „PNAS Nexus” wynika, że chińskie chatboty AI w porównaniu z zachodnimi modelami językowymi inaczej odpowiadały na drażliwe pytania polityczne dotyczące Chin. Częściej odmawiały odpowiedzi, omijały niewygodne fakty czy podawały nieprawdziwe informacje, co może świadczyć o systemowej cenzurze.

– W przypadku modeli zamkniętych (jak te od Google czy OpenAI) nie możemy być pewni co do intencji ich twórców. Nie wiemy, jakich danych użyli ani jakimi wartościami się kierowali przy tworzeniu modeli. Pamiętajmy więc, że wyniki, które uzyskujemy z takich źródeł, mogą być stronnicze – wyjaśnił w rozmowie z PAP Krzysztof Wróbel, współtwórca polskiego systemu AI Bielik.

– W przypadku Bielika przyjęliśmy założenie, że nie będziemy go cenzurować. Nie uczymy go odmawiania odpowiedzi na konkretne tematy – powiedział badacz. I podał przykład pytania o środki psychoaktywne. Większość zamkniętych modeli zwróci ocenzurowaną odpowiedź na ten temat. Jednak są branże, jak na przykład farmaceutyczna, w których taka tematyka nie powinna być tabu. Dlatego Bielik (w wersji pobieranej na komputer użytkownika) ma udzielać informacji nawet na wrażliwe tematy.

Czasami jednak kompletny brak hamulców modelu nie jest pożądany. Krzysztof Wróbel opowiedział o współtworzonym przez siebie systemie Bielik Guard (Sójka). To nakładka służąca do moderowania treści. Dzięki niej można sprawić, że np. do odbiorcy nie będą docierały z czatu przekazy niebezpieczne, np. hejt, wulgaryzmy, treści o charakterze seksualnym, instruktaże przestępstw czy treści dotyczące samookaleczeń i myśli samobójczych. Sójka pozwala instytucjom samodzielnie zmieniać ustawienia „suwaków bezpieczeństwa” i zabezpieczyć stosowane czatboty (nie tylko Bielika) przed niewłaściwym wykorzystaniem przez pracowników.

Krzysztof Wróbel wyjaśnił w rozmowie, że użytkownicy systemów sztucznej inteligencji powinni być świadomi, jak cenzura może być włączona w działanie modeli AI lub jak może pojawić się na kilku etapach tworzenia takich systemów.

Pierwszą możliwością ograniczania wolności słowa, jaka pojawia się w systemach AI, jest selekcja danych treningowych. – Jeśli model nigdy nie zobaczy tekstów na dany temat, po prostu nie nauczy się o nim opowiadać – zaznaczył programista. I tak np. jeśli w danym państwie obowiązuje zakaz publikowania treści na temat jakiegoś wydarzenia historycznego, model językowy się o nim nie dowie, więc i potem nie udzieli na ten temat poprawnej odpowiedzi.

Twórcy modelu mogą również celowo odrzucać niektóre teksty treningowe lub nawet modyfikować je, zanim dodadzą je do bazy.

Rozmówca zwraca uwagę, że na świecie jest bardzo niewiele modeli całkowicie otwartych, które dokumentują i udostępniają użytkownikom szczegółowo wszystkie bazy danych i kroki prowadzące do opracowania modelu. To na tyle skomplikowane działanie, że twórcy Bielika – choć jest on modelem otwartym – nie zdecydowali się na ten krok. Krzysztof Wróbel wspomina, że w przypadku Bielika z zebranej bazy danych trzeba było np. odfiltrować materiały o najniższej jakości. A teoretycznie i na tym etapie może – nawet w sposób niezamierzony – może wkraść się w algorytm subiektywne spojrzenie na jakiś temat.

– Możemy się np. domyślać, że modele od Google’a dostały bardzo dużo danych na temat samej korporacji. A być może są to głównie pozytywne informacje o firmie – powiedział ekspert. Jego zdaniem użytkownik powinien brać pod uwagę, że odpowiedzi dotyczące producenta modelu mogą więc nie być całkowicie obiektywne.

Cenzura może zostać wprowadzona także na etapie doszkalania modelu przez ludzi (tzw. anotatorów), którzy wskazują maszynie pożądane formy wypowiedzi. To pracownicy danej firmy mogą więc wymuszać na czatbotach odpowiedzi zgodne z polityką danej organizacji czy państwa.

Cenzura w sztucznej inteligencji. Konieczne ograniczenia?

.Krzysztof Wróbel wyjaśnił, że ograniczenia można też nałożyć na działający już system za pomocą tzw. system promptu. To ukryte dla użytkowników instrukcje systemowe określające, jak czat powinien odpowiadać na pytania z danej tematyki. Badacz ocenił, że twórcy systemów AI z dnia na dzień mogą – np. na żądanie władz państwowych (lub innych interesariuszy) – dodać czatowi nowe instrukcje.

– Już teraz prawo w poszczególnych krajach wpływa na to, jakie odpowiedzi dostają jego obywatele w czatbocie. W Polsce też mamy jakieś ograniczenia. Na przykład systemy automatyczne raczej nie powinny udzielać porad medycznych, prawnych czy finansowych – ocenił. Dodał, że brak stosownych klauzul przy odpowiedziach naraziłby twórców na pozwy sądowe.

Ekspert wskazał również, że cenzura w AI może przybierać nieznane dotąd formy. Wspomniał o badaniach, w ramach których sprawdzano, jak chińskie modele generowały kod źródłowy. Okazało się, że jeśli był to kod do projektów o tematyce „niewygodnej” dla Chin, generowane programy miały o 50 proc. więcej luk bezpieczeństwa niż w przypadku kodów dla tematów neutralnych. W ten sposób projekty wymierzone przeciw władzom stawałyby się bardziej podatne na cyberataki. – Albo było to działanie celowe, albo efekt uboczny włączenia cenzury do działania tych modeli – skomentował badacz.

– Jeśli korzystamy z modeli językowych, musimy pamiętać: one nigdy nie będą w stu procentach poprawne ani obiektywne. Musimy zawsze weryfikować uzyskane informacje. Najważniejsze, żeby im ślepo nie ufać – podsumował Krzysztof Wróbel.

Żyjemy w czasie przełomowym, pełnym innowacji i zmian

.Jesteśmy obecnie w roku prawdziwie przełomowym dla naszej przyszłości. Przełomowym, bo wymagającym uświadomienia sobie wreszcie przez decydentów, że niezbędne wydatki na takie obszary, jak zdrowie, bezpieczeństwo czy energetyka, nie mogą zastępować wydatków na przemyślane wspieranie innowacyjności. Właśnie od tego zależy, czy staniemy się konkurencyjni i czy będziemy w stanie rywalizować gospodarczo z resztą świata – pisze prof. Michał KLEIBER

Mimo olbrzymich w wielu krajach potrzeb budżetowych, dotyczących z jednej strony wydatków na bezpieczeństwo, a z drugiej na ochronę zdrowia, edukację, ochronę środowiska czy politykę społeczną, powszechne już dzisiaj kryzysy polityczne nie wpływają negatywnie na rozwój technologii, a nawet raczej go przyspieszają. I dotyczy to nie tylko oczywistego w dzisiejszym świecie powodu tej sytuacji, czyli potrzeby tworzenia nowych technologii militarnych, ale także wielu innych obszarów, w których wobec społecznych oczekiwań, szeroko rozbudzonych dotychczasowymi osiągnięciami, przedsiębiorcy liczą na pokaźne zyski. Spójrzmy, co może się wydarzyć w tym zakresie w nadchodzącym roku.

Pisząc o rozwoju technologii, nie sposób nie zacząć od sztucznej inteligencji. Także dlatego, że w bieżącym roku zapowiada się nie tylko jej dalszy dynamiczny rozwój, ale i szerokie i niełatwe sprawdzanie skuteczności jej zastosowań. Dyskusje toczące się wokół AI zapowiadają, że rok 2026 przyniesie więcej niż dotychczas jej rzetelnej oceny, pomiarów i pytań o realną użyteczność. Przez lata zwlekano z takimi działaniami, ponieważ do takiej oceny niezbędna jest przejrzystość stosowanych metod, często zaniedbywana przez wdrażających je innowatorów.

Wśród trendów wymienia się w szczególności nowe formy interfejsów AI, wykraczające poza klasyczne chatboty. Jednocześnie prognozuje się nacisk na tworzenie mniejszych, ale nie mniej przydatnych zbiorów danych, na których będą działać nowe modele. Szybki będzie rozwój bazujących na AI narzędzi wideo, co prawdopodobnie zwiększy liczbę sporów o prawa autorskie. Kluczowa staje się kwestia konstrukcji stosowanych systemów, takich jak np. wewnętrzna zawartość używanych sieci neuronowych. Niezwykle ciekawe jest podanie do publicznej wiadomości przez IBM, że rok 2026 będzie rokiem, w którym komputer kwantowy stanie się mocniejszy niż komputer klasyczny, lepiej rozwiązując wszelkie problemy i otwierając drogę do przełomów w rozwoju farmaceutyki, operacjach finansowych, materiałoznawstwie i wielu innych branżach stojących wobec złożonych wyzwań.

Przechodząc do konkretnych, dziedzinowych zastosowań AI, zacząć chyba powinniśmy od systemów mających służyć celom militarnym, dotyczącym zarówno obronności, jak i niestety także agresji. Wykorzystywanie sztucznej inteligencji będzie tu coraz szersze, a według szacunków globalne wydatki na ten rozwój przekroczą w przyszłym roku 40 mld dolarów. Konieczne staje się wyposażanie wojsk w urządzenia analizujące potencjalne zagrożenia na podstawie wielkich zbiorów danych, także danych wizualnych dostarczanych przez drony. Urządzenia te coraz lepiej potrafią wykrywać, klasyfikować i oceniać możliwe niebezpieczeństwa. W połączeniu z urządzeniami noszonymi na ciele przez żołnierzy poszerzać to będzie ich świadomość co do aktualnej sytuacji w obszarze zagrożeń.

W celu minimalizacji zagrożeń dla walczących żołnierzy szybko będzie się rozwijać idea militarnej robotyki. Coraz szerzej tworzone będą w pełni zautomatyzowane systemy militarne umożliwiające samodzielną identyfikację, śledzenie, analizę i atakowanie celów strategicznych. Dotyczyć to będzie w szczególności produkcji dronów i pojazdów wojskowych. Według przewidywań służb wywiadowczych państw NATO jest także bardzo prawdopodobne, że Rosja opracowuje nową broń, zdolną do zniszczenia sieci satelitów. Jak podkreślono, ograniczyłoby to przewagę Zachodu w kosmosie, dzięki której na przykład Ukraina zachowała zdolności komunikacyjne mimo ataków Moskwy. Niezwykłe zagrożenie dla bezpieczeństwa stanowić będą pociski hipersoniczne, użyte po raz pierwszy w Rosji, ale obecnie produkowane także w innych państwach. Nie można w powyższym kontekście nie zauważyć, że rozwój militarnych zastosowań AI będzie wywoływać na świecie wiele poważnych dylematów etycznych.

Prawdopodobnie najsilniejszym w najbliższym okresie rozwojowym trendem w dziedzinie sztucznej inteligencji będzie GenAI, czyli generatywna sztuczna inteligencja. Generatory tekstów i obrazów na czele z ChatGPT stały się już powszechnie darmowo dostępne, co umożliwia ich wykorzystywanie przez użytkowników nawet nieposiadających przygotowania informatycznego. GenAI będzie coraz częściej integrowana z wieloma aplikacjami, dzięki czemu możliwe będzie szybkie tworzenie treści i ich tłumaczenie na różne języki, z czego korzystać na co dzień będą zarówno organizacje, jak i osoby prywatne. Można się spodziewać w tym roku wzrostu liczby takich integracji, zmieniających sposób, w jaki komunikujemy się ze sobą, niezależnie od tego, czy chodzi o relacje między przyjaciółmi i rodziną, klientami i firmami, czy pracodawcami i pracownikami.

Szybko będą się rozwijać wdrożenia robotów humanoidalnych. Norweska firma 1x zamierza na przykład do końca 2026 r. wyprodukować 10 000 robotów humanoidalnych o nazwie Neo, wykonujących rozmaite prace domowe. Mimo wysokiej ceny (20 tys. dolarów) roboty te cieszą się bardzo dużym zainteresowaniem. Ale celem firmy nie jest sprzedaż jedynie „gospodyń domowych” – roboty te mają bowiem automatyzować w przyszłości całą ludzką pracę fizyczną. Ich rozwój będzie wymagał szkolenia zarówno „mózgu” robota, jak i „ciała”. Roboty te w nadchodzącym roku, właśnie w celu wszechstronnej nauki i treningu w zakresie zbierania danych dotyczących realnego świata, będą wprowadzane do domów mieszkalnych, będących otoczeniem znacznie łatwiej poznawalnym niż wiele innych obszarów przewidywanych działań urządzeń humanoidalnych.

Na rynku robotów humanoidalnych liderem stają się Chiny, inwestujące rocznie w ich rozwój ponad 5 mld dolarów i nieukrywające, że ma to służyć przyspieszeniu procesu „przekształcania robotów w ludzi”. Symbolem tej aktywności stał się ostatnio humanoid Tiangong, biorący już nawet udział w pekińskim półmaratonie. Oczywiście ważne i ciekawe, choć z pewnością budzące przeróżne kontrowersje wydarzenia czekają nas w medycznych zastosowaniach AI, a w szczególności rozwój praktycznych aspektów ich oceny. Ponieważ szybko zwiększać się będą zbiory danych dotyczących całego systemu ochrony zdrowia, poprawiać się będzie trafność otrzymywanych wyników analiz i zwiększy się możliwość diagnozowania chorób rzadkich.

Tekst dostępny na łamach Wszystko co Najważniejsze: https://wszystkoconajwazniejsze.pl/prof-michal-kleiber-zyjemy-w-czasie-przelomowym-pelnym-innowacji/

PAP/MB

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 13 marca 2026