Sztuczna inteligencja zubaża ludzkie myślenie, zabija indywidualizm

Chatboty SI ujednolicają sposób, w jaki ludzie mówią, piszą i myślą. Skutkiem może być ograniczenie zbiorowej mądrości ludzkości oraz jej zdolności do adaptacji – ostrzegają naukowcy.

Skutki ponoszą wszyscy, nie tylko użytkownicy wspomnianych systemów

.Zdaniem autorów nowej pracy opublikowanej w piśmie „Trends in Cognitive Sciences” różnorodność poznawcza w grupach i społeczeństwach na świecie zaczyna maleć, ponieważ miliardy ludzi korzystają z tej samej niewielkiej liczby chatbotów SI do coraz większej liczby zadań.

Na przykład, gdy ludzie korzystają z chatbotów, aby dopracować swoje teksty, tracą one swoją stylistyczną indywidualność, a autorzy odczuwają mniejsze poczucie twórczości.

– Ludzie różnią się sposobem pisania, rozumowania i postrzegania świata. Gdy jednak te różnice są niwelowane przez te same duże modele językowe (LLM), odmienny styl językowy, perspektywa i strategie rozumowania ulegają ujednoliceniu, co prowadzi do powstawania znormalizowanych sposobów wyrażania się i myślenia u użytkowników – mówi Zhivar Sourati z University of Southern California.

Badacze podkreślają, że różnorodność poznawcza w grupach i społeczeństwach wzmacnia kreatywność oraz zdolność rozwiązywania problemów.

– Obawa nie dotyczy tylko tego, że LLM-y wpływają na to, jak ludzie piszą czy mówią, ale także tego, że subtelnie redefiniują to, co uznaje się za wiarygodną wypowiedź, właściwą perspektywę, a nawet dobre rozumowanie – ostrzega specjalista.

Naukowcy przywołują liczne badania wskazujące, że wyniki pracy LLM-ów są dużo mniej zróżnicowane niż twórczość człowieka, a jednocześnie odzwierciedlają język, wartości i style rozumowania społeczeństw zachodnich, wykształconych, uprzemysłowionych, zamożnych i demokratycznych. Na przykład opinie ludzi stają się zbliżone do wyrażanych przez SI, a ich myślenie bardziej liniowe, mniej intuicyjne i mniej abstrakcyjne.

Systemy SI wpływają też często na oczekiwania ludzi, co może zmieniać kierunek ich pracy.

– Ponieważ duże modele językowe (LLM) są trenowane tak, aby wychwytywać i odtwarzać statystyczne regularności w danych treningowych, które często nadmiernie reprezentują dominujące języki i ideologie, ich odpowiedzi często odzwierciedlają wąski i zniekształcony wycinek ludzkiego doświadczenia – mówi Sourati.

Naukowcy dodają, że skutki ponoszą wszyscy, nie tylko użytkownicy wspomnianych systemów.

– Jeśli wiele osób wokół mnie myśli i mówi w określony sposób, a ja robię to inaczej, będę odczuwać presję, by się do nich dostosować, ponieważ będzie to wyglądało na bardziej wiarygodny lub społecznie akceptowany sposób wyrażania moich idei – wyjaśnia badacz.

Chatboty SI mogą lepiej wspierać ludzką kreatywność

.Według naukowców twórcy systemów SI powinni świadomie wprowadzać do swoich modeli różnorodność języka, perspektyw i sposobów rozumowania.

Zaznaczają przy tym, że powinna ona opierać się na rzeczywistej różnorodności istniejącej wśród ludzi na całym świecie, a nie na losowo wprowadzanych wariacjach.

– Gdyby Chatboty SI miały bardziej zróżnicowane podejście do idei i problemów, lepiej wspierałyby zbiorową inteligencję oraz zdolności naszych społeczeństw do rozwiązywania problemów – twierdzi Sourati.

– Musimy zwiększać różnorodność samych modeli SI, a także zmieniać sposób, w jaki z nimi współpracujemy, zwłaszcza biorąc pod uwagę ich powszechne zastosowanie w wielu zadaniach i kontekstach, aby chronić różnorodność poznawczą i potencjał twórczy przyszłych pokoleń – podsumowuje.

Etyka w sztucznej inteligencji i działania UNESCO

.Etyka AI to obszar badań zajmujących się moralnymi, społecznymi i filozoficznymi konsekwencjami związanymi z rozwojem i wykorzystaniem systemów sztucznej inteligencji. Jest interdyscyplinarnym obszarem łączącym badania z zakresu filozofii, informatyki, prawa, socjologii i nauk politycznych, kluczowych dla zapewnienia, że rozwój technologii AI nie spowoduje niezamierzonych szkodliwych skutków – pisze prof. Michał KLEIBER

Niedawno otworzona w Instytucie Podstawowych Problemów Techniki PAN prestiżowa Katedra UNESCO dotycząca zarządzania etyką w sztucznej inteligencji kolejny raz wskazuje na niezwykle ważny problem ściśle związany z wykorzystywaniem AI.

Zacznijmy jednak od wyjaśnienia, co oznacza termin Katedra UNESCO. Odnosi się on do naukowych zespołów wyróżnionych w skomplikowanej procedurze selekcji przez jedną z głównych organizacji ONZ-u w ramach programu o nazwie UNITWIN/UNESCO Chairs. UNITWIN jest skrótem angielskiego wyrażenia University Twinning and Networking, oznaczającego partnerstwo uniwersyteckie i tworzenie sieci kontaktów, a Chairs to szefowie powoływanych katedr. Celem tego programu jest wspieranie badań, współpracy instytucji badawczych z różnych krajów oraz kształcenie w obszarach działalności UNESCO, czyli w edukacji, nauce, kulturze i w zrównoważonym rozwoju, a także wspieranie tych obszarów w społeczeństwach całego świata, ze szczególnym uwzględnieniem krajów słabszych gospodarczo.

Od Katedr UNESCO i Sieci UNITWIN, złożonej ze współpracujących ze sobą jednostek badawczych z różnych państw, oczekuje się prowadzenia innowacyjnych badań i tworzenia wiedzy potrzebnej do mierzenia się z aktualnymi, stojącymi przed nami wyzwaniami, w tym do realizacji Milenijnych Celów Rozwoju ONZ. Instytucje w tym programie współpracują z organizacjami pozarządowymi, fundacjami oraz organizacjami sektora publicznego i prywatnego, odgrywając w ten sposób ważną rolę w obszarze szkolnictwa wyższego i nauki poszczególnych państw.

Istotną rolę w działaniu tych instytucji mają Narodowe Komitety ds. UNESCO, promujące i ułatwiające realizowanie programów oraz wspomagające ocenę uzyskiwanych efektów. Program został zainicjowany przez UNESCO w 1992 r. i obejmuje badania w zakresie edukacji, nauk ścisłych, przyrodniczych, społecznych i humanistycznych oraz szeroko rozumianych obszarów kultury i komunikacji społecznej. W 120 krajach działa obecnie prawie tysiąc Katedr UNESCO i 45 Sieci UNITWIN, a liczba badaczy ściśle zaangażowanych w tę działalność wynosi kilkanaście tysięcy.

Ponieważ program ma charakter wielodyscyplinarny, jest jednym z najbardziej szerokich programów Organizacji. Jak dotąd projekty Katedry UNESCO i Sieci UNITWIN okazały się przydatne w ustanawianiu nowych programów nauczania, generowaniu innowacyjnych pomysłów oraz ułatwianiu wzbogacania istniejących programów edukacyjnych przy jednoczesnym poszanowaniu różnorodności kulturowej.

Tekst dostępny na łamach Wszystko co Najważniejsze: https://wszystkoconajwazniejsze.pl/prof-michal-kleiber-etyka-w-sztucznej-inteligencji-dzialania-unesco/

PAP/MB

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 13 marca 2026