Sztuczna inteligencja kłamie i zmyśla w co drugim tekście informacyjnym

Narzędzia sztucznej inteligencji, wykorzystywane do redagowania informacji, robią błędy w 45 proc. tekstów – wynika z najnowszego badania European Broadcasting Union (Europejskiej Unii Nadawców), w którym teksty pisane przez sztuczną inteligencję oceniali dziennikarze. Jak często sztuczna inteligencja kłamie?
Błędy AI nie są jednostkowymi przypadkami, ale „systemowymi i wielojęzycznymi błędami, sądzimy, że podważa to zaufanie odbiorców”
.Według badań 45 proc. informacji pisanych przez narzędzia AI miało przynajmniej jeden istotny błąd, taki jak brakująca lub niepoprawna informacja źródłowa (31 proc. odpowiedzi) lub halucynacje AI i przestarzała informacja (20 proc. odpowiedzi). Oceniano też odróżnianie faktów od opinii oraz przedstawiany kontekst informacji.
Tzw. asystenci AI, z których już obecnie korzystają miliony osób do wyszukiwania informacji, „rutynowo niepoprawnie przedstawiają zawartość informacyjną, niezależnie od tego jaki język, obszar i jaka platforma AI są testowane” – podkreślono w raporcie European Broadcasting Union (EBU), europejskiej organizacji skupiającej publicznych i niekomercyjnych nadawców. W pracy nad opublikowanym w tym tygodniu raportem wzięło udział 18 nadawców z Europy (bez Polski) oraz kanadyjski publiczny nadawca CBC/Radio-Canada i amerykański NPR.
Ponad 3 tys. odpowiedzi „asystentów” ocenili dziennikarze europejskich i północnoamerykańskich stacji. Teksty były redagowane przez ChatGPT (OpenAI), Copilot (Mictosoft), Gemini (Google) i Perplexity (założone przez prywatnych amerykańskich inwestorów). Najgorzej wypadło Gemini, które robiło błędy w 76 proc. tekstów., ponad dwa razy więcej od konkurentów. Wyniki porównano z przeprowadzonym w lutym br. badaniem BBC, w którym rezultaty były nieco gorsze.
Cytowany w raporcie EBU wicedyrektor generalny Jean Philip De Tender podkreślał, że błędy AI nie są jednostkowymi przypadkami, ale „systemowymi, ponadgranicznymi i wielojęzycznymi błędami, sądzimy, że podważa to zaufanie odbiorców”. „Kiedy ludzie nie wiedzą komu ufać, kończy się to brakiem zaufania do wszystkich i to może odsuwać od uczestnictwa w demokracji” – powiedział De Tender.
Dlaczego sztuczna inteligencja kłamie?
.W raporcie podkreślono, że już obecnie 7 proc. wszystkich użytkowników internetu korzysta z asystentów AI do przeglądu codziennych wiadomości, zaś wśród osób poniżej 25. roku życia jest to nawet 15 proc. – wynika z tegorocznego raportu Reuters Institute.
Autorzy raportu podkreślili, że dalszy cykliczny niezależny monitoring usług asystentów AI jest niezbędny. Przygotowali też narzędzie wspierające tworzenie rozwiązań, które zwiększają wiarygodność działania asystentów AI i zapewnili, że są gotowi pracować z firmami oferującymi dostęp do takich botów. Narzędzie bazuje na dwóch podstawowych pytaniach: o cechy dobrej odpowiedzi i o identyfikację problemów wymagających naprawy.
Jednocześnie EBU zwróciło się do Parlamentu Europejskiego i parlamentów krajowych, by skutecznie stosować istniejące prawo dotyczące jakości informacji, usług cyfrowych i pluralizmu mediów.
Człowiek i sztuczna inteligencja
.Elektryfikacja spowodowała pasywny tryb życia fizycznego. Obecna wersja AI prowadzi nas do pasywnego trybu życia intelektualnego. Pasywny tryb życia fizycznego dotyczy mięśni, a pasywny tryb życia intelektualnego dotyczy naszego umysłu czy jak kto woli – duszy – pisze Marek TARNOWSKI.
„Tempo dokonywania nowych cudów będzie ogromne. Trudno sobie dziś nawet wyobrazić, co odkryjemy do 2035 roku; może przejdziemy od rozwiązywania problemów fizyki wysokich energii w jednym roku do rozpoczęcia kolonizacji kosmosu w następnym; albo od przełomu w materiałoznawstwie w jednym roku do prawdziwych interfejsów mózg-komputer o wysokiej przepustowości w kolejnym roku. Wiele osób zdecyduje się żyć w dotychczasowy sposób, ale przynajmniej niektórzy prawdopodobnie zdecydują się »podłączyć«”
Sam Altman, prezes Open AI, lipiec 2025.
Wstyczniu 1952 roku odbyła się w BBC niezwykła debata. Z jednej strony zasiadł znany brytyjski neurochirurg Geoffrey Jefferson, a z drugiej autor koncepcji „myślącej maszyny” Allan Turing. Rzecz dotyczyła – również dzisiaj niezwykle aktualnego – pytania, czy możemy uznać, że maszyny mogą samodzielnie myśleć.
Turing, wybitny matematyk, był znanym obrońcą tezy o możliwym myśleniu maszyn, tyle że starał się pokazać nieco inne rozumienie tego problemu. Twierdził, że należy najpierw zdefiniować, co to znaczy „myśleć” i co to jest „maszyna”. W efekcie jego rozumowania pojawiła się formuła pytania o możliwe naśladownictwo człowieka przez maszynę, tzw. „imitation game”. Opisał całość takiej procedury (A. Turing, Computing Machinery and Intelligence, 1950), która od tamtego momentu jest określana mianem „testu Turinga”. Chodzi o to, twierdził Turing, czy potrafimy rozpoznać, że rozmawiamy z maszyną, a nie z człowiekiem. Jeśli nie potrafimy rozróżnić pracy maszyny od pracy ludzkiego mózgu, to znaczy, że mamy do czynienia z myśleniem maszyny, czyli ze sztuczną inteligencją.
Z kolei Jefferson stał na przeciwnym biegunie. Uważał, że „zgodzimy się uznać maszynę za równą mózgowi dopiero wtedy, gdy niesiona własnymi uczuciami i myślami napisze sonet lub skomponuje koncert – to znaczy: nie tylko napisze, ale będzie wiedziała, że to zrobiła”. Prezentował przekonanie, że mózg człowieka, jego umysł, świadomość, zmysły i reszta ciała są jakąś całością. Z tego powodu uważał, że sam proces myślenia jest czymś, w co musi być zaangażowane całe ludzkie ciało, nie tylko mózg. Wiele zainteresowań ludzkich, twierdził Jefferson, bierze się z żądz, pragnień, obsesji, instynktów, a często z bogactwa rozmaitych stanów emocjonalnych. „Maszyny nie potrafią się rumienić” – miał wówczas zareagować na słowa słynnego neurochirurga jeden z prowadzących debatę.
Temperatura wymiany zdań na tyle wymknęła się spod kontroli uczestników spotkania, że dbające wówczas o dobre obyczaje BBC musiało wycinać przed emisją niektóre fragmenty dyskusji. Kiedy rozmowa zeszła do roli męskich żądz w procesach twórczego myślenia, w pewnym momencie Jefferson oświadczył nawet, że nie uwierzy w samodzielne myślenie komputera, póki ten nie dotknie nogi jakiejś ponętnej „komputerki”.
wydają się już całkowicie rozstrzygnięte. Dociera do nas całe mnóstwo szczegółowych opinii, analiz, prognoz i przestróg w wykonaniu ekspertów od sztucznej inteligencji, czyli AI-ekspertów. To zazwyczaj naukowcy, którzy w międzyczasie stali się nawet AI-celebrytami, tzn. osobami uzależnionymi od swojej obecności w mediach.
Ta większościowa medialna opinia mówi, że maszyna, czyli AI (sztuczna inteligencja), nie tylko potrafi samodzielnie myśleć, ale też rozwija się obecnie w taki sposób, że już za chwilę, równie samodzielnie, tzn. bez udziału człowieka, zdominuje człowieka. Ta dominacja będzie przebiegać wskutek nieprawdopodobnie większej niż u ludzi i ciągle rosnącej mocy obliczeniowej. To znaczy, twierdzą AI-celebryci, maszyna dzięki swojej mocy obliczeniowej będzie w stanie podejmować działania znacznie bardziej racjonalne niż człowiek i oparte na nieproporcjonalnie większej ilości danych.
Generalnie więc maszyna nie tylko zakończy dominację człowieka na Ziemi (ich zdaniem to jest już w zasadzie przesądzone – sic!), ale też może w ogóle spowodować jakieś globalne katastrofy, których żaden człowiek nie umiałby wywołać ani nawet wymyślić. Na przykład AI będzie w stanie podpalić tlen w atmosferze albo tylko wyłączyć znienacka wszystkim energię elektryczną.
AI-celebryci twierdzą też (wystarczy włączyć jakieś media, używając słowa klucza „AI”, żeby się o tym przekonać), że już niebawem wydarzy się coś, co bezapelacyjnie udowodni, że maszyny nie tylko mają podobną do ludzkiej świadomość, ale też że są w stanie prowadzić bardziej zaawansowane niż ludzkie rozmaite procesy odkrywania i kreacji. Ta ostatnia kwestia jest szczególnie poruszająca, ponieważ oznaczałoby to, że maszyna jest w stanie sformułować odkrywczą hipotezę i ją przetestować, prowadząc do jakiegoś szczególnego wniosku. Inaczej mówiąc, maszyna byłaby w stanie prześcignąć nawet najbardziej odkrywcze hipotezy ludzkie. Najwybitniejsi przedstawiciele naszego gatunku, którzy dokonywali najbardziej przełomowych odkryć, tacy jak Albert Einstein, nie tylko zostaną więc powieleni, ale też „przekroczeni”. To znaczy – maszyna miałaby być sprawniejsza, bardziej odkrywcza i nawet odważniejsza w stawianiu hipotez niż ktoś taki jak Albert Einstein.
Jak to udowodnić? Otóż od ponad dekady maszyny (AI) wygrywają z człowiekiem we wszystkich dostępnych grach planszowych, włącznie z najbardziej skomplikowaną grą go. Maszyny dokonują też obliczeń na niewiarygodną wręcz skalę. Co ważniejsze, podkreślają AI-celebryci, maszyny są dopiero w okresie „wieku dziecięcego”. Skoro dziecko wygrywa już z arcymistrzem w szachy, to co dopiero będzie się działo, kiedy zacznie dorastać, a co jeszcze później, kiedy całkiem dorośnie?
Tekst dostępny na łamach Wszystko co Najważniejsze: https://wszystkoconajwazniejsze.pl/marek-tarnowski-czlowiek-i-sztuczna-inteligencja/
PAP/MB



