Sztuczna inteligencja kradnie prace dziennikarzy

Siri

AI tworzy własne treści o charakterze informacyjnym, w większości nie podając źródeł informacji – wynika z badania przeprowadzonego na Uniwersytecie McGill w Montrealu. Ponadto, jak ustalili kanadyjscy badacze, podczas treningu AI wykorzystywano pracę dziennikarzy, nie płacąc im za to.

Sztuczna inteligencja kradnie prace dziennikarzy

.Obecny system „przyspiesza ekonomiczny upadek dziennikarstwa, na którym sam polega” – napisano w raporcie opublikowanym przez Centrum Mediów, Technologii i Demokracji na Uniwersytecie McGill. W 82 proc. przypadków cztery badane modele, ChatGPT, Gemini, Claude i Grok, nie podawały źródła danych, gdy botom stawiano pytania o informacje dotyczące Kanady. Odpowiedzi, dostarczane przez boty w reakcji na zadane pytania, świadczyły jednak o tym, iż narzędzia te musiały mieć dostęp do kanadyjskich mediów – podkreślono w raporcie.

Autorzy dokumentu zwrócili też uwagę, że trening AI prowadzono na tekstach dziennikarskich bez zgody redakcji. W badaniu testowano modele udostępniane przez OpenAI (ChatGPT), Google (Gemini), Anthropic (Claude) i należące do Elona Muska xAI (Grok).

Pierwsze testy na taką skalę, dotyczące tego, jak cztery modele sztucznej inteligencji wykorzystują materiały kanadyjskich dziennikarzy, przeprowadzono w lutym i marcu 2026 r. na 2267 tekstach autorstwa Kanadyjczyków – zarówno w języku angielskim, jak i francuskim. Sprawdzano, co modele przejęły z oryginalnych tekstów i czy podają rzeczywiste źródła.

AI uwzględnia zawartość płatnych materiałów

.W drugim badaniu modelom dano możliwość korzystania z wyszukiwarek i zapytano je o 140 konkretnych artykułów z siedmiu kanadyjskich źródeł. Ten test przeprowadzono w 3360 różnych wariantach, sprawdzając, czy modele AI generują teksty nadające się do użytku, mogące zastąpić pracę dziennikarzy, i czy podają źródło informacji.

Kiedy zadawano pytania o artykuły dostępne w internecie, w większości przypadków modele formułowały odpowiedzi, wykorzystując źródło w taki sposób, że użytkownik nie musiałby korzystać z oryginału. Choć w ponad połowie przypadków wśród udostępnianych linków były media kanadyjskie, to modele podawały źródło informacji tylko w 28 proc. przypadków. Podawane linki umożliwiały wprawdzie znalezienie źródła, ale w odpowiedzi udzielanej przez model rzadko podawany był autor – podkreślono w raporcie.

„Modele AI z łatwością uwzględniają zawartość artykułów płatnych. W większości przypadków konkurencyjne rynki informacji sprawiają, że te same artykuły pojawiają się w wielu mediach, a modele przejmują wersje bezpłatne” – napisali autorzy raportu, zwracając uwagę, że konieczność płacenia za treści, paywall, nie blokuje AI dostępu w takim samym stopniu jak użytkownikom. „Media będące źródłem nie korzystają ani z ruchu w internecie, ani nie jest im przypisywane autorstwo” – podkreślono.

„Zasady rządzące tym, jak te firmy korzystają z dziennikarstwa (kto jest wskazywany jako źródło, kto otrzymuje wynagrodzenie i jakie są obowiązki podmiotu czerpiącego z tego zyski) są określane teraz, domyślnie, przez brak działania” – podkreślili badacze, przyznając, że istniejące przepisy dotyczące praw autorskich są niewystarczające, ale Kanada ma możliwości prawne, by to zmienić.

Pozew zbiorowy przeciwko OpenAI

.W dniu 17 marca, minister kultury Marc Miller zapowiedział podczas szczytu dotyczącego kultury i AI, że rząd zajmie się wykorzystaniem informacji dziennikarskiej przez modele AI. „Pożeranie i bezmyślne przetwarzanie informacji podważa, przede wszystkim, ducha użycia tej informacji i cel, dla którego jest używana” – ocenił Marc Miller, podkreślając, że potrzebna jest poważna rozmowa z platformami na ten temat. Wypowiedzi ministra przytoczyła agencja The Canadian Press.

Marc Miller zapewnił, że czytał raport Uniwersytetu McGill. Zaznaczył, że zmiana praw własności intelektualnej byłaby procesem wieloletnim, lecz także obecne prawo może być stosowane w sposób służący ochronie dziennikarzy i redakcji.

Sąd w prowincji Ontario zgodził się w 2025 roku rozpatrzyć pozew zbiorowy, wniesiony przeciwko OpenAI przez agencję The Canadian Press, publicznego nadawcę CBC/Radio Canada, grupy prasowe Torstar i Postmedia oraz dziennik „The Globe and Mail”. Zarzut dotyczy wykorzystania przez OpenAI materiałów dziennikarskich do treningu ChatGPT, naruszania praw autorskich i uzyskiwania z tego korzyści finansowych.

Pięć filarów rozwoju sztucznej inteligencji w Polsce

.Polska przespała ostatnie siedem lat i chyba nadal się nie obudziła. Nie ma nas na mapach najważniejszych klastrów rozwijających naukę i technologię. Dane Eurostatu wykorzystania technologii AI w przedsiębiorstwach pokazują, że jesteśmy na końcu rankingu krajów EU, tylko przed Rumunią – pisze prof. Włodzisław DUCH.

Ministerstwo Cyfryzacji opracowało dokument „Polityka rozwoju sztucznej inteligencji w Polsce do 2030 roku” (64 strony). Pod koniec roku 2020 uchwalono podobny dokument „Polityki dla rozwoju sztucznej inteligencji w Polsce od roku 2020” (71 stron). Za obydwa dokumenty odpowiada „minister właściwy do spraw informatyzacji”, czyli Ministerstwo Cyfryzacji. Celem jest wskazanie działań, które wzmocnią pozycję Polski na arenie międzynarodowej jako jednego z liderów “Kontynentu AI”.

Oczywiście było już wiele innych dokumentów strategicznych dotyczących cyfryzacji, rozwoju gospodarki, opieki zdrowotnej, w tym opracowanie „Resortowa Strategia Sztucznej Inteligencji do roku 2039” (MON). To ambitne cele, ale nie mamy obecnie wyobrażenia o tym, jak daleko zajdzie sztuczna inteligencja w ciągu następnych 2-3 lat. Dlatego potrzebujemy strategii adaptacyjnej, dostosowującej się do zmieniającej się sytuacji, w której co miesiąc mamy nowe systemy AI o coraz większych możliwościach.

Kluczem staje się adaptacja, stworzenie takich warunków, w których „Efektywna współpraca nauki, sektora publicznego oraz biznesu umożliwi rozwój i implementację najnowszych technologii cyfrowych oraz odpowiednie ich wykorzystywanie”, jak słusznie czytamy w opracowaniu polityki rozwoju na następne 5 lat. Dokument ten powstał w oparciu o kilka opracowań, w tym raportu „Gdzie jest polska nisza AI i jak ją wykorzystać” (Polski Instytutu Ekonomiczny), „Rekomendacji merytorycznych do dokumentu Polityka Rozwoju Sztucznej Inteligencji w Polsce 2025-2030” (GRAI, Grupa Robocza ds. Sztucznej Inteligencji), studium SMART, „Transformacja Polski dzięki wykorzystaniu inteligentnych rozwiązań cyfrowych”, i kilku innych opracowań. 

.Wiedząc, jak złożonym zagadnieniem jest cyfryzacja, a w szczególności jak szybko rozwija się sztuczna inteligencja, warto się zastanowić nad propozycją konkretnych działań. W 2008 roku Unia Europejska powołała Europejski Instytut Innowacji i Technologii (EIT), z siedzibą w Budapeszcie, którego zadaniem jest integracja badań naukowych, biznesu i sektora publicznego. To model znany jako “trójkąt wiedzy”, KIC, Knowledge and Innovation Communities. Powstało osiem takich wspólnot wiedzy, zajmujących się wielkimi wyzwaniami: klimatem, energią, materiałami, zdrowiem, żywnością, transportem, produkcją przemysłową i cyfryzacją. Polska bierze w nich udział, ale próżno szukać wzmianki o takich działaniach w dokumentach na temat polityki rozwoju AI. Wspomniano tylko, że „Efektywna współpraca nauki, sektora publicznego oraz biznesu umożliwi rozwój i implementację najnowszych technologii cyfrowych oraz odpowiednie ich wykorzystywanie.”

PAP/Anna Lach/MJ

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 21 marca 2026