Szczyt popularności Wikipedia ma za sobą. Sztuczna inteligencja ją detronizuje

Wikipedia jest bardzo zagrożona przez AI, co jest o tyle paradoksalne, że nawet 15 proc. danych wejściowych do większości dużych modeli językowych pochodzi właśnie z tej encyklopedii internetowej – powiedział wykładowca Akademii Leona Koźmińskiego i wiceprezes PAN prof. Dariusz Jemielniak.

„Próbowaliśmy przez długi czas przekonać te wszystkie duże firmy, że powinny płacić jakieś licencyjne opłaty na rzecz Wikimedia Foundation”

.Dnia 15 stycznia 2026 r., angielska wersja Wikipedii, która powstała jako pierwsza, obchodziła 25. rocznicę swojego istnienia. Na świecie korzystają z niej co miesiąc miliony osób, a jej polska wersja funkcjonuje od września 2001 r.

– Po pierwsze ludzie preferują wygodne, szybkie odpowiedzi – nawet jeśli są czasem zmyślone i bez źródeł, jak w przypadku LLM-ów – od odpowiedzi, które wymagają od nich poszukania w encyklopedii – tłumaczył prof. Dariusz Jemielniak. Dodał, że kolejne ryzyko dla Wikipedii wynika z tego, że internauci nie korzystają z niej bezpośrednio, co sprawia, że dany użytkownik nie przyczyni się do wzbogacenia tego projektu artykułem i nie „wyedytuje” istniejącego tekstu. Jego zdaniem może to wpłynąć na pogorszenie się tej internetowej encyklopedii, a w dalszej kolejności doprowadzić do popsucia modeli AI, które z niej czerpią.

Zapytany o to, jak Wikipedii można pomóc, prof. Jemielniak wymienił m.in. zaangażowanie się w pisanie artykułów i poprawianie istniejących czy też wpłacanie na rzecz Wikimedia Foundation (fundacja zarządzająca Wikipedią). – Można rozważyć przekazanie tego 1,5 proc. na Stowarzyszenie Wikimedia Polska – zaznaczył. Dodał, że należy naciskać na środowisko akademickie i ministerstwo, żeby „realnie zaczęli postrzegać tworzenie Wikipedii jako bardzo wartościową działalność”.

Poproszony o reakcję na wiadomość o podpisaniu przez Wikipedię umów licencyjnych z szeregiem firm oferujących modele językowe, np. Amazonem, prof. Jemielniak ocenił, że jest to bardzo dobra informacja. – Próbowaliśmy przez długi czas przekonać te wszystkie duże firmy, że powinny płacić jakieś licencyjne opłaty na rzecz Wikimedia Foundation – wyjaśnił profesor, który był przez trzy kadencje członkiem rady powierniczej tej fundacji.

Zaznaczył, że wymagało to dosyć złożonych negocjacji, ponieważ dla tych firm nie było oczywiste, że powinny płacić za dostęp do Wikipedii. Jak przekazała Associated Press, Wikipedia podpisała umowy licencyjne z firmami: Amazon, Meta Platforms, Perplexity, Microsoft i z francuską Mistral AI. Nie został wymieniony jeden z najważniejszych graczy, jakim jest OpenAI – twórca popularnego ChatGPT.

Wchodzą nowe pokolenia, które zaczynają rozumieć, że Wikipedia jakość ma nie gorszą niż źródła profesjonalne

.Prof. Jemielniak przyznał, że widać spadek odsłon Wikipedii ze względu na popularyzację AI, ale zastrzegł, że problem jest bardziej złożony i trudno to udowodnić. – Jak pan mierzy same odsłony Wikipedii, to nie do końca pokazuje to pełen obraz, ponieważ ruch botów się także zwiększył – powiedział. – Moja hipoteza jest taka, że ten ruch niestety jednak odpływa od Wikipedii – dodał.

W artykule w magazynie naukowym „Nature” opublikowanym z okazji 25-lecia Wikipedii prof. Jemielniak napisał, odnosząc się do tej internetowej encyklopedii, że „my, akademicy, którzy uważamy się za strażników wiedzy, zrzekliśmy się naszej odpowiedzialności za to, co jest prawdopodobnie najczęściej konsultowanym i cytowanym dziełem na świecie”.

– Jest mnóstwo stereotypów i jeśli są profesorowie, którzy wyrobili sobie opinię negatywną, to oni prawdopodobnie zdania nie zmienią. Natomiast to się zmienia organicznie, wchodzą nowe pokolenia, które zaczynają rozumieć, że Wikipedia jakość ma nie gorszą niż źródła profesjonalne – wyjaśnił. Dodał, że pojawia się wiele badań, które tego dowodzą.

Wiceprezes PAN zwrócił uwagę, że instytucje powinny zmienić sposoby działania. – Chociażby uczelnie powinny zacząć doceniać pracę nad Wikipedią jako popularyzację wiedzy – zaznaczył.

Jego zdaniem to politycy również powinni narzucić zmiany. – Jak teraz pani minister Karolina Zioło-Pużuk (wiceminister nauki) mówi, że w ewaluacji nauki będzie ceniona popularyzacja, to ja się pytam, co może być lepszego niż popularyzacja w postaci tworzenia największego zbioru ludzkiej wiedzy? – ocenił prof. Jemielniak. Jego zdaniem ma to większą wartość niż tworzenie sobie bloga czy np. konta na TikToku.

– Dzięki Wikipedii mamy sumę ludzkiej wiedzy dostępną za darmo. To wydawałoby się dla osób młodszych rzeczą prostą, ale u początków Wikipedii nie było to oczywiste – przypomniał. Profesor wyjaśnił, że „to, co Wikipedia zmieniła, to po prostu spowodowała, że wiedza encyklopedyczna stała się darmowa i ogólnodostępna, co zwłaszcza w (państwach) Globalnego Południa ma ogromne znaczenie”.

Prof. Jemielniak przyznał, że Wikipedia jest nieco anachroniczna. – Trudno powiedzieć, czy Wikipedia przetrwa. Moja hipoteza byłaby taka, że w jakiejś formie przetrwa na pewno (…), natomiast mam obawy, że nie będzie tak popularna, jak jest obecnie – wyjaśnił i dodał, że może to być na tej samej zasadzie, co rury z ciepłą wodą – niekoniecznie nas ekscytuje, kto je produkuje, ale ciepłą wodę chcemy mieć.

Sztuczna inteligencja, czyli nowy koszmar dla obrońców klimatu

.Według dominującej narracji przyczyną zmian klimatycznych są antropogeniczne emisje dwutlenku węgla, które powodują ocieplanie atmosfery. To z kolei wywołuje szereg dodatnich sprzężeń zwrotnych, wzmacniających efekt cieplarniany. Przykładem jest wzrost koncentracji pary wodnej w cieplejszej atmosferze, która również jest gazem cieplarnianym. Jednak dużo większym zmartwieniem dla klimatystów kierujących się maksymą „całe zło to CO₂” powinien być rozwój AI – pisze prof. Ziemowit Miłosz MALECHA.

Eric Schmidt, były CEO Google, wypowiedział się publicznie na temat energochłonności infrastruktury związanej z AI. Zrobił to w dość alarmistyczny sposób, przekonując, że już niedługo 99 proc. wytwarzanej energii może być konsumowane przez centra danych oraz centra obliczeniowe. Wezwał tym samym decydentów w USA do budowy nowych instalacji wytwórczych z wykorzystaniem wszystkich możliwych technologii.

Schmidt przewiduje, zgodnie z obserwowanymi trendami, że w samych Stanach Zjednoczonych na potrzeby technologii cyfrowej do 2030 roku potrzebne będzie dodatkowych 30 GW mocy, a do 2035 roku już 67 GW. Są to wielkości gigantyczne. Dla porównania: średnie zapotrzebowanie mocy elektrycznej w Polsce to ok. 19 GW. Należy podkreślić, że centra obliczeniowe i danych nie mogą polegać na wietrze i słońcu, gdyż jest to energia niestabilna i droga. AI wymaga energii najwyższej jakości – taniej, stabilnej i pozbawionej zakłóceń w dostawie. Z tego właśnie powodu korporacje Big Tech wyraziły swoje stanowisko ustami Billa Gatesa, który odstawił „ratowanie planety” na boczny tor, wskazując, że na świecie są pilniejsze potrzeby. Zielony PR odchodzi więc do lamusa, ważniejsze są modele językowe.

Z drugiej strony obserwujemy prawdziwy wyścig z czasem między największymi konkurentami, USA i Chinami. W tym wyścigu USA nie mogą odpuścić nawet na milimetr, zwłaszcza że oddech Chin czują już na swoich plecach. Nie mogą odpuścić, bo uzyskanie znaczących przewag technologicznych w AI przez ChRL oznaczałoby koniec prymatu USA, co byłoby niebezpieczne również dla nas. I nie chodzi tutaj tylko o samą AI, lecz o wszystko to, co za jej pomocą można osiągnąć w dziedzinie techniki, biologii, nauk podstawowych oraz technologii.

Dlaczego więc możemy mówić o AI jako o najsilniejszym dodatnim sprzężeniu zwrotnym w kontekście zmian klimatycznych? Ponieważ skoro w USA przewiduje się takie wzrosty zapotrzebowania na energię elektryczną, to analogiczne będzie, a nawet już jest w Chinach, Indiach, Rosji i wszędzie tam, gdzie poważnie myśli się o technologiach AI. Skalując powyższe liczby, można zauważyć, że w najbliższym czasie potrzebne będą setki, a może i tysiące gigawatów nowych źródeł stabilnej i taniej energii.

Zadajmy więc pytanie: jaka technologia odpowiada tym potrzebom? Odpowiedź jest jednoznaczna. Wyścig technologiczny nie czeka, trzeba budować szybko, tanio i stabilnie, więc będą to elektrownie oparte na paliwach kopalnych – przede wszystkim węglu i gazie. Także atom, jednak elektrownie jądrowe powstają dłużej i mają więcej wymagań, dlatego w tym dynamicznym wyścigu będą początkowo tylko dodatkiem.

To jeden z powodów, dla których wydobycie paliw kopalnych bije dziś rekordy. W Chinach wydobycie węgla osiąga historyczne poziomy, zbliżając się do 5 mld ton rocznie; w Indiach przekroczyło 1 mld ton i prognozuje się dalszy szybki wzrost, podobnie jak w Indonezji. W USA obecna administracja zapowiada zwiększenie wydobycia węgla, ale nie zapominajmy, że kraj ten jest potentatem w wydobyciu gazu ziemnego. Jest to ściśle skorelowane z budową i otwieraniem setek nowych elektrowni węglowych na całym świecie, a szczególnie w Azji.

A jak na tym tle wypada UE oraz Polska? Emisje CO₂ z energetyki (włączając ciepło) w UE stanowią niespełna 2 proc. światowej emisji, a emisje sektora energetycznego w Polsce są pomijalnie małe. Jednocześnie trwa wymuszona transformacja energetyczna w jedynym słusznym kierunku, czyli paneli i wiatraków, co zarówno ogranicza dostęp do taniej i stabilnej energii, jak i wymusza likwidację energetyki węglowej, w konsekwencji hamując rozwój technologii AI. Wracając do przewidywanych potrzeb globalnego wyścigu AI: 1000 GW nowych elektrowni węglowych oznaczałoby emisje ok. 23-krotnie większe niż te w Polsce i ok. trzykrotnie większe niż emisje całej UE.

Tymczasem wzrost emisji światowych, wywołany gigantycznym zapotrzebowaniem energii dla AI, będzie bezprecedensowy i niekontrolowany. Przyszłość więc wygląda ponuro. Z jednej strony, jak przekonują nas apokaliptyczni klimatyści, wzrost CO₂ ma doprowadzić do zagłady ludzkości, z drugiej – dekarbonizacja staje się na naszych oczach fikcją. Ci sami ludzie stawiają często za wzór dekarbonizacji i walki ze zmianami klimatycznymi ChRL, która najmocniej się do tych zmian przyczynia. Jednocześnie nazywają oni wszystkich, którzy mają inne zdanie na temat technologii wiatrowych i słonecznych, agentami Putina… A nie trzeba być zbyt bystrym, aby zauważyć, że transformacja energetyczna UE oznacza coraz większe uzależnienie od dostawców gazu, niezbędnych pierwiastków oraz zielonych technologii – głównie z Chin, ale także Rosji.

Tekst dostępny na łamach Wszystko co Najważniejsze: https://wszystkoconajwazniejsze.pl/prof-ziemowit-milosz-malecha-sztuczna-inteligencja-czyli-nowy-koszmar-dla-obroncow-klimatu/

PAP/MB

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 15 stycznia 2026