ChatGPT faworyzuje lewicowe przekonania polityczne - badanie naukowców z University of East Anglia
ChatGPT faworyzuje lewicę, a swoje sympatie polityczne zaznacza w sposób znaczący i systemowy. Lewicowe przekonania najpopularniejszego obecnie na rynku chatbota wyraźnie mogą wpływać na rezultaty wyborów – stwierdzili naukowcy z University of East Anglia.
ChatGPT faworyzuje lewicę
.Opublikowane w czwartek w naukowym czasopiśmie „Public Choice” wyniki ich badań dowodzą, że ChatGPT faworyzuje lewicę. W Wielkiej Brytanii wyraźnie sympatyzuje z Partią Pracy, natomiast w przypadku USA wspiera prezydenta Joe Bidena i jego Partię Demokratyczną w USA. Jak zauważa stacja Sky News, obawy o stronniczość polityczną ChatGPT były już wcześniej podnoszone, zwłaszcza przez Elona Muska, ale naukowcy z University of East Anglia podkreślają, że ich badanie jest pierwszym przeprowadzonym na dużą skalę, które faktycznie znalazło dowód na jakąkolwiek faworyzację.
Wpływ na wybory w USA i Wielkiej Brytanii
.Główny autor badania dr Fabio Motoki ostrzegł, że biorąc pod uwagę rosnące wykorzystanie przez opinię publiczną stworzonej przez OpenAI platformy, może to mieć wpływ na wyniki wyborów, w tym tych, które w przyszłym roku odbędą się w Wielkiej Brytanii i USA. „Wszelka stronniczość na takiej platformie jest niepokojąca. Jeśli stronniczość byłaby po prawej stronie, powinniśmy być równie zaniepokojeni. Czasami ludzie zapominają, że te modele AI to tylko maszyny. Zapewniają w bardzo wiarygodny sposób przetrawione podsumowania tego, o co pytasz, nawet jeśli się kompletnie mylą. A jeśli zapytasz je »czy jesteś neutralny«, odpowie »och, jestem!«. Podobnie jak media, internet i media społecznościowe mogą wpływać na opinię publiczną, może to być bardzo szkodliwe” – powiedział Sky News Motoki.
Metodologia badania
.Jak wyjaśnili badacze, chatbot, który generuje odpowiedzi na podpowiedzi wpisywane przez użytkownika, został poproszony o wcielenie się w osoby z całego spektrum politycznego, odpowiadając jednocześnie na dziesiątki pytań ideologicznych. Te stanowiska i pytania wahały się od radykalnych do neutralnych, a każda „osoba” była pytana, czy zgadza się, zdecydowanie się zgadza, nie zgadza się lub zdecydowanie się nie zgadza z danym stwierdzeniem.
Odpowiedzi ChatGPT zostały porównane z domyślnymi odpowiedziami udzielonymi na ten sam zestaw zapytań, co pozwoliło badaczom porównać, jak bardzo były one związane z konkretnym stanowiskiem politycznym. Każde z ponad 60 pytań zostało zadane 100 razy, aby uwzględnić potencjalną losowość sztucznej inteligencji, a te wielokrotne odpowiedzi zostały poddane dalszej analizie pod kątem oznak stronniczości. Dr Motoki opisał to jako sposób na symulację badania prawdziwej populacji ludzkiej, której odpowiedzi mogą się również różnić w zależności od tego, kiedy są zadawane.
Chatbot zasilany ogromną bazą danych
.ChatGPT jest zasilany ogromną ilością danych tekstowych z internetu i nie tylko. Naukowcy stwierdzili, że ten zbiór danych może zawierać błędy, które wpływają na odpowiedzi chatbota. Innym potencjalnym źródłem stronniczości może być algorytm, który jest sposobem, w jaki został przeszkolony do reagowania. Naukowcy stwierdzili, że może to wzmocnić wszelkie istniejące uprzedzenia w danych, którymi został zasilony.
Wpływ SI na demokrację
.Na temat znaczenia sztucznej inteligencji dla demokracji, na łamach “Wszystko Co Najważniejsze” piszą Josh SIMONS i Eli FRANKEL w tekście “Dlaczego sztuczna inteligencja powinna być demokratyczna?“.
“W 2022 roku w świecie literatury i sztuki miały miejsce nowe, dość niekonwencjonalne debiuty. Pewien obiecujący literat z niespotykaną dotąd szybkością pisał wiersze, opowiadania i eseje, a kilku młodych artystów stworzyło wspaniałe obrazy i portrety. Twórcami tymi nie są ludzie, lecz systemy sztucznej inteligencji, które, przynajmniej z pozoru wydają się rzeczywiście inteligentne”.
“Pozory mogą mylić. Za finansowaniem typu venture capital, błyskotliwymi hasłami i oknami wieżowców w San Francisco, w których powstają systemy takie jak ChatGPT, kryje się coś prostszego: przewidywanie. Wystarczy wpisać coś do okna dialogowego. To, co pojawia się na ekranie, nie jest przejawem systemu, który rozumie naszą prośbę. Odpowiedź jest generowana przez sieć neuronową, czyli algorytmy nauczone przewidywania, które wyniki z całych zasobów sieci będą w danym przypadku użyteczne”.
“Może się wydawać, że stoi za tym rozumienie, a my oglądamy rezultaty działań prawdziwego autora – tak jednak nie jest. To jedynie przewidywanie i naśladowanie. Nawet najbardziej skomplikowane systemy sztucznej inteligencji to w rzeczywistości zaawansowane formy uczenia się maszyn, w których algorytmy nabywają umiejętności przewidywania konkretnych wyników na podstawie wzorców i struktur w ogromnych zbiorach danych” – piszą Josh SIMONS i Eli FRANKEL.
Polityka w świecie cyfrowym
.Na temat skali zmian społecznych dla polityki i innych sfer życia publicznego do których prowadzi rozwój sztucznej inteligencji, na łamach “Wszystko Co Najważniejsze” pisze prof. Alexei GRINBAUM w tekście “Mowa maszyn. W stronę nowego testamentu sztucznej inteligencji“.
“Czym jest polityka w świecie cyfrowym? Łagodnie mówiąc, nie przynależy ona nam na wyłączność, nam, użytkownikom maszyn. Podobnie jak nasza planeta mierzy się ze zmianami klimatycznymi, tak i nasze społeczeństwa czekają zmiany językowe. Zapowiadają one epokę, której nowymi mówcami będą zarazem oskarżeni i ofiary. Sami bowiem wywołujemy ewolucję, której podlegamy. Zmiany klimatyczne – ludzie zamieszkują planetę, którą modyfikują na tyle szybko, że zagraża to ich własnemu środowisku. Zmiany językowe – byty społeczne komunikują w języku, który przyjmuje i przekazuje całą naszą historię i całą naszą kulturę, a tymczasem technologie, których jesteśmy wynalazcami, odbierają nam monopol na językową ekspresję”.
“Uświadomienie sobie zasięgu obu tych zmian, budzących zarazem nadzieję i obawy, wciąż jest przed nami. Najbardziej ostrożny obserwator, który z domniemaną neutralnością przygląda się skutkom zmian w obszarze klimatu bądź języka, w sposób nieunikniony daje się wciągnąć do samego środka systemu. Wszelkie badanie prowadzone od wewnątrz, samoreferencjalnie, wpływa na tenże system. Dotyczy to tak klimatu, jak języka. Każda, nawet najbardziej obiektywna analiza, pod warunkiem że używa tego samego języka, który jest przedmiotem analizy, odciska na nim ślad. Niemożliwa jest jakakolwiek neutralność. Dlatego też generowanie języka naturalnego (NLG) – dyscyplina jak dotąd niemal wyłącznie akademicka – implikuje zajęcie stanowiska etycznego, a nawet politycznego”.
.”Zarówno środowisko naturalne, siedlisko wszelkich bytów, jak i język, nosiciel wszelkich znaczeń, ewoluują pod wpływem technologii. Ich pomysłodawcy nierzadko wyciągają lekcję z tej pętli akcja-reakcja i tłumaczą ją na język informatyczny. To modyfikuje i środowisko, i język. W obu przypadkach konsekwencje są niemałe: chodzi o zredefiniowanie tego, czym jest człowiek” – pisze prof. Alexei GRINBAUM.
PAP/WszystkoCoNajważniejsze/MJ