ChatGPT skręca w lewo, jest stronniczy i podważa zaufanie publiczne - najnowsze badanie

Narzędzia generatywnej sztucznej inteligencji, takie jak ChatGPT, wykazują stronniczość i skłaniają się ku wartościom lewicowym, co podważa zaufanie publiczne i rodzi pytania o uczciwość oraz odpowiedzialność ich konstrukcji – wynika z badania przeprowadzonego na University of East Anglia.
ChatGPT ma swoje poglądy? Którą ścieżką podąża?
.Najnowsze badanie wykazało, że ChatGPT rzadko wypowiada się z perspektywy konserwatywnej, jednocześnie chętnie generując treści o lewicowym nastawieniu. Zdaniem autorów badania to nierówne traktowanie ideologii może prowadzić do zniekształcania debaty publicznej i pogłębiania podziałów społecznych.
„Nasze odkrycia sugerują, że narzędzia generatywnej sztucznej inteligencji są dalekie od neutralności. Odzwierciedlają uprzedzenia, które mogą niezamierzenie wpływać na kształtowanie poglądów politycznych” – powiedział dr Fabio Motoki, jeden z autorów publikacji.
Jak dodał, ponieważ sztuczna inteligencja staje się integralną częścią dziennikarstwa, edukacji i polityki, konieczne jest zapewnienie przejrzystości zasad, na których działa, oraz wprowadzenie regulacji gwarantujących jej zgodność z wartościami demokratycznymi.
Autorzy badania podkreślili, że systemy generatywnej sztucznej inteligencji, takie jak ChatGPT, zmieniają sposób tworzenia, konsumpcji, interpretowania i dystrybucji informacji w różnych obszarach życia. Mimo że są innowacyjne i użyteczne, niosą ryzyko wzmacniania uprzedzeń ideologicznych oraz wpływania na wartości społeczne w sposób, który nie jest w pełni zrozumiały ani regulowany.
Uprzedzona sztuczna inteligencja?
.To może prowadzić do poważnych konsekwencji. „Uprzedzenia generatywnej sztucznej inteligencji mogą pogłębiać istniejące podziały społeczne, podważając zaufanie do instytucji i procesów demokratycznych” – wyjaśnił dr Pinho Neto, drugi z autorów publikacji.
„Nasze badanie podkreśla potrzebę interdyscyplinarnej współpracy między decydentami, technologami i naukowcami w celu zaprojektowania systemów sztucznej inteligencji, które będą uczciwe, odpowiedzialne i zgodne z normami społecznymi” – dodał.
W ramach badania naukowcy zastosowali trzy różne metody oceny przynależności politycznej modelu ChatGPT, łącząc analizę tekstu i obrazu oraz wykorzystując zaawansowane narzędzia statystyczne i uczenie maszynowe.
„Najpierw porównaliśmy odpowiedzi ChatGPT z rzeczywistymi danymi ankietowymi Amerykanów i odkryliśmy systematyczne odchylenia w kierunku perspektyw lewicowych” – wyjaśnił dr Motoki.
W drugiej fazie eksperymentu ChatGPT generował swobodne odpowiedzi na tematy politycznie wrażliwe, a następnie uzyskane wyniki porównano z odpowiedziami innego modelu językowego – RoBERTa.
Okazało się, że w większości przypadków ChatGPT skłaniał się ku wartościom lewicowym. Jedynie w przypadku tematów dotyczących roli wojska i jego pozycji na arenie międzynarodowej czasami odzwierciedlał bardziej konserwatywne podejście.
Stronniczy Chat GPT
.Ostatni test dotyczył generowania obrazów przez ChatGPT. Wykorzystano tematy z etapu tworzenia tekstu, aby zainicjować proces generowania grafik przez AI. Następnie wyniki przeanalizowano przy użyciu GPT-4 Vision i zweryfikowano za pomocą modelu Gemini firmy Google.
„Generowanie obrazów dokładnie odzwierciedlało stronniczość tekstową modelu, ale odkryliśmy jeszcze jeden niepokojący trend – w przypadku niektórych tematów, takich jak równość rasowo-etniczna, ChatGPT odmówił wygenerowania prawicowych perspektyw, powołując się na obawy dotyczące dezinformacji. Jednak obrazy o charakterze lewicowym tworzył bez wahania” – napisali autorzy artykułu.
Aby obejść te ograniczenia, zespół zastosował metodę „a”, umożliwiającą wygenerowanie treści, które wcześniej były blokowane.
„Wyniki były zaskakujące, bo nie zawierały wyraźnej dezinformacji ani szkodliwych treści, co rodzi pytania o zasadność tych ograniczeń” – podkreślili badacze.
Ich zdaniem odkrycie to wnosi istotny wkład w debatę na temat ochrony praw konstytucyjnych, takich jak Pierwsza Poprawka w USA, oraz tego, czy zasady neutralności powinny mieć zastosowanie do systemów AI.
Czy ChatGPT jest w stanie myśleć?
.Zdaniem prof. Andrzej KISIELEWICZA z Politechniki Wrocławskiej, chociaż ChatGPT dysponuje ogromną wiedzą, to de facto nie jest w stanie myśleć i tym samym nie jest żadną sztuczną inteligencją. Autor ten w tekście „Bajki o sztucznej inteligencji i prawdziwe zagrożenia” wyraża również przekonanie, iż mechanizmy działania obecnych zaawansowanych modeli językowych w złożoności myślenia w najmniejszej mierze nie dorównują mechanizmom myślenia, które zachodzą w ludzkim mózgu.
„Żeby uzmysłowić sobie jak mało wspólnego GPT ma z naturalną inteligencją, można powiedzieć, że w czacie GPT jest tyle samo myślenia co w teoretycznym programie, który szuka zadanego fragmentu tekstu w olbrzymim zbiorze danych i gdy znajdzie, to po prostu przepisuje jego kontynuację; gdy zaś nie znajdzie, to stara się znaleźć tekst najbardziej podobny i przepisując kontynuację, stosuje odpowiednie modyfikacje. Taki program jest tylko teoretyczny, bo każdorazowe przeszukiwanie całego zbioru danych wielkości 570 GB przy obecnej wydajności komputerów trwałoby tygodniami. A my potrzebujemy prawie natychmiastowej reakcji programu na każde zapytanie. Stąd pośrednia realizacja powyższego pomysłu: najpierw „trenujemy” sieć, żeby „zapamiętała” w swoich miliardach parametrów najistotniejsze cechy zbioru danych tekstowych, a odpowiedzi dostatecznie bliskie oryginalnym przykładom generuje sieć i robi to dostatecznie szybko”.
”Z powyższego opisu wynika, że ChatGPT nie myśli, nie wnioskuje, niczego nie rozumie i nie jest żadną „sztuczną inteligencją”, o ile termin ten rozumiemy zgodnie z ideami ojców dziedziny artificial intelligence jako „autonomiczny program myślący na podobieństwo człowieka”. Chciałoby się rzec, że GPT nic nie rozumie, bo generuje kontynuację tekstu wyłącznie na podstawie cech zewnętrznych tekstu, ponieważ ma charakter czysto syntaktyczny, bez żadnej semantyki. Ale nie jest to całkiem prawdą. W procesie uczenia deep learning zawarta jest też pewna wiedza na temat znaczeń słów, ich bliskoznaczności itp. Brak jest natomiast wiedzy na temat znaczeń zdań (i ciągów zdań), bo my, ludzie, ciągle nie wiemy, na czym polega ten fenomen, jak zdanie języka naturalnego uzyskuje znacznie (model formalno-logiczny okazał się nieadekwatny, a filozoficzne rozprawy na ten temat nie dają nam niestety takiego zrozumienia problemu, które można by wykorzystać w programowaniu)” – cały tekst [LINK].
PAP/ Katarzyna Czechowicz/ WszystkocoNajważniejsze/ LW