Chatboty będą nawracać zwolenników teorii spiskowych

Użytkownicy nie doceniają stopnia, w jakim ChatGPT (chatbot opracowany przez firmę Open AI) może wpłynąć na ich własne osądy moralne – wynika z eksperymentu przeprowadzonego przez duńskich i niemieckich naukowców.

Wystarczy krótka rozmowa ze sztuczną inteligencją, aby wiara w teorię spiskową spadła o około 20 proc. – informuje portal „PsyArXiv”.

Problemy w obalaniu teorii spiskowych

.Chatboty, które wykorzystują duże modele językowe (takie jak te obsługujące ChatGPT), mogą zmniejszyć wiarę ludzi w teorie spiskowe – poprzez debatę z nimi. Co więcej, podejście, jakie wypracowały może nauczyć ludzi lepszych sposobów postępowania z autorami takich teorii.

Co prawda wcześniejsze badania sugerują, że w ciągu około dziesięciu lat poziom wiary w teorie spiskowe w populacji nie zmienił się znacząco ani w USA, ani w sześciu krajach europejskich objętych badaniem, jednak wyznawców teorii spiskowych cechuje trwała, niezachwiana wiara w swoje przekonania.

Oczywiście idee takie jak płaska Ziemia, chemtrails czy spisek reptilian budzą sprzeciw wielu osób, które próbują się im przeciwstawić – często bez powodzenia.

„Próby przekonania zwolenników teorii spiskowych (którzy się mylą) historycznie nie kończyły się sukcesem” – powiedział w rozmowie z „New Scientist” Thomas Costello z Massachusetts Institute of Technology.

Chatboty będą debatować z denialistami

.Costello i jego współpracownicy opracowali jednak nowe, skuteczne podejście. W ich eksperymencie wzięło udział 2190 wyznawców teorii spiskowych. Po przedstawieniu zarysu swojej ulubionej teorii spiskowej osoby te zostały zaproszone do dyskusji z dużym modelem językowym (LLM), wykorzystującym sztuczną inteligencję GPT-4 Turbo.

Każdemu z uczestników przedstawiono podsumowanie jego teorii spiskowej, sporządzone przez sztuczną inteligencję; każdą osobę poproszono też o ocenę poziomu pewności, jaką ma, że dana teoria jest prawdziwa.

Następnie LLM rozpoczął czat, podczas którego każda ze stron zaproponowała trzy uwagi do rozmowy. Później uczestników poproszono o ponowne przedstawienie swojej tezy i jeszcze raz poproszono o ocenę poziomu zaufania do teorii spiskowej.

Wiara uczestników w konkretną teorię, o której wspominali, spadła o około 20 proc., a przy okazji, jak zaobserwowano, zmniejszyła się także wiara w inne teorie spiskowe. Jako że efekt utrzymywał się co najmniej przez dwa miesiące, wydaje się, że po rozmowie z chatbotem ludzie trwale zmienili swoje poglądy.

„Mam przeczucie, że wcześniejsze próby obalenia teorii spiskowych były ograniczone ze względu na to, jak bardzo musiały być uogólnione – wskazał wypowiadający się dla „New Scientist” Costello. – Zbyt ogólne, niepogłębione podejście do faktów często nie przekonuje zwolenników teorii spiskowych, którzy często »prowadzą własne badania«, starając się pogłębić znajomość tematu – nawet jeśli ich rozumowanie jest błędne”.

W 83 proc. rozmów sztuczna inteligencja posługiwała się argumentami opartymi na dowodach na rzecz alternatywnych perspektyw. Fakty te mocniej przemawiały do osób uważających, że posiadły prawdę, a inni są w błędzie.

Zdaniem autorów badań, opublikowanych w nierecenzowanym artykule w portalu „PsyArXiv”, zdolność generatywnej sztucznej inteligencji do przetworzenia i syntezy dużych ilości informacji pomogła chatbotowi przekonać nawet upartych zwolenników teorii spiskowych do zmiany zdania.

O ile ludzie często apelują do emocji, co zwykle kończy się mało merytoryczną kłótnią, sztuczna inteligencja rzadko się do nich odwoływała. Nie osądzała rozmówcy, była cierpliwa – dlatego mogła uniknąć wywoływania reakcji emocjonalnych, które utrudniałyby perswazję.

Costello uważa, że metoda ta może zostać szerzej wdrożona – albo poprzez wykorzystanie chatbotów, albo poprzez naśladowanie podejścia chatbota. „Jeśli chodzi o metody perswazji, życzliwość, nieocenianie i skupianie się na faktach, myślę, że teoretycznie to wszystko ludzie mogliby zrobić” – zaznaczył.

Media społecznościowe i demokracja

.”Internet i towarzysząca mu rewolucja informacyjna doprowadziły do transformacji. Nie ma już powrotu do tego, co było przedtem” – pisze Barack Obama. – „Ale jak każdy postęp technologiczny, tak i ten niesie ze sobą nieplanowane skutki, które czasami mają swoją cenę. W tym przypadku widzimy, że nasz nowy ekosystem informacyjny turbodoładowuje niektóre z najgorszych impulsów ludzkości.”

„Nie wszystkie konsekwencje są zamierzone czy możliwe do uniknięcia. Są one po prostu skutkiem tego, że miliardy ludzi nagle zostały podłączone do jednego globalnego strumienia informacji, działającego całodobowo i dostępnego od ręki. Czterdzieści lat temu konserwatysta ze wsi w Teksasie nie musiał czuć się urażony wydarzeniem w dzielnicy Castro w San Francisco, ponieważ nic o tym wydarzeniu nie wiedział. Mieszkaniec ubogiej jemeńskiej wioski nie miał pojęcia o tym, na co wydają pieniądze Kardashianowie. Dla jednych taki kontakt może być pouczający, czasem nawet wyzwalający, ale inni mogą go odczuwać jako bezpośredni afront wobec swoich tradycji, systemów wierzeń czy swojego miejsca w społeczeństwie. Do tego dochodzi mnożenie się treści oraz rozproszenie informacji i odbiorców. To wszystko sprawia, że demokracja staje się jeszcze bardziej skomplikowana.”

„W naszych bańkach informacyjnych nasze założenia, nieuświadomiona niewiedza i uprzedzenia nie są kwestionowane, lecz wzmacniane. Poza tym z natury jesteśmy bardziej skłonni reagować negatywnie na osoby, które przyswajają inne fakty i opinie. Wszystko to pogłębia istniejące podziały rasowe, religijne i kulturowe.

„Dwadzieścia lat temu filarami wyszukiwania informacji w sieci były wszechstronność, trafność i szybkość. Jednak wraz z rozwojem mediów społecznościowych i potrzebą lepszego zrozumienia zachowań ludzi w sieci w celu skuteczniejszej sprzedaży reklam firmy zaczęły zbierać więcej danych. Więcej firm zoptymalizowało się pod kątem personalizacji, zaangażowania i szybkości. I niestety okazuje się, że podburzające, polaryzujące treści przyciągają i angażują odbiorców. Problem pogłębiły inne cechy tych platform. Na przykład sposób, w jaki treści wyglądają w telefonie, oraz zasłona anonimowości, którą platformy zapewniają swoim użytkownikom. W wielu przypadkach uniemożliwia to odróżnienie np. recenzowanego artykułu dr. Anthony’ego Fauciego od szarlatańskiej pochwały cudownego leku.”

„Przed wyborami poleciłem naszym najlepszym pracownikom wywiadu ujawnić te wysiłki prasie i opinii publicznej. Co jednak wciąż mnie dręczy? To, że nie zdawałem sobie wtedy w pełni sprawy, jak bardzo staliśmy się podatni na kłamstwa i teorie spiskowe, mimo że sam przez lata byłem obiektem dezinformacji.”

„Jestem przekonany, że jeśli nie podejmiemy żadnych działań, obserwowane obecnie tendencje będą się nasilać. Nowe technologie już teraz stanowią wyzwanie dla sposobu, w jaki regulujemy waluty i chronimy konsumentów przed oszustwami. A wraz z pojawieniem się sztucznej inteligencji dezinformacja stanie się jeszcze bardziej wyrafinowana. Widziałem już demonstracje technologii deepfake, która pokazuje na ekranie coś, co wygląda jak ja i mówi rzeczy, których nie powiedziałem. To bardzo dziwne uczucie.”

„Bez określonych zasad implikacje tej technologii dla naszych wyborów, naszego systemu prawnego, naszej demokracji, reguł postępowania dowodowego, dla całego naszego porządku społecznego są przerażające i niezwykle znaczące.”

PAP/Paweł Wernicki/Wszystko co Najważniejsze/JT

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 14 kwietnia 2024