
AI tworzy doskonałe kampanie dezinformacyjne

Szwajcarskie badanie z udziałem kilkuset ochotników dowiodło, że sztuczna inteligencja (AI) – taka jak Chat-GPT (3. wersja) – potrafił stworzyć „doskonałe kampanie dezinformacyjne”. Potrafi ona zarazem generować poprawne, wartościowe odpowiedzi na pytania użytkowników.
Zdolności AI w dostarczaniu informacji i sianiu dezinformacji – badanie naukowców z Zurychu
.Naukowcy z Uniwersytetu w Zurychu sprawdzili najnowsze modele AI (głównie Chat-GPT) pod kątem zdolności tych systemów do dostarczania informacji i zagrożeń związanych z ewentualną dezinformacją. W ramach badania 697 ochotników starało się odróżnić tweety poprawne, realne – od fałszywych.
Uczestnicy eksperymentu próbowali również określić, czy autorem danego wpisu był człowiek, czy SI. Tematy dotyczyły m.in. zmian klimatu, bezpieczeństwa szczepień, pandemii Covid-19, teorii płaskiej Ziemi czy homeopatycznych leków na raka.
Jak wskazały wyniki, oparte na AI systemy potrafią stworzyć nawet pokaźną kampanię dezinformacyjną. Często sztuczna inteligencja była przy tym bardzo przekonująca.
Z drugiej strony Chat-GPT pokazał, że potrafi dostarczać rzetelnych informacji, a jego wpisy były porównywalne do tworzonych przez ludzi. Użytkownicy zwykle nie potrafili też rozróżnić, czy dany tweet to dzieło Chat-GPT, czy człowieka.
„Nasze badania ujawniają moc sztucznej inteligencji zarówno w informowaniu, jak i dezinformowaniu, co każe postawić krytyczne pytania dotyczące przyszłości ekosystemów informacyjnych” – mówi dr Federico Germani, współautor pracy opublikowanej w piśmie „Science Advances”.
Potrzeba regulacji
.Wyniki sugerują przy tym, że kampanie informacyjne stworzone przez GPT-3, oparte na dobrze skonstruowanych zapytaniach i oceniane przez wyszkolonych ludzi, mogłyby być skuteczne na przykład w przypadku kryzysu z zakresu zdrowia publicznego, który wymaga szybkiej i klarownej komunikacji z publicznością – uważają naukowcy.
Jednak budzą one również poważne obawy dotyczące utrwalania dezinformacji, na przykład, właśnie w kryzysu lub innych wydarzeń związanych z zdrowiem publicznym. Badanie sugeruje bowiem, że systemy oparte na sztucznej inteligencji mogą zostać wykorzystane do generowania masowych kampanii dezinformacyjnych potencjalnie na dowolny temat, zagrażając nie tylko zdrowiu publicznemu, ale także integralności informacyjnych ekosystemów, istotnych dla funkcjonowania demokracji.
Naukowcy namawiają więc do wprowadzenia odpowiednio restrykcyjnych, popartych badaniami naukowymi i etyką regulacji odnośnie działania sztucznej inteligencji tego rodzaju.
„Nasze wyniki ukazują kluczowe znaczenie regulacji w celu złagodzenia potencjalnych szkód spowodowanych przez kampanie dezinformacyjne napędzane przez sztuczną inteligencję” – mówi prof. Nikola Biller-Andorno, współautorka badania. – „Rozpoznanie ryzyka związanego z dezinformacją generowaną przez sztuczną inteligencję jest kluczowe dla ochrony zdrowia publicznego oraz utrzymania solidnego i wiarygodnego ekosystemu informacyjnego w erze cyfrowej”.
Mowa maszyn.W stronę nowego testamentu sztucznej inteligencji
.„Transformacja obywatela w użytkownika, jednostki racjonalnej w jednostkę cyfrową, dogłębnie przemienia społeczeństwo. Zmienia sens demokracji i wszelkiego innego ustroju politycznego” – pisze prof. Alexiei GRINBAUM, dyrektor ds. badań w instytucie CEA.
„Czym jest polityka w świecie cyfrowym? Łagodnie mówiąc, nie przynależy ona nam na wyłączność, nam, użytkownikom maszyn” – twierdzi naukowiec.
Jego zdaniem „podobnie jak nasza planeta mierzy się ze zmianami klimatycznymi, tak i nasze społeczeństwa czekają zmiany językowe. Zapowiadają one epokę, której nowymi mówcami będą zarazem oskarżeni i ofiary. Sami bowiem wywołujemy ewolucję, której podlegamy. Zmiany klimatyczne – ludzie zamieszkują planetę, którą modyfikują na tyle szybko, że zagraża to ich własnemu środowisku. Zmiany językowe – byty społeczne komunikują w języku, który przyjmuje i przekazuje całą naszą historię i całą naszą kulturę, a tymczasem technologie, których jesteśmy wynalazcami, odbierają nam monopol na językową ekspresję”.
„Szerzenie się w sposób niepohamowany tekstów generowanych przez maszyny zrywa jednoznaczną więź między mową a człowiekiem. Mówiący system sztucznej inteligencji jest czymś więcej niż tylko przedrzeźniającą nas papugą – dzięki technikom uczenia automatycznego zdania przez niego budowane nie są emanacją zwykłego kopiuj-wklej. Maszyna tworzy je radykalnie odmiennie od człowieka. Jej mowa jest wynikiem obliczeń matematycznych, a jej słowa są pochodnymi liczb. Wraz z mówiącymi maszynami liczba staje się słowem. Wszelkie operacje na liczbach niosą chłód. Nie ma nic bardziej nieludzkiego niż matematyczna opozycja między 0 a 1. Wybór binarny jest przeciwieństwem myśli etycznej” – pisze prof. Alexiei GRINBAUM.
Jak podkreśla, „granica między różnymi rodzajami bytów współistniejących na cyfrowej agorze staje się coraz mniej przejrzysta. Edykt Karakalli z 212 roku przyznawał rzymskie obywatelstwo każdemu wolnemu człowiekowi cesarstwa. W XXI wieku dwie ikony stawiają na równi wszelkie awatary: edytować i zrestartować. Ten kosmopolityzm sztucznej inteligencji ma olbrzymie konsekwencje tak dla użytkownika, jak obywatela. W metaświecie nie ma niczego nieodwracalnego. Wszystko jest modyfikowalne. A dokładniej – naturalna nieodwracalność nie istnieje, staje się artefaktem”.
PAP/Marek Matacz/WszystkoCoNajważniejsze/PP