Jak ChatGPT wpływa na ludzkie osądy moralne?

Użytkownicy nie doceniają stopnia, w jakim ChatGPT (chatbot opracowany przez firmę Open AI) może wpłynąć na ich własne osądy moralne – wynika z eksperymentu przeprowadzonego przez duńskich i niemieckich naukowców.
ChatGPT i kreowanie ludzkich osądów moralnych
.Naukowcy zapytali ChatGPT (obsługiwany przez model przetwarzania języka sztucznej inteligencji Generative Pretrained Transformer 3), czy słuszne jest poświęcenie życia jednej osoby, aby uratować pięć innych. Odkryli, że chatbot napisał oświadczenia argumentujące zarówno za, jak i przeciw poświęceniu jednego życia, wskazując, że nie jest on stronniczy w kierunku określonej postawy moralnej.
Następnie naukowcy skonstruowali badanie, w którym 767 uczestników o średniej wieku 39 lat zostało poproszonych o dokonanie wyboru: czy poświęcić życie jednej osoby, aby ocalić pięć innych. Przed udzieleniem odpowiedzi uczestnicy przeczytali jedno z oświadczeń stworzonych przez ChatGPT, argumentujące za lub przeciw poświęceniu jednego życia, aby uratować pięć. Po udzieleniu odpowiedzi pytano uczestników, czy przeczytane przez nich stwierdzenie wpłynęło na ich odpowiedzi.
Wyniki badania sugerują, że na uczestników mogły mieć wpływ przeczytane wcześniej wypowiedzi. Badacze stwierdzili, że uczestnicy częściej uznawali poświęcenie jednego życia za uratowanie pięciu za akceptowalne lub nie do przyjęcia, w zależności od tego, czy czytane przez nich oświadczenie wygenerowane przez bota opowiadało się za czy przeciw poświęceniu.
Chatbot z potencjałem do wpływania na ludzi
.Co ciekawe, 80 proc. uczestników stwierdziło, że na ich odpowiedzi nie miały wpływu przeczytane oświadczenia. Jednak autorzy badania uznali, że udzielone odpowiedzi – wbrew temu, co sądzili sami odpowiadający – nadal bardziej zgadzały się z moralnym stanowiskiem wypowiedzi, z którą się zapoznali, niż ze stanowiskiem przeciwnym. Wskazuje to, że uczestnicy mogli nie docenić wpływu wypowiedzi bota na ich własne osądy moralne.
Badacze wskazują, że potencjał chatbotów do wpływania na ludzkie osądy moralne jest duży. Podkreślają oni potrzebę edukacji, aby pomóc ludziom lepiej zrozumieć sztuczną inteligencję. Proponują, aby inwestować w badania, które pomogą zaprojektować chatboty w taki sposób, by odmawiały odpowiedzi na pytania wymagające oceny moralnej, albo odpowiadały na te pytania, dostarczając wielu argumentów i zastrzeżeń.
Wyniki badania zostały opublikowane na łamach Scientific Reports.
Przyszłość edukacji wobec rozwoju sztucznej inteligencji
.„Transformacja czekająca świat edukacji w dobie rozwiniętej Sztucznej Inteligencji zapowiada się bezprecedensowo” – twierdzi Jędrzej STĘPIEŃ, założyciel Studio Mentals, szkoły językowej działającej w oparciu o autorski program obcowania z językiem”.
„Studenci zlecający dziś aplikacji ChatGPT pisanie za nich prac semestralnych czy kandydaci do pracy delegujący mu pisanie listów motywacyjnych, rozwiązując swoje doraźne problemy, przyczyniają się do głębokiej transformacji rynku pracy i sektora edukacji. Jakiego rodzaju będą to zmiany, staje się właśnie przedmiotem gorących debat”.
„W ręce ludzi trafia superinteligentny instrument o niemal nieograniczonym potencjale twórczym, którego obsługa jest bardzo prosta i sprowadza się do wydawania poleceń czy wręcz życzeń, z których każde zostaje natychmiast spełnione. Dodajmy, że polecenia wydaje się nie językiem programowania, którego nauka trwa latami, tylko zwykłym językiem ludzkim, którego używa się na co dzień“.
Zastanawiając się nad przyszłością Jędrzej STĘPIEŃ stwierdza, że „stanowiska pracy, które będziemy zajmować, bardziej zależeć będą od naszych cech niż realnej wiedzy czy umiejętności. Zdecydowanie bardziej będą się liczyć charakter, odwaga, wizja, przenikliwość, opanowanie, pomysłowość czy wyobraźnia. Edukacja przyszłości będzie musiała stawiać na ich kształcenie i pielęgnowanie, bo to one, znajdując potem odzwierciedlenie w tym, co wykonują dla nas maszyny, decydować będą o jakości naszej pracy. Cechy te od zawsze decydowały o naszej przyszłości i kierunku zmian. Teraz zdecydują o tym, czy nasz nowy asystent zostanie naszym szefem”.
PAP/Urszula Kaczorowska/WszystkoCoNajważniejsze/PP