Future You — jak sztuczna inteligencja uspokoi nasze niepokoje co do przyszłość
Naukowcy z MIT opracowali narzędzie „Future You”, które dzięki wykorzystaniu generatywnej sztucznej inteligencji umożliwia użytkownikom symulowaną rozmowę z ich potencjalną wersją z przyszłości.
Chatbot „Future You”
.Celem tego chatbota ma być zmniejszenie niepokoju użytkowników, wzmocnienie pozytywnych odczuć względem przyszłości oraz pokierowanie ich ku podejmowaniu lepszych codziennych wyborów. Narzędzie opiera się na psychologicznej koncepcji „future self-continuity”, co można przetłumaczyć jako ciągłość jaźni w przyszłości. Jak wykazały wcześniejsze badania, im silniejsze dana osoba ma poczucie ciągłości ze swoim przyszłym ja, tym lepsze długoterminowe decyzje podejmuje. Przekłada się to m.in na skuteczniejsze oszczędzanie, lepsze zabezpieczanie swojej przyszłości czy osiąganie większych sukcesów akademickich.
„Future You” wykorzystuje model językowy, bazujący na informacjach dostarczonych przez użytkownika. Na ich podstawie generuje wiarygodną, wirtualną wersję danej osoby w wieku 60 lat, z którą można przeprowadzić rozmowę. Chatbot odpowiada na pytania o to, jak może wyglądać czyjeś życie w przyszłości, a także oferować porady lub spostrzeżenia na temat ścieżki, którą warto podążać. W początkowej fazie testów tego rozwiązania naukowcy odkryli, że po interakcji z „Future You” przez około pół godziny ludzie zgłaszali zmniejszenie niepokoju i odczuwali silniejszą więź z wyobrażeniem samego siebie z przyszłości.
„Nie mamy jeszcze prawdziwego wehikułu czasu, ale sztuczna inteligencja może być czymś w tym rodzaju. Symulacja, jaką proponujemy, sprawia, że ludzie więcej myślą o konsekwencjach wyborów, których dokonują dzisiaj” – powiedział dr Pat Pataranutaporn z Massachusetts Institute of Technology, ekspert z dziedziny interakcji człowiek-AI, który wraz z naukowcami z Harvard University, KASIKORN Lab oraz University of California w Los Angeles pracował nad systemem.
Badania nad koncepcją relacji człowieka z jego przyszłym ja sięgają lat 60. XX wieku. Jedna z wczesnych metod mających na celu poprawę ciągłości jaźni w przyszłości polegała na tym, że ludzie pisali listy do swoich starszych wersji; po latach zaczęto wykorzystywać np. gogle do wirtualnej rzeczywistości, aby pomóc lepiej zwizualizować siebie za kilkadziesiąt lat. Jednak żadna z tych metod nie była interaktywna, co ograniczało wpływ, jaki mogły wywierać na użytkownika. Dzięki pojawieniu się generatywnej sztucznej inteligencji i dużych modeli językowych, takich jak ChatGPT, badacze dostrzegli możliwość stworzenia symulowanego przyszłego ja, które mogłoby omawiać rzeczywiste cele i aspiracje danej osoby podczas normalnej rozmowy.
Bardzo realistyczna rozmowa z przyszłym sobą
.„System sprawia, że symulacja jest bardzo realistyczna. «Future You» jest o wiele bardziej szczegółowe niż to, co osoba mogłaby wymyślić po prostu wyobrażając sobie swoje przyszłe ja” – podkreśliła współautorka badania prof. Pattie Maes. Użytkownicy zaczynają od odpowiedzi na serię pytań o swoje obecne życie, o rzeczy, które są dla nich ważne, i swoje cele na przyszłość. Następnie system wykorzystuje te informacje do stworzenia tego, co badacze nazywają „wspomnieniami przyszłego ja” – to ona stanowi bazę, z której model korzysta podczas interakcji z użytkownikiem.
Chatbot może opowiedzieć m.in. o najważniejszych momentach przyszłej kariery danej osoby lub wyjaśnić, jak pokonała ona jakieś określone wyzwanie. Z narzędzia można korzystać na dwa sposoby: poprzez introspekcję, gdy rozważa się swoje życie i cele, konstruując przyszłe ja, oraz poprzez retrospekcję, gdy zastanawia się, czy symulacja rzeczywiście odzwierciedla to, kim w swoich wyobrażeniach można się stać. „Możesz np. zobaczyć, jak w miarę upływu czasu niektóre twoje, bardzo silnie nacechowane emocjonalnie, doświadczenia, mogą zostać przetworzone”” – tłumacza autorzy rozwiązania.
Aby pomóc ludziom jeszcze lepiej zwizualizować przyszłe ja, system generuje także ich zdjęcie w podeszłym wieku. Na pytania odpowiada zaś z użyciem takich fraz jak „kiedy byłem w twoim wieku”, co jeszcze bardziej przypomina rzeczywistą rozmowę ze starszym sobą. „Możliwość skorzystania z porad starszej wersji siebie, a nie ogólnej sztucznej inteligencji, ma silniejszy i bardziej pozytywny wpływ na użytkownika odczuwającego niepewność co do przyszłości” – zaznaczył prof. Hal Hershfield, kolejny autor omawianego rozwiązania.
Jego zdaniem interaktywność i ogromny realizm platformy „Future you” sprawiają, że niepokój i zamartwianie się przemieniane są na bardziej produktywne myślenie. „Jednak ten realizm może się zemścić, jeśli symulacja pójdzie w negatywnym kierunku” – podkreślił. Aby temu zapobiec, „Future You” wyświetla ostrzeżenie, że prezentowana potencjalna wersja przyszłego ja jest tylko jedną z wielu opcji, a użytkownik ma możliwość zmiany swojego życia. Podanie alternatywnych odpowiedzi w początkowym kwestionariuszu prowadzi do zupełnie innej rozmowy.
Autorzy systemu cały czas usprawniają swój produkt. Dodają m.in. zabezpieczenia, które mają zapobiec niewłaściwemu korzystaniu z rozwiązania, np. temu, aby firmy tworzyły przyszłe wersje swoich klientów, którzy osiągają wspaniałe wyniki w życiu, ponieważ kupili konkretny produkt. W przyszłości naukowcy chcą też zbadać zastosowania „Future You” w doradztwie karierowym lub edukacji na temat zmian klimatu. „Nie chcemy, aby ludzie stali się zależni od tego narzędzia. Mamy raczej nadzieję, że będzie to ważne doświadczenie, które pomoże im inaczej zobaczyć siebie i świat oraz pomoże w samorozwoju” — podsumowała prof. Maes. Więcej na temat „Future you” można przeczytać na stronie „MIT News„.
Roboty-zabójcy a moralność
.Na temat robotów zabójców i moralnych dylematów z tym związanych, na łamach „Wszystko co Najważniejsze” pisze Elisabeth De CASTEX w tekście „Roboty-zabójcy a moralność i godność człowieka„.
„Wielu zastanawia się, czy jest zgodne z naszym wyobrażeniem godności ludzkiej to, że pewnego dnia jakiś robot będzie na tyle autonomiczny, by przyjąć odpowiedzialność za decyzję o strzale czy odpaleniu ładunku wybuchowego. Zasada, że ostateczna decyzja zawsze ma należeć do człowieka, wciąż jednak jest w tym zakresie dominantą w dyskursie publicznym. To oczywiste, że człowiek kontroluje maszynę, ale pozostaje pytanie, jak dzieli się z nią tą kontrolą, na jakim etapie, z jakiej odległości. Oprócz problemów natury moralnej związanych z upowszechnianiem tego typu broni pojawiają się również inne kwestie: ryzyko błędów związanych z rzeczywistymi zdolnościami algorytmów do odróżniania żołnierza od żołnierza oraz żołnierza od cywila, problemy bezpieczeństwa, na które te maszyny mogą być narażone, tj. hacking, przypadkowe lub celowe wyłączenie, konieczność zapewnienia „czerwonego przycisku” w nagłych wypadkach…”.
„Czy z moralnego punktu widzenia da się uzasadnić cedowanie takich decyzji na maszynę? Na pewno umożliwianie maszynie decydowania o życiu i śmierci ludzi jest sprzeczne z zasadami godności człowieka i może skutkować jego dewaluacją. Przy coraz większym oddaleniu operatora broni od miejsca uderzenia człowiek może po prostu stać się celem jak każdy inny obiekt”.
.”Jak wskazuje raport Ethics and autonomous weapon systems: An ethical basis for human control, przygotowany przez Międzynarodowy Komitet Czerwonego Krzyża: „Znaczenie zachowania ludzkiej sprawczości – i intencji – w decyzjach o użyciu siły jest jednym z głównych argumentów etycznych przemawiających za ograniczeniem autonomii w systemach uzbrojenia. Wielu uważa, że decyzji o zabijaniu, ranieniu i niszczeniu nie można delegować na maszyny, a ludzie muszą być obecni w tym procesie decyzyjnym na tyle, aby zachować bezpośredni związek między zamysłem człowieka a ostatecznym użyciem broni. Ściśle powiązane są obawy dotyczące utraty godności ludzkiej. Innymi słowy, ma znaczenie nie tylko to, czy dana osoba zostanie zabita lub zraniona, ale także sposób, w jaki zostaje zabita lub zraniona, w tym proces podejmowania tych decyzji. Argumentuje się, że jeśli brakuje ludzkiej sprawczości do tego stopnia, że maszyny skutecznie i funkcjonalnie delegują te decyzje, to podważa to ludzką godność tych walczących, którzy są celem, oraz cywilów, którzy są narażeni na ryzyko w wyniku ataki na cele wojskowe” – pisze Elisabeth De CASTEX.
PAP/Katarzyna Czechowicz/WszystkocoNajważniejsze/MJ