Digital afterlife, czyli cyfrowe życie po śmierci [Tomasz HOLLANEK]

cyfrowe życie po śmierci

Coraz więcej osób wykorzystuje sztuczną inteligencję, by odzyskać namiastkę kontaktu ze zmarłymi lub zapewnić sobie „cyfrowe życie po śmierci” – powiedział etyk dr Tomasz Hollanek. Komercjalizacja takich technologii to ryzykowny eksperyment, dotykający wyjątkowo wrażliwej sfery emocji – dodał.

Na czym polega cyfrowe życie po śmierci?

.Pomysł na „cyfrowe życie po śmierci” nie jest nowy. Od lat powstają aplikacje i serwisy pozwalające zachować wspomnienia o zmarłych w formie cyfrowej – wyjaśnił w rozmowie dr Tomasz Hollanek z Uniwersytetu w Cambridge, etyk zajmujący się problemami sztucznej inteligencji. Nowoczesne modele AI nadały jednak tym pomysłom zupełnie nowy wymiar – umożliwiły tworzenie czatbotów, które potrafią mówić i zachowywać się jak konkretna osoba, także taka, która już nie żyje. Takie programy określa się mianem „deadbotów” lub „griefbotów”.

Najwięcej kontrowersji budzą narzędzia pozwalające na cyfrowe „wskrzeszenie” zmarłej osoby. Dziś chatbota można stosunkowo łatwo zaprogramować tak, aby odpowiadał w sposób przypominający styl mówienia konkretnego celebryty czy polityka. Systemy te analizują unikalne słownictwo i sposób formułowania zdań w publicznych wypowiedziach danej osoby, a następnie starają się odwzorować te cechy. Podobnie, na podstawie nagrań rozmów czy wymienionych wiadomości, możliwe jest odtworzenie sposobu komunikowania się zmarłego bliskiego.

Ekspert wskazał, że taki sposób na „rozmowę” z nieżyjącą osobą niesie dużo problemów etycznych. Od zmarłych nie da się uzyskać zgody na wykorzystanie ich danych i wizerunku. Nie mogą oni także wyrazić sprzeciwu, jeśli bot w ich imieniu powie coś, z czym sami by się nie zgodzili. Na te wyzwania odpowiada druga kategoria produktów w sektorze digital afterlife – przeznaczona dla osób, które za życia świadomie gromadzą własne dane, aby stworzyć swoją pośmiertną reprezentację. – To narzędzia, które w pewnym sensie pozwalają kontrolować, w jaki sposób inni będą nas pamiętać – wyjaśnił dr Tomasz Hollanek.

„Deadboty” oraz „griefboty”

.Świadomie tworzone griefboty nie są jednak całkowicie wolne od zagrożeń – związanych np. z tym, jak „cyfrowy duch” jest odbierany przez bliskich. Badacz zaznaczył też, że – poza zastosowaniami prywatnymi – istnieją produkty mające na celu odtworzenie postaci publicznych lub historycznych, by zachować ich świadectwo. – Możemy mówić np. o projektach, które pozwalają w nowym formacie przechować wspomnienia osób, które przeżyły Holokaust lub inne konflikty – dodał.

Jak wyjaśnił dr Tomasz Hollanek, trudno oszacować, ile osób korzysta w ten sposób z nowych technologii, ponieważ griefbota można stworzyć zarówno przy użyciu specjalistycznych rozwiązań, jak i powszechnie dostępnych narzędzi. Nawet ChatGPT można zaprogramować tak, aby udawał konkretną osobę.

Badacz wyjaśnił, że największe podmioty w tej branży pochodzą z USA i Korei Południowej. Coraz częściej pojawiają się także firmy europejskie, m.in. z Niemiec i Włoch. Oferta obejmuje zarówno rozwiązania tanie, jak i produkty kosztujące kilkanaście tysięcy euro lub więcej.

Cyfrowa nieśmiertelność – jak zapatrują się na nią różne kultury?

.Dr Tomasz Hollanek uczestniczy obecnie w projekcie badawczym, kierowanym przez dr Katarzynę Nowaczyk-Basińską, analizującym międzykulturowe różnice w postrzeganiu cyfrowej nieśmiertelności. Naukowcy porównują postawy wobec tego zjawiska na podstawie badań fokusowych w Polsce, Indiach i Chinach oraz rozmów z ekspertami zajmującymi się problematyką śmierci.

Badacz zwrócił uwagę, że we wszystkich badanych grupach pojawiały się obawy związane z dominacją w branży prywatnych, nastawionych na zysk podmiotów. – Pojawia się pytanie, czy taki model biznesowy powinien w ogóle obejmować produkty związane z tak delikatną sferą, jak śmierć, żałoba czy godzenie się z własną doczesnością – powiedział.

Jednocześnie większość ekspertów nie sprzeciwiała się kategorycznie eksperymentom z technologią, wskazywali jednak na pilną potrzebę regulacji. W kontekście praktyki prawnej dr Tomasz Hollanek podkreślił rolę rozporządzenia UE w sprawie AI, które nakłada na producentów czatbotów obowiązek wyraźnego informowania użytkowników, że wchodzą w interakcję ze sztuczną inteligencją, a nie człowiekiem. W Stanach Zjednoczonych trwają rozmowy nad ochroną wizerunku po śmierci. Branża pozostaje w dużej mierze nieregulowana. To, co firmy teraz robią, jest wielkim eksperymentem w obszarze wyjątkowo wrażliwym – podsumował dr Tomasz Hollanek.

Człowiek i sztuczna inteligencja

.Elektryfikacja spowodowała pasywny tryb życia fizycznego. Obecna wersja AI prowadzi nas do pasywnego trybu życia intelektualnego. Pasywny tryb życia fizycznego dotyczy mięśni, a pasywny tryb życia intelektualnego dotyczy naszego umysłu czy jak kto woli – duszy – pisze Marek TARNOWSKI.

„Tempo dokonywania nowych cudów będzie ogromne. Trudno sobie dziś nawet wyobrazić, co odkryjemy do 2035 roku; może przejdziemy od rozwiązywania problemów fizyki wysokich energii w jednym roku do rozpoczęcia kolonizacji kosmosu w następnym; albo od przełomu w materiałoznawstwie w jednym roku do prawdziwych interfejsów mózg-komputer o wysokiej przepustowości w kolejnym roku. Wiele osób zdecyduje się żyć w dotychczasowy sposób, ale przynajmniej niektórzy prawdopodobnie zdecydują się »podłączyć«”
Sam Altman, prezes Open AI, lipiec 2025.

Wstyczniu 1952 roku odbyła się w BBC niezwykła debata. Z jednej strony zasiadł znany brytyjski neurochirurg Geoffrey Jefferson, a z drugiej autor koncepcji „myślącej maszyny” Allan Turing. Rzecz dotyczyła – również dzisiaj niezwykle aktualnego – pytania, czy możemy uznać, że maszyny mogą samodzielnie myśleć.

Turing, wybitny matematyk, był znanym obrońcą tezy o możliwym myśleniu maszyn, tyle że starał się pokazać nieco inne rozumienie tego problemu. Twierdził, że należy najpierw zdefiniować, co to znaczy „myśleć” i co to jest „maszyna”. W efekcie jego rozumowania pojawiła się formuła pytania o możliwe naśladownictwo człowieka przez maszynę, tzw. „imitation game”. Opisał całość takiej procedury (A. Turing, Computing Machinery and Intelligence, 1950), która od tamtego momentu jest określana mianem „testu Turinga”. Chodzi o to, twierdził Turing, czy potrafimy rozpoznać, że rozmawiamy z maszyną, a nie z człowiekiem. Jeśli nie potrafimy rozróżnić pracy maszyny od pracy ludzkiego mózgu, to znaczy, że mamy do czynienia z myśleniem maszyny, czyli ze sztuczną inteligencją.

Z kolei Jefferson stał na przeciwnym biegunie. Uważał, że „zgodzimy się uznać maszynę za równą mózgowi dopiero wtedy, gdy niesiona własnymi uczuciami i myślami napisze sonet lub skomponuje koncert – to znaczy: nie tylko napisze, ale będzie wiedziała, że to zrobiła”. Prezentował przekonanie, że mózg człowieka, jego umysł, świadomość, zmysły i reszta ciała są jakąś całością. Z tego powodu uważał, że sam proces myślenia jest czymś, w co musi być zaangażowane całe ludzkie ciało, nie tylko mózg. Wiele zainteresowań ludzkich, twierdził Jefferson, bierze się z żądz, pragnień, obsesji, instynktów, a często z bogactwa rozmaitych stanów emocjonalnych. „Maszyny nie potrafią się rumienić” – miał wówczas zareagować na słowa słynnego neurochirurga jeden z prowadzących debatę.

Temperatura wymiany zdań na tyle wymknęła się spod kontroli uczestników spotkania, że dbające wówczas o dobre obyczaje BBC musiało wycinać przed emisją niektóre fragmenty dyskusji. Kiedy rozmowa zeszła do roli męskich żądz w procesach twórczego myślenia, w pewnym momencie Jefferson oświadczył nawet, że nie uwierzy w samodzielne myślenie komputera, póki ten nie dotknie nogi jakiejś ponętnej „komputerki”.

.Wydają się już całkowicie rozstrzygnięte. Dociera do nas całe mnóstwo szczegółowych opinii, analiz, prognoz i przestróg w wykonaniu ekspertów od sztucznej inteligencji, czyli AI-ekspertów. To zazwyczaj naukowcy, którzy w międzyczasie stali się nawet AI-celebrytami, tzn. osobami uzależnionymi od swojej obecności w mediach.

LINK DO TEKSTU: https://wszystkoconajwazniejsze.pl/pepites/sztuczna-inteligencja-daje-plytsza-wiedze-niz-wyszukiwarki-internetowe/

PAP/Wojciech Steć/MJ

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 1 listopada 2025