Wobec świadomości AI jedyną racjonalną postawą jest agnostycyzm

Nie da się stwierdzić, czy sztuczna inteligencja jest lub kiedykolwiek będzie świadoma – twierdzi filozof z Uniwersytetu Cambridge. Jedyną racjonalną postawą wobec tej kwestii jest jego zdaniem agnostycyzm.
Sztuczna inteligencja i jej świadomość
.Ta luka w wiedzy może być jednak wykorzystywana przez branżę technologiczną do podsycania narracji o kolejnym poziomie zaawansowania AI. Zdaniem dr. Toma McClellanda z Uniwersytetu Cambridge nasza wiedza o świadomości jest zbyt ograniczona, by pozwalała ocenić, czy i kiedy systemy sztucznej inteligencji mogłyby ją posiąść. Dotyczy to zarówno obecnych, jak i przyszłych technologii, a także wszelkich testów, które miałyby taką świadomość wykrywać.
Jak podkreślił w artykule opublikowanym na łamach „Mind & Language”, wraz z tym, jak koncepcja świadomej sztucznej inteligencji przestaje być wyłącznie motywem science fiction, coraz częściej pojawiają się rozważania etyczne dotyczące jej ewentualnych praw. Jego zdaniem sama świadomość nie wystarcza jednak, by uznać, że mamy wobec AI obowiązki moralne. Decydujące znaczenie ma konkretny typ świadomości. W przypadku rozważań etycznych liczy się ta związana ze zdolnością do odczuwania stanów pozytywnych i negatywnych.
Naukowiec wyjaśnił, że o istnieniu świadomej sztucznej inteligencji można by potencjalnie mówić już wtedy, gdyby była ona zdolna do odbierania bodźców i rozpoznawania samej siebie. Nie oznaczałoby to jednak jeszcze zdolności do odczuwania. Jak podkreślił, dopiero możliwość cierpienia lub doświadczania przyjemności rodzi rzeczywisty problem etyczny. Dodał, że nawet jeśli przypadkowo powstałaby świadoma AI, mało prawdopodobne jest, by była to forma świadomości wymagająca ochrony moralnej.
– Autonomiczny samochód, który odbiera i przetwarza informacje o otoczeniu, czyli „doświadcza” drogi, byłby ogromnym osiągnięciem technologicznym, ale z etycznego punktu widzenia nie miałoby to znaczenia. Inaczej byłoby dopiero wówczas, gdyby ten system zaczął emocjonalnie reagować na swój cel – zobrazował McClelland.
Sztuczna inteligencja i jej rozwój
.Badacz zwrócił też uwagę, że w debacie dotyczącej sztucznej świadomości istnieją dwa główne obozy. Część ekspertów uważa, że jeśli system AI zdoła odtworzyć „oprogramowanie” świadomości, czyli jej funkcjonalną architekturę, stanie się świadomy, nawet jeśli działa na układach krzemowych, a nie na tkance mózgowej. Druga grupa twierdzi, że świadomość zależy od określonych procesów biologicznych zachodzących w żywym organizmie. Ich zdaniem nawet wierne odtworzenie struktury świadomości na krzemie prowadziłoby jedynie do symulacji, a nie uzyskania rzeczywistej świadomości.
– Tymczasem nie ma dowodów ani na to, że świadomość jest wyłącznie zjawiskiem obliczeniowym, ani na to, że jest z definicji biologiczna. Obie strony tego sporu opierają swoje stanowiska na założeniach wykraczających poza dostępne dane – zaznaczył McClelland.
Przypomniał, że w codziennym życiu ludzie często opierają się na intuicji, oceniając, czy inne istoty, np. koty, są świadome. Jednak taka intuicja kształtowała się w świecie, w którym istniały wyłącznie biologiczne formy życia, dlatego nie może być wiarygodnym narzędziem do oceniania sztucznej inteligencji. – A skoro ani intuicja, ani dostępne dane nie pozwalają udzielić jednoznacznej odpowiedzi, jedyną uzasadnioną postawą pozostaje agnostycyzm – powiedział.
Jego zdaniem dotyczy to nie tylko obecnej sytuacji – być może nigdy nie będziemy w stanie stwierdzić, czy sztuczna inteligencja ma świadomość. Złożoność tego problemu powoduje, zdaniem naukowca, że pojawia się przestrzeń dla narracji pozanaukowych. W jego ocenie wykorzystuje to branża technologiczna. Ocenił, że sposób promowania idei sztucznej świadomości, w połączeniu z niemożnością jednoznacznego udowodnienia jej istnienia, jest wykorzystywany przez marketingowców do formułowania przesadzonych twierdzeń na temat możliwości AI, co pozwala firmom sprzedawać wizję „kolejnego poziomu” rozwoju sztucznej inteligencji.
Ma to, jak stwierdził McClelland, konsekwencje etyczne, ponieważ może wpływać na to, jak rozdysponowywane będą środki na badania. Np. coraz więcej badań sugeruje możliwość odczuwania cierpienia przez krewetki, podczas gdy co roku zabija się ich ok. pół biliona. I choć badanie świadomości i zdolności do odczuwania u takich organizmów jest trudne, to i tak nieporównywalnie prostsze niż próby testowania świadomości u AI.
Filozof opowiedział także, że czasami ludzie piszą do niego w sprawie modeli językowych, z których korzystają. – Zdarza się, że nakłaniają oni takie chatboty do pisania osobistych listów, w których te mają przekonywać o własnej świadomości. Problem staje się szczególnie wyraźny, gdy użytkownicy są przekonani, że mają do czynienia ze świadomymi maszynami, którym przysługują ignorowane przez społeczeństwo prawa – powiedział.
Ostrzegł, że budowanie emocjonalnej więzi z systemem AI na założeniu, że jest on świadomy, może być psychologicznie i egzystencjalnie szkodliwe, zwłaszcza jeśli to założenie jest fałszywe. Niestety zjawisko to jest coraz silniejsze ze względu na przekaz towarzyszący promocji technologii przez branżę.
Nieunikniona rewolucja AI
.Na temat tego jakie szanse i zagrożenia niesie coraz bardziej postępujący rozwój sztucznej inteligencji, na łamach „Wszystko Co Najważniejsze” pisze David LISNARD w tekście „ChatGPT. Problem jest w innym miejscu”.
„Radykalna innowacja z natury niesie ze sobą wielkie ryzyko, proporcjonalne do możliwości, jakie stwarza. U zarania pojawienia się sztucznej inteligencji uczelnia Sciences Po – podobnie jak uczelnie w Nowym Jorku – zabroniła korzystania z niej. Jeśli w świetle ogromu czekających nas wstrząsów obawy są uzasadnione, rozwiązań nie znajdziemy w odrzuceniu, przejawiającym się w skrajnym przypadku ideą spowolnienia gospodarczego, które nie oferuje żadnej wiarygodnej alternatywy i proponuje świat bez innowacji, naznaczony strachem i wycofaniem, społeczeństwo, w którym każdy powinien zredukować swój byt: mniej podróżować, mniej pracować, mniej działać, mniej tworzyć. Mniej żyć”.
„To śmiercionośny projekt polityczny. Musimy pozostać wierni naszym zasadom, które jako jedyne mogą kierować naszymi wyborami w burzliwych czasach: wolność jako nadrzędna wartość, odpowiedzialność jako nieuchronne następstwo wolności, kultura i krytyczne myślenie jako źródła indywidualnej emancypacji i zbiorowej więzi, godność ludzka jako ostateczny i ontologiczny cel”.
„Innowacyjność jest nierozerwalnie związana z życiem, z ludzkością, a teraz z jej przetrwaniem w obliczu wyzwania ekologicznego. Sprzeciw wobec rewolucji AI byłby daremny. Możemy aspirować do rozwijania nauki i świadomości. Taka jest rola polityki. W kwestii sztucznej inteligencji tą świadomością jest wiedza o pochodzeniu treści, o przejrzystości informacji dotyczących narzędzia i jego ograniczeń” – pisze David LISNARD.
LINK DO TEKSTU: https://wszystkoconajwazniejsze.pl/david-lisnard-chatgpt-we-francji/
PAP/ Katarzyna Czechowicz/ LW






