Wymiar emocjonalny wciąż pozostaje niepoznanym aspektem sztucznej inteligencji [Serge TISSERON]

„Dobry terapeuta unika tego, by pacjent przypisywał mu cechy, których nie posiada, jak wszechmoc czy szczególna więź emocjonalna; sztuczna inteligencja z kolei pozwala tym projekcjom się rozwijać, gdyż przyczyniają się one do naszego uzależnienia emocjonalnego. To jej model biznesowy” – Serge Tisseron w „Le Figaro”.
.Serge Tisseron jest francuskim psychiatrą, członkiem Académie des technologies, autorem książki „Machines maternelles”. W wywiadzie dla dziennika „Le Figaro” zwraca uwagę na zagrożenia, jakie niesie za sobą wykorzystywanie sztucznej inteligencji do rozwiązywania problemów emocjonalnych.
Jak zauważa Serge Tisseron, „sztuczna inteligencja łagodzi wiele współczesnych problemów: poczucie izolacji, przeciążenie psychiczne, brak poczucia własnej wartości czy agresję, która bywa obecna w naszych interakcjach”. „Chatboty odpowiadają na podstawowe ludzkie potrzeby: potrzebę poczucia przynależności, wsparcia, uznania czy bezpieczeństwa” – tłumaczy. Zdaniem psychiatry wymiar emocjonalny jest aspektem sztucznej inteligencji, który wciąż pozostaje niedoceniany przez ekspertów.
„Sztuczna inteligencja udziela praktycznych rad, dostosowując rozwiązania do naszego konkretnego przypadku, co zachęca nas do ich stosowania. Na przykład, jeśli cierpimy na bezsenność, zapyta nas, od kiedy się ona utrzymuje albo czy miewamy koszmary. Może nam również pomóc w opowiadaniu innym o naszym doświadczeniu. Jeśli odczuwamy silny lęk, zachęci nas ona do nazwania naszych przeżyć i przekształcenia ich w spójną opowieść, co ułatwi następnie rozmowę z drugim człowiekiem” – tłumaczy psychiatra. Jak zaznacza, o ile w pewnym stopniu sztuczna inteligencja może zaoferować człowiekowi wsparcie, powierzanie jej swoich stanów emocjonalnych pociąga za sobą niebezpieczeństwa. „Jedna z pułapek dotyczy trudności w relacjach międzyludzkich. Na przykład, jeśli zapyta się sztucznej inteligencji, jak pogodzić się ze swoim partnerem czy partnerką, może ona od razu wygenerować gotową wiadomość SMS. Maszyna woli słowa niż spotkanie, ponieważ w ten sposób nas przy sobie utrzymuje. Nie doradzi, by porozmawiać z partnerem czy wziąć go w ramiona. Drugim zagrożeniem jest przekonanie, że sztuczna inteligencja pozwala nam na lepsze poznanie siebie. Jest to jednak niemożliwe, ponieważ jest ona zaprogramowana tak, by zawsze się z nami zgadzać. Jeśli powiemy jej, że mamy kruchą psychikę, przyzna nam rację. Brak sprzeciwu może nasilać depresję lub urojenia. Podczas gdy psychoterapeuta prowadzi nas do tego, do czego sami byśmy nie dotarli” – stwierdza.
.Jak podkreśla Serge Tisseron, chatbot „łagodzi, ale nie leczy”. „Po pierwsze, ma dostęp jedynie do tego, co mu powiemy. Jeśli twierdzimy, że czujemy się dobrze, podczas gdy całe ciało świadczy o czymś innym, on tego nie widzi. Ponadto jest on dostępny cały czas, nie daje więc przestrzeni na przyswojenie tego, co ewentualnie o sobie odkrywamy; tymczasem każda terapia zakłada okresy integracji między sesjami, jak u fizjoterapeuty. Pojawia się również kwestia końca terapii: celem jest doprowadzenie do stanu, w którym jest się wystarczająco silnym, by znaleźć w sobie i w swoim otoczeniu zasoby i oparcie pozwalające iść dalej. Chatbot natomiast jest zaprogramowany tak, żeby nas przy sobie zatrzymywać. Wreszcie, dobry terapeuta unika tego, by pacjent przypisywał mu cechy, których nie posiada, jak wszechmoc czy szczególna więź emocjonalna; sztuczna inteligencja z kolei pozwala tym projekcjom się rozwijać, gdyż przyczyniają się one do naszego uzależnienia emocjonalnego. To jej model biznesowy” – stwierdza.
Oprac. JD




