Polscy naukowcy badają, dlaczego sztuczna inteligencja nie rozumie żartów

Polscy naukowcy badają, dlaczego sztuczna inteligencja nie rozumie żartów

Zespół naukowców z Politechniki Wrocławskiej (PWr) prowadzi pionierskie badania nad zastosowaniem głębokich modeli językowych do oceny zadań subiektywnych w rozwoju sztucznej inteligencji. Badania mają dać odpowiedź na pytanie, dlaczego sztuczna inteligencja nie rozumie żartów użytkownika i pomóc rozwinąć jej funkcję przetwarzania mowy tak, by umiała rozpoznać poczucie humoru użytkownika.

.W przetwarzaniu języka naturalnego na ogół ważne było dotąd uczenie algorytmów pewnych ogólnych, dających się obiektywnie stwierdzić zasad. Dzięki temu sztuczna inteligencja rozumiała znaczenie słów, poprawność językową, rozpoznawała pismo odręczne czy język tekstu.

Nie umiała jednak wywołać swoim „żartem” salw śmiechu, ponieważ na razie AI uznaje na razie za śmieszne tylko to, co za śmieszne może uznać większość osób, a nie konkretny użytkownik. A do rozpuku śmiejemy się raczej, gdy coś specyficznie nas zaskoczy i trafi w nasz gust. Ten zaś wcale nie musi pokrywać się z gustem większości.

Przyjęło się więc, że aby nauczyć algorytmy tych obiektywnych reguł, trzeba dostarczyć spójnych danych. Np. daje się jakieś zadanie językowe do wykonania wielu ludziom (tzw. anotatorom) i odpowiedź, którą większość z nich oceniła jako prawdziwą – przekazuje do nauki algorytmom. Zadania, w których jest spora rozbieżność zdań, na ogół są na wstępie odrzucane i nie służą algorytmom do nauki.

Są jednak zjawiska językowe, których ocena co do zasady nie jest obiektywna. To choćby zjawiska związane z emocjami. Czy dany tekst cię śmieszy? Czy oburza? Jakie budzi emocje? Różne osoby mogą na to samo pytanie odpowiedzieć zupełnie inaczej i każdy z nich będzie miał rację. Co więc powinny sądzić o tych treściach algorytmy, skoro ludzie nie są zgodni co do ich oceny?

Zdaniem dr. Jana Koconia z Politechniki Wrocławskiej powinniśmy wiedzieć, jak nauczyć algorytmy, że dany użytkownik nie życzy sobie takich a takich treści, jakieś inne treści uważa za szczególnie zabawne, a inne wywołują w nim smutek.

Sztuczna inteligencja a wyczuwanie emocji

„Kiedyś zwrócili się do mnie studenci, którzy chcieli opracować filtr do rozpoznawania mowy nienawiści. Jednak nie ma uniwersalnej definicji, co to jest mowa nienawiści. Każdego z nas obrażają nieco inne treści. Nawet jeśli wiemy, jak odsiewać treści niewątpliwie niezgodne z prawem i opracujemy globalny filtr, to i tak znajdą się osoby, które w treściach znajdą coś, czego nie życzą sobie widzieć” – mówi dr Kocoń.

Stąd pomysł, żeby nauczyć sztuczną inteligencję subiektywnych ocen. W czasie uczenia języka algorytm analizowałby nie tyle decyzję większości badanych, ale odpowiedzi poszczególnych anotatorów i poszukiwałby na tej podstawie spersonalizowanych zależności. W ten sposób uczyłby się, jak przewidywać, które treści spodobają się jednym osobom, a innym – nie.

Jeśli użytkownicy mogliby potem wskazywać algorytmowi, które napotkane treści im się podobają, a które nie – model uczyłby się wrażliwości danego użytkownika.

„Ten pomysł nie jest zupełnie nowy. System rekomendacji YouTube czy Facebooka działa na podobnej zasadzie: znając historię decyzji użytkownika, portale proponują treści, które spodobały się podobnym użytkownikom. Nasz model odnosi się jednak nie tylko do analizy podobieństwa zachowań użytkowników, ale i zjawisk językowych – do analizy reprezentacji ocenianych treści” – opisuje dr Kocoń.

„Mamy pomysł i wiemy, jak go zrealizować, ale warto zastanowić się też, jakie byłyby tego konsekwencje. Czy jeśli odetniemy od siebie wszelkie nieprzyjemne i nie pasujące do naszego światopoglądu treści, to jeszcze bardziej nie zamkniemy się w bańkach informacyjnych i nie zaczniemy żyć w swoich utopiach?” – zastanawia się naukowiec.

Jego zdaniem jednak wiedza o subiektywnych ocenach przyda się w usprawnieniu komunikacji na linii komputer-człowiek.

„Społeczeństwo się starzeje. Możemy sobie wyobrazić, że w przyszłości będą istniały roboty do opieki nad osobami starszymi, z którymi będzie się można porozumieć językiem naturalnym” – tłumaczy Jan Kocoń z PWr. I dodaje, że jeśli komunikacja ma przebiegać sprawnie, algorytmy powinny umieć dostosować się swoją wrażliwością do potrzeb konkretnego użytkownika.

Trzy mity o sztucznej inteligencji

.Postawione przez naukowców z Wrocławia pytanie – o granice rozwoju sztucznej inteligencji – od dawna rozpala umysły naukowców różnych dziedzin. W tym, co jedni widzą szansę – inni dostrzegają zagrożenia. Ciekawie dyskusję próbowała uporządkować na łamach „Wszystko co Najważniejsze” Ewa FABIAN, warszawska adwokat, entuzjastka nowych technologii i alumna na Politechnice Warszawskiej. W swoim tekście wypunktowała różne mity na temat AI.

Jej zdaniem laikowi najtrudniej jest pojąć, że pracując nad funkcjonalnościami sieci neuronowych informatycy musieli porzucić kontrolę nad maszyną. „Przyzwyczailiśmy się do myślenia, że skoro algorytmy są logiczne, komputery wygrywają w grach logicznych, to cała populacja robotów czy aplikacji będzie zachowywać się logicznie i przewidywalnie. To przekonanie niestety trzeba włożyć między bajki. Okazuje się bowiem, że w sieciach neuronowych poszczególne „neurony” po prostu są, po czym metodą prób i błędów zaczynają tworzyć wzory relacji do innych neuronów, od razu w wielu „wymiarach”, a cały system zapamiętuje efekty tego treningu i wyciąga z niego wnioski.” – pisze Ewa Fabian. 

PAP/Ludwika Tomala/WszystkocoNajważniejsze/ad

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 11 kwietnia 2023