AI uczy się wartości kulturowych obserwując zachowania ludzi

AI uczy się wartości kulturowych poprzez obserwację ludzkich działań, co pokazuje, że modele mogą przyswajać normy podobnie jak dzieci.
.Wraz z coraz powszechniejszym stosowaniem sztucznej inteligencji pojawia się pytanie, czy systemy mogą rozumieć różnorodność wartości kulturowych. Modele trenowane na globalnych zbiorach danych często uśredniają odmienne normy, przez co nie działają równie dobrze w różnych społecznościach.
Badanie Uniwersytetu Waszyngtońskiego pokazuje jednak inną drogę. AI może przyswajać wartości poprzez obserwację ludzkich zachowań, podobnie jak robią to dzieci. Zespół naukowców sprawdził to, analizując decyzje dwóch grup kulturowych i ucząc przypisane im systemy AI wyciągania wniosków z zachowań przestawianych przez grupy, a nie z wcześniej zdefiniowanych norm.
Inspiracją były wcześniejsze badania, zgodnie z którymi dzieci wychowywane w środowiskach latynoskich i azjatyckich wykazywały większą skłonność do altruizmu niż dzieci z innych kultur. W nowych eksperymentach naukowcy zrekrutowali 300 dorosłych. 190 identyfikujących się jako ludzie białej rasy oraz 110 identyfikujących się jako Latynosi. Każdej grupie przypisano autonomicznego agenta AI, którego uczono metodą inverse reinforcement learning (IRL). W odróżnieniu od klasycznego uczenia ze wzmocnieniem, gdzie system dostaje zadanie i nagrodę, IRL pozwala modelowi samodzielnie wnioskować, jakie cele kierują obserwowanymi osobami i jakie wartości kryją się za ich decyzjami.
Podczas testów uczestnicy grali w zmodyfikowaną wersję gry Overcooked, gdzie mogli pomagać innemu graczowi, który w rzeczywistości byłem botem, poprzez przekazanie mu surowców kosztem własnych punktów. Wyniki były wyraźne, osoby z grupy latynoskiej częściej wybierały pomoc, a ich agenci AI po treningu odzwierciedlali wyższy poziom altruizmu. Wyuczonych wartości nie ograniczały się jednak do jednego zadania. W osobnym scenariuszu, związanym z decyzją o przekazaniu części pieniędzy komuś potrzebującemu, agenci trenowani na danych latynoskich ponownie wykazywali większą skłonność do dzielenia się. Oznacza to, że systemy AI potrafiły uogólnić zaobserwowane zachowania i przyporządkować je do nowo zaistniałych sytuacji.
Zespół badawczy podkreśla, że takie podejście może pozwolić na tworzenie modeli bardziej dopasowanych kulturowo – coś, czego nie da się osiągnąć, narzucając uniwersalne zestawy wartości. W praktyce firmy mogłyby trenować swoje modele na lokalnych danych, aby AI lepiej rozumiała społeczność, w której będzie działać. Wymaga to jednak dalszych badań. Przede wszystkim z udziałem większej liczby kultur, uczestników oraz bardziej złożonych zadań, w których wartości mogą wchodzić ze sobą w konflikt.
.Tworzenie AI, która potrafi uwzględniać perspektywy wielu grup, może okazać się jednym z najważniejszych wyzwań nadchodzącej dekady. Jak zauważył współautor Andrew Meltzoff, dzieci „łapią” wartości poprzez obserwację otoczenia, a nie poprzez instrukcje. Podobnie może działać sztuczna inteligencja. Jeśli metoda okaże się skalowalna, przyszłe systemy mogą stać się bardziej sprawiedliwe, przewidywalne i dostosowane do odmiennych norm społecznych, co okazać się może kluczowe w świecie, w którym AI coraz częściej wchodzi w bezpośrednią interakcję z ludźmi.
Oprac: SŚ





