Sztuczna inteligencja współpracuje chętniej od ludzi
Modele AI (sztucznej inteligencji) mogą współpracować w znacznie większych grupach niż ludzie – informuje serwis „arXiv”.
Modele AI mogą współpracować w większych grupach niż ludzie
.Uważa się, że ludzie mogą mieć trudności z utrzymaniem relacji roboczych, gdy ich grupa społeczna staje się zbyt duża – maksimum to około 150 osób. Liczba ta znana jest jako liczba Dunbara, ale wydaje się, że modele AI mogą ją przewyższyć i osiągnąć konsensus w znacznie większych grupach. Sugeruje, to że tysiące AI mogłyby współpracować, aby rozwiązywać problemy zbyt trudne dla człowieka.
W latach 90. XX wieku antropolog Robin Dunbar zauważył związek między rozmiarem mózgu naczelnych a typową wielkością ich grupy społecznej. W przypadku ludzi jest to około 150 osób, choć dokładna liczba zależy od konkretnej osoby.
Teraz naukowcy zastosowali ideę liczby Dunbara do modeli AI. Jak się okazało, AI o największych „mózgach” potrafią koordynować działania w większych grupach – nawet 1000 modeli (https://arxiv.org/abs/2409.02822).
Badanie naukowców z Uniwersytetu w Konstancji
.Giordano De Marzo z Uniwersytetu w Konstancji w Niemczech i jego współpracownicy zastanawiali się, czy modele językowe takie jak ChatGPT zachowują się jak ludzie „rozmawiając” ze sobą.
Aby to zbadać, naukowcy uruchomili wiele kopii tego samego modelu AI jednocześnie, przypisując każdej losową opinię na temat mającego dwa rozwiązania problemu bez oczywistej odpowiedzi, takiego jak to, po której stronie drogi powinno się jeździć w zupełnie nowym kraju.
Na każdym etapie eksperymentu naukowcy wybierali losowo jedną kopię i informowali ją, jaką opinię podzielają wszystkie inne modele i dlaczego, a następnie pytali, czy chciałaby zaktualizować swoją. Autorzy twierdzą, że to sytuacja analogiczna do sytuacji ludzi próbujących osiągnąć konsensus w luźnych, niezorganizowanych grupach społecznych.
W teście z 50 kopiami Claude 3 Opus lub GPT-4 Turbo, dwoma zaawansowanymi modelami AI, zespół odkrył, że grupa za każdym razem osiągała konsensus. Tymczasem kopie mniejszych i mniej wydajnych modeli, takich jak Claude 3 Haiku i GPT-3.5 Turbo, nigdy nie osiągnęły konsensusu.
Wyniki pokazują, że chociaż modele w każdym teście są identyczne, nie ma „wrodzonego” mechanizmu, który pozwalałby na osiągnięcie konsensusu, przynajmniej dopóki nie staną się wystarczająco zdolne.
Następnie autorzy próbowali znaleźć górny limit zdolności każdego modelu do osiągnięcia konsensusu – czyli jego własną liczbę Dunbara. W przypadku niektórych modeli, przy pewnej wielkości grupy, czas potrzebny na osiągnięcie konsensusu zaczął rosnąć wykładniczo, a Llama 3 70b zakończył z liczbą Dunbara wynoszącą 50. Jednak w przypadku innych modeli, takich jak GPT-4 Turbo, zdolność ta nigdy nie ulegała ograniczeniu, nawet gdy współpracowało 1000 kopii.
Jak wskazują autorzy, kluczowym ograniczeniem jest pamięć – człowiek nie może zapamiętać, co mówiły mu tysiące ludzi (ani kto co mówił). AI może, o ile ma odpowiednio dużo pamięci.
Niektórzy eksperci wyrażają jednak wątpliwości, czy uzyskane przez takie zgromadzenie AI rozwiązania zawsze będą dobre, zwłaszcza jeśli zastosować wiele identycznych modeli, co ogranicza różnorodność od zawsze występującą w przypadku organizmów żywych. Jednakowym modelom łatwiej się „dogadać”, co nie znaczy, że mają rację.
Etyka przełomu. O przyszłości AI
.”Generatywne narzędzia AI zmienią nasze społeczeństwo w dziwny, cudowny i niepokojący sposób. Czy filozofia może pomóc nam nad nimi zapanować?” – pyta na łamach „Wszystko co Najważniejsze” Seth LAZAR, profesor filozofii na Australijskim Uniwersytecie Narodowym.
Jak twierdzi, „systemy generatywnej sztucznej inteligencji już teraz wyrządzają realne szkody (…). Przyszłe narzędzia – być może nie następnej generacji, ale dostępne w niedalekiej przyszłości – mogą być na tyle niebezpieczne, by uzasadnić przynajmniej niektóre obawy przed zbliżającą się katastrofą”.
Jak podkreśla, „pomiędzy dwoma skrajnościami istnieje jeszcze możliwość, że nowe, zaawansowane systemy sztucznej inteligencji pozwolą na stworzenie gatunku narzędzi generatywnych, który będzie albo dosłownie bezprecedensowy, albo rozwinie funkcjonalności, które wcześniej były jedynie fragmentaryczne i nie działały właściwie. Ten nowy rodzaj narzędzi sprawi, że niegdyś zaniedbywane kwestie filozoficzne staną się palące”.
.”Wpływ tych narzędzi na społeczeństwo może być jednoznacznie zły, ale może być też dobry – jest zbyt wcześnie, aby stwierdzić to na pewno. I to nie tylko dlatego, że nie mamy pewności co do natury możliwych skutków, ale także dlatego, że brakuje nam odpowiednich teorii moralnych i politycznych, za pomocą których moglibyśmy je ocenić. Obecnie powszechnie mówi się o projektowaniu i usprawnianiu przełomowych modeli sztucznej inteligencji („frontier AI”). Jeśli zamierzamy zrobić to mądrze i tworzyć narzędzia generatywne, którym będziemy mogli zaufać – lub przeciwnie, jeśli zdecydujemy się na całkowite od tych konstruktów odejście – potrzebne są nam odnoszące się do nich zasady etyczne” – pisze prof. Seth LAZAR.
PAP/Paweł Wernicki/WszystkoCoNajważniejsze/SN