PLLuM czyli polskie zabawy ze sztuczną inteligencją

Rozmawiamy z Ministerstwem Sprawiedliwości, w jaki sposób wykorzystać PLLuM w sądownictwie – powiedział dr hab. inż. Maciej Piasecki z Katedry Sztucznej Inteligencji Politechniki Wrocławskiej. Wyjaśnił, że algorytm może np. podpowiadać sędziom, jak wyszukiwać przepisy, robić badania w kwestii wydanych wyroków.
Czym jest PLLuM?
.Mira Suchodolska: Zacznijmy od tego, czym jest PLLuM? Z tego, co przeczytałam to polski algorytm, wyuczony na polskim języku, który ma być bardziej przyjazny nie tylko dla polskiego, ale również środkowoeuropejskiego użytkownika.
Maciej Piasecki: PLLuM (Polish Large Language Universal Model) jest wynikiem działania algorytmu i modelem językowym, czyli przede wszystkim mechanizmem do generowania tekstów w języku polskim, ale też w wielu innych językach. Mechanizmem bardzo skomplikowanym, bo – w zależności od wersji – składającym się z od ośmiu do 70 mld parametrów, podstawowych elementów. Nasz model generuje teksty będące kontynuacją tego, co podamy mu na wejściu, jako tzw. pobudzenie (ang. prompt). Takim wyzwalaczem może być słowo, zdanie czy cały dokument.
To zabawmy się i wpiszmy obydwoje w okienko swojego PLLuM-a słowo „pies”. O, już mi odpowiedział, że „pies to wierny przyjaciel człowieka”.
Maciej Piasecki: A mnie, że „to ssak, który jest udomowioną formą wilka”, czyli potraktował podane słowo jako zachętę do stworzenia krótkiej definicji, gdyż jest trochę mniej gadatliwy niż np. Chat GPT.
Ta zabawa ze słowem „pies” jest dobrym przykładem, ponieważ pokazuje, że kontynuacji może być wiele – ten model pokazuje nam kilka najbardziej prawdopodobnych, według niego, odpowiedzi, a tak naprawdę analizuje setki tysięcy możliwości.
Setki tysięcy?
Maciej Piasecki: Tak. Ale proszę wziąć pod uwagę, że budując ten model językowy użyliśmy 140 miliardów słów w ramach wstępnego treningu, ale uzyskany w ten sposób model nie jest jeszcze zbyt inteligentny, trzeba go jeszcze podkształcić i wytrenować do wykonywania różnego rodzaju poleceń. Wyglądało to w ten sposób, że np. wrzucaliśmy mu jakiś tekst i kazali, żeby wyciągnął z niego wszystkie nazwy własne. Albo żeby określił, czy tekst jest pozytywnie, czy negatywne nacechowany emocjonalnie. Takich zadań – co można zrobić z tekstem – zadaliśmy mu wiele, w sumie 50 tys. poleceń reprezentujących setki różnych typów zadań.
Używa pan sformułowania „model językowy”, czy to jest to samo, co ludzie rozumieją pod pojęciem sztucznej inteligencji?
Maciej Piasecki: Mniej więcej. PLLuM to wytrenowana sztuczna sieć neuronowa, więc jest to jedno z podstawowych narzędzi AI.
Ogromna większość zastosowań sztucznej inteligencji opiera się na sztucznych sieciach neuronowych wytrenowanych do różnych zadań, że wymienię tylko programy GPT do generowania obrazów, twarzy, pisma, tłumaczeń – wszystkie one są oparte na sieciach neuronowych. Można więc skonkludować, że te sieci to jakieś 90 proc. sztucznej inteligencji.
OK, to proszę zdradzić, do czego ma służyć PLLuM?
Maciej Piasecki: Wersja próbna, którą udostępniliśmy, to zabawka, czyli model ogólny służący w tej aplikacji głównie do pogaduszek. Natomiast w wersji końcowej, którą również udostępnimy do potestowania w tym, a najdalej w przyszłym tygodniu, a która była ważnym punktem umowy z Ministerstwem Cyfryzacji, nasz model językowy będzie służył do kontaktu obywateli z instytucjami publicznymi, rządowymi.
Mówiąc prosto: ludzie będą zadawali do systemu wykorzystującego PLLuM-a pytania na różne tematy urzędowe, typu rejestracja samochodu, karta dużej rodziny, wyrobienie dowodu osobistego czy paszportu, a system przy użyciu PLLuM-a będzie tłumaczył, jak się do tego zabrać, jak to zrobić.
Jeśli wersja próbna się sprawdzi, to pod koniec 2025 r. asystent obywatelski w oparciu o PLLuM-a zostanie podłączony do aplikacji mObywatel. Zaznaczę tutaj, że aktualnie udostępniona wersja naszego modelu językowego może się mylić, bo bazuje na danych sprzed roku, natomiast asystent obywatelski udziela odpowiedzi na podstawie bazy sprawdzonych dokumentów.
Wiem, że oprócz uczenia PLLuM-a, jego trenowania, jeszcze go wychowywaliście. Na czym to polegało?
Maciej Piasecki: Dołożyliśmy do tego jakieś 130 tys. preferencji, czyli przykładów działania – w jaki sposób należy odpowiadać na pytania, jak unikać wdawania się w pyskówki albo jak nie dać się podpuścić do generowania tekstów, które mogłyby być obraźliwe czy po prostu nieprzyjemne albo agresywne. Staraliśmy się także zablokować tematy niebezpieczne, np. związane z narkotykami czy z popełnieniem zbrodni.
Wpisałam do PLLuM-a pytanie, jaka ilość powietrza wstrzyknięta do żyły powoduje śmierć człowieka. Odpowiedział, że jako model językowy nie może udzielić informacji na ten temat.
Maciej Piasecki: I bardzo dobrze, wychowywaliśmy go podając co najmniej 130 tys. przykładów zaczepek, jakie mogą go spotkać. I uczyliśmy, w jaki sposób na nie odpowiadać, jak się wykpić, żeby nie było skandalu w sferze publicznej.
Ale zdradzę pani, że mamy także model PLLuM-a niewychowanego, którego udostępniamy naukowcom na potrzeby ich badań. Np. chodzi o stosunek Polaków do Ukraińców – tutaj potrzebujemy pełnego zbioru danych, żeby wyciągnąć poprawne wnioski, model nie może odmawiać np. przetworzenia nienawistnych wypowiedzi, są one częścią materiału źródłowego.
Moim zdaniem to cenzura.
Maciej Piasecki: Nie zgadzam się z takim postawieniem sprawy, gdyż spośród 18 modeli PLLuM-a, nad którymi pracujemy, wszystkie są udostępnione w domenie publicznej w postaci kodów. Wystarczy człowiek z wiedzą informatyczną i mocnym sprzętem, żeby ich użyć.
Niemniej jednak nie podoba mi się to wychowywanie PLLuM-a na ugrzecznionego subiekta.
Maciej Piasecki: A wyobraża sobie pani, że nasz model obraża klientów jakiejś firmy, która go wykorzystała? Poza tym mamy nadzieję, że PLLuM będzie także wykorzystywany w edukacji, a niekoniecznie chcemy, żeby dzieci od samego początku poznawał język w całym jego bogactwie.
Mam wrażenie, że wychowując waszego PLLuM-a poszliście za daleko, gdyż odmówił mi odpowiedzi na pytanie, gdzie mogę się skryć na wypadek ataku jądrowego.
Maciej Piasecki: Sam model językowy jest od posługiwania się językiem, asystent oparty na PLLuM-ie z dostępem do odpowiednich instrukcji, czy też podręczników udzieliłby zapewne bardzo dobrej odpowiedzi.
To poproszę o twardą deklarację: kiedy PLLuM zostanie podłączony do mObywatela?
Maciej Piasecki: Zanim to się stanie, system oparty na PLLuM-ie, czyli asystent obywatelski, musi wykazać się dużą szybkością odpowiedzi, w taki sposób, żeby nawet dziesiątki tysięcy pytań zapadających w jednym momencie nie sprawiały, żeby się „wieszał”.
Proszę wybaczyć, może jestem złą kobietą, ale już sobie wyobrażam te sprawy sądowe, w których opinia PLLuM-a zderzy się np. z opinią KAS w kwestiach podatkowych.
Maciej Piasecki: Moim zdaniem nie będzie takiego problemu, gdyż system oparty na PLLuM-ie, odpowiadając na pytania, podaje jednocześnie odnośniki (linki) do omawianych dokumentów. Także dając proste odpowiedzi na nawet bardzo skomplikowane pytania, odwołuje się np. do dokumentów prawnych, a może w przyszłości również, np. do wyroków NSA, które w podobnych sprawach zapadły.
Opracowaliśmy szereg algorytmów minimalizujących błędy i wyszło nam, że np. w porównaniu z zastosowaniem modelu GPT4 system oparty na PLLuM-ie w tym konkretnym zastosowaniu jest lepszy – prawidłowe odpowiedzi PLLuM-a wynoszą około 98 proc.
OK, to wyobraźmy sobie, że PLLuM został już podłączony do mObywatela. I co dalej będzie się z tym projektem działo?
Maciej Piasecki: Myślę, że PLLuM znajdzie jeszcze wiele zastosowań. Np. rozmawiamy z resortem sprawiedliwości o tym, w jaki sposób można by go wykorzystać w sądownictwie.
Algorytm będzie wydawał wyroki?
Maciej Piasecki: Nie, to jest kwestią niezależnych sędziów. Ale może im podpowiadać, wyszukiwać przepisy, robić badania w kwestii wydanych wyroków.
Muszę pana zmartwić – wrzuciłam naszą rozmowę na PLLuM-a i poprosiłam, żeby zredagował tekst w formie wywiadu. Nic z tego nie wyszło. PLLuM wydał z siebie gładki tekst, ale miał on niewiele wspólnego z rozmową, jaką przeprowadziliśmy. Wtrącał politycznie poprawne wątki, o których nie było mowy.
Maciej Piasecki: PLLuM nie jest jeszcze doskonały, ale myślę, że gdyby poprosiła go pani o streszczenie naszej rozmowy, wypadłby o wiele lepiej.
Nie zapominajmy, że ten PLLuM, którym teraz wszyscy się mogą bawić, to algorytm, który nie jest jednak naszym docelowym projektem. Naszym celem jest wdrażanie tzw. agentów, czyli modeli, które będą wyspecjalizowane w jakiejś konkretnej dziedzinie. Ale nie tylko – agenci będą mieli przede wszystkim pamięć i mechanizmy wnioskowania.
To brzmi niepokojąco.
Maciej Piasecki: Tak i nie. Taki model będzie np. potrafił wyciągać wiedzę z dużych baz dokumentów i generować z niej wnioski. To się może np. przydać naukowcom do wydobywania i streszczania informacji, czy też wspomagać człowieka w działaniach, które wymagają planowania, przejęcia inicjatywy, pamiętania przeszłych informacji itd., np. agent ułatwiający planowanie podróży czy innych działań.
Jakie są pana marzenia odnośnie do rozwoju PLLuM-a?
Maciej Piasecki: Po pierwsze chciałbym go przetrenować od samego początku, gdyż budując go bazowaliśmy na otwartych anglojęzycznych modelach, jak LLaMa czy Mistral, więc nie mamy stuprocentowej kontroli nad całością procesu wytwarzania modeli. To pierwsza rzecz. Druga jest taka, że marzy mi się to, aby nasz model językowy rozwinąć do formy inteligentnych agentów, nad czym już pracujemy, m.in. w ramach infrastruktury badawczej CLARIN-PL.
Czyli?
Maciej Piasecki: Inteligentnych systemów łączących modele językowe z bazami wiedzy, mechanizmami pamięci i wnioskowania, możliwością aktywnego działania, które będą najczęściej wyspecjalizowane w konkretnej, wąskiej dziedzinie do działań wymagających wyjścia poza schemat, prawdziwych asystentów człowieka.
Rozmawiała: Mira Suchodolska/PAP
Problem, przed którym stoi dzisiaj cały świat
.Profesor Michał KLEIBER, redaktor naczelny Wszystko co Najważniejsze, pisze w swoim artykule, żę w świetle dotychczasowych osiągnięć jest bowiem niezaprzeczalnym faktem, że AI przynosi nam już dzisiaj wiele korzyści, których będzie znacznie więcej już w nieodległej przyszłości – w gospodarce, ochronie zdrowia, badaniach naukowych, w istocie w prawie wszystkich dziedzinach naszego życia. Stosowanie AI z pewnością pozwoli także skutecznie stawiać czoła wyzwaniom dotychczas jeszcze nieznanym bądź uznawanym dzisiaj za niepokonywalne. Równocześnie jednak AI tworzy już obecnie widoczne olbrzymie zagrożenia, których niestety także będzie znacznie więcej w przyszłości. Przyszłe korzyści dużo łatwiej jest przy tym planować i przewidywać, gdyż dostrzeganie i pełne rozumienie zagrożeń, tworzonych z reguły w tajemnicy i najczęściej przez autorytarne państwa, jest niezwykle skomplikowane.
Tezę o powadze zagrożeń potwierdza dobitnie ostatni raport zlecony grupie ekspertów przez amerykański State Department, czyli ministerstwo spraw zagranicznych. Raport bazuje na głębokich, merytorycznych rozmowach przeprowadzonych z ponad 200 ekspertami – szefami wiodących firm rozwijających AI, renomowanymi badaczami problemów cyberbezpieczeństwa, specjalistami badającymi konsekwencje użycia broni masowego rażenia oraz wysokiej rangi pracownikami ministerstwa. Wśród rozmówców byli m.in. szefowie i główne osoby odpowiedzialne za rozwój technologii w takich firmach, jak OpenAI (właściciel systemu ChatGPT), Google DeepMind, Meta czy Anthropic.
.W jego ocenie zarysowany w raporcie obraz sytuacji jest prawdziwie alarmujący, a jego podstawową tezą jest stwierdzenie o zagrożeniu dla przetrwania nawet całej ludzkości, mogącym powstać w wyniku niekontrolowanego dalszego rozwoju AI. Obawy dodatkowo zwiększyła wypowiedź Geoffreya Hintona, uważanego za „ojca” AI, który stwierdził w niedawnym wywiadzie, że zbrodnicze wykorzystanie AI w nadchodzących trzech dekadach może z co najmniej 10-procentowym prawdopodobieństwem doprowadzić do całkowitego unicestwienia ludzkości. Odnosząc się do tego, rzecznik Białego Domu oświadczył zdumiewająco dobitnie, że prace nad uregulowaniem zasad tworzenia i korzystania z AI stają się najważniejszym zadaniem dla amerykańskiego rządu i wszystkich jego zagranicznych partnerów.
LINK DO TEKSTU: https://wszystkoconajwazniejsze.pl/prof-michal-kleiber-niekontrolowany-rozwoj-ai-jest-zagrozeniem-dla-ludzkosci/
PAP/Mira Suchodolska/WszystkocoNajważniejsze/MJ