Asystent AI w mObywatelu i zagrożenie halucynacją

Oczekiwanie dokładnych odpowiedzi, 100-proc. zgodnych z faktami, było największym wyzwaniem dla twórców wirtualnego asystenta w mObywatelu - poinformował lider projektu Filip Płosiński. Dodał, że twórcy zminimalizowali ryzyko fałszywych odpowiedzi.

Oczekiwanie dokładnych odpowiedzi, 100-proc. zgodnych z faktami, było największym wyzwaniem dla twórców wirtualnego asystenta w mObywatelu – poinformował lider projektu Filip Płosiński. Dodał, że twórcy zminimalizowali ryzyko fałszywych odpowiedzi.

Sztuczna inteligencja w mObywatelu

.Od 31 grudnia 2025 r. w aplikacji mObywatel dostępny jest wirtualny asystent oparty o polski model sztucznej inteligencji PLLuM. Asystent odpowiada na pytania związane z ponad 70 usługami, z których można skorzystać w mObywatelu, na podstawie wiedzy zaczerpniętej z rządowej domeny gov.pl. Asystent w mObywatelu może też podać biografie byłych i obecnych członków rządu.

Jak wskazał lider projektu wirtualnego asystenta Filip Płosiński z Centralnego Ośrodka Informatyki (COI), największym wyzwaniem dla twórców było oczekiwanie przez użytkowników dokładnych odpowiedzi, 100-procentowo zgodnych z faktami. Jak wskazał ekspert, nie jest to do końca wykonalne w żadnych modelach językowych, gdyż nie odpowiadają one w 100-proc. poprawnie m.in. dlatego, że halucynują, czyli podają fałszywe informacje, które brzmią jak prawdziwe.

– Zdajemy sobie sprawę, że w obszarze administracji publicznej poprawność informacji musi być na bardzo wysokim poziomie, dlatego od początku projektowaliśmy rozwiązanie w taki sposób, aby minimalizować ryzyko i opierać odpowiedzi wyłącznie na rzetelnych i oficjalnych źródłach – podkreślił Płosiński.

Wskazał, że drugim istotnym wyzwaniem była ewaluacja rozwiązania. – Na etapie prac wytwórczych testowaliśmy wirtualnego asystenta z wykorzystaniem zestawów pytań, które układaliśmy samodzielnie w zespole. Bazowaliśmy na naszych przypuszczeniach, o co mogą pytać użytkownicy. To był oczywiście niezbędny etap, ale dopiero uruchomienie rozwiązania w środowisku produkcyjnym pokazało nam, o co faktycznie pytają użytkownicy i z jakimi problemami się mierzą. W praktyce oznacza to, że teraz wchodzimy w najważniejszą fazę rozwoju, w której możemy ulepszyć wirtualnego asystenta w oparciu o rzeczywiste potrzeby obywateli – mówił lider projektu.

Płosiński pytany, jakie błędy zgłaszali użytkownicy po szerokim udostępnieniu asystenta, przekazał, że początkowo nieaktualne były niektóre informacje dotyczące procesów związanych z Doręczeniami. Wyjaśnił, że było to skutkiem tego, iż udostępnienie wirtualnego asystenta zbiegło się w czasie z uruchomieniem e-Doręczeń oraz dynamicznymi zmianami w treściach publikowanych w portalu gov.pl.

– Zdarzają się też sytuacje, w których użytkownicy zadają nieprecyzyjne lub skrótowe pytania i oczekują, że wirtualny asystent będzie wiedział, o co chodzi – mówił. Zauważył, że przykładowe pytanie „Jak wyrobić legitymację?” może dotyczyć wielu różnych dokumentów: szkolnych, studenckich czy służbowych. – W takiej sytuacji asystent nie zawsze ma wystarczający kontekst do udzielenia jednoznacznej odpowiedzi – wskazał ekspert.

Płosiński podkreślił, że wszystkie błędne odpowiedzi i problematyczne przypadki są przez zespół COI systematycznie analizowane. – Wyciągamy z nich wnioski i staramy się ulepszać rozwiązanie, tak aby kolejne wersje wirtualnego asystenta odpowiadały na pytania jeszcze lepiej – zaznaczył.

PLLuM to rodzina polskich modeli językowych stworzonych dla administracji, firm i naukowców, a także dla obywateli. PLLuM miał swoją premierę pod koniec lutego 2025 r. Ministerstwo Cyfryzacji ogłosiło wtedy powołanie HIVE AI, czyli konsorcjum polskich ośrodków naukowych oraz instytucji skupionych wokół usług cyfrowych, na czele którego stoi NASK-PIB. Niedawno członkowie HIVE AI podsumowali swoje działania podczas konferencji. Wśród osiągnięć wymieniono wdrożenie PLLuM w mObywatelu, ale także w Ministerstwie Cyfryzacji w formie wewnętrznego asystenta oraz w dwóch urzędach miejskich – Gdyni i Poznania.

Kierowniczka HIVE AI dr Agnieszka Karlińska przekazała podczas konferencji, że pod koniec stycznia br. konsorcjum zaprezentuje aktualizację 11 dotychczasowych modeli – o rozmiarach 8, 12 i 70 miliardów parametrów, a także nowość w rodzinie – model o rozmiarze 4 miliardów parametrów. Jak wyjaśniała dr Karlińska, mniejszy model został stworzony z myślą o instytucjach z ograniczoną infrastrukturą obliczeniową. Ma to być narzędzie do konkretnych zadań, takich jak klasyfikacja dokumentów. W tym roku ukazać ma się również model opracowany we współpracy z francuską firmą Mistral AI, o roboczej nazwie Polstral. Był on trenowany na „stosunkowo dużej puli” wysokiej jakości danych angielskich i polskich – podali twórcy.

– W 2026 r. planujemy dalszy rozwój modeli z rodziny PLLuM, lepsze dostosowanie do potrzeb sektora publicznego, ale także biznesu. Chcemy, żeby modele zyskiwały nowe kompetencje, na przykład analizy dokumentów już nie tylko w formie tekstowej, ale także w formie dokumentów zeskanowanych czy też w plikach graficznych – przekazał w rozmowie dr hab. inż. Szymon Łukasik, dyrektor Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji NASK PIB.

Dodał, że w planach jest też dalsza pomoc we wdrożeniach PLLuM np. w mObywatelu i w jednostkach administracji samorządowej oraz budowa społeczności ekspertów, czyli ekosystemu, który będzie stanowił wsparcie dla jednostek publicznych we wdrażaniu AI. Aplikacji mObywatel ma ponad 10 milionów użytkowników, którym wirtualny asystent oparty na PLLuM może pomóc w znalezieniu właściwych wniosków i formularzy. Podpowie też, jak załatwić formalności i poinformuje o możliwościach aplikacji. Według statystyk podanych podczas konferencji, wirtualny asystent otrzymuje od 30 do 40 pytań dziennie.

Bajki o sztucznej inteligencji i prawdziwe zagrożenia

.Profesor nauk matematycznych, Andrzej KISIELEWICZ, na łamach „Wszystko co Najważniejsze” twierdzi, że: „Obawa, że myślące maszyny czy też jakaś egzystująca w sieci sztuczna inteligencja zaatakują ludzi, opanują ludzką cywilizację, to na dzisiaj „bajki dla robotów”, żeby odwołać się do tytułu książki Lema; kompletna fantasmagoria. Jednym z „apostołów” tej fantasmagorii na polskim gruncie jest prof. Andrzej Zybertowicz (moje dyskusje z nim stały się zaczynem tego artykułu). Pomysł, żeby umożliwić programom takim jak GPT automatyczne uruchamianie jakichś procesów fizycznych, bez nadzoru człowieka, jest tak samo mądry, jak uzależnienie uruchomienia rakiet z głowicami atomowymi od rzutu monetą. Oczywiście nie da się wykluczyć, że ktoś gdzieś na taki pomysł wpadnie, ale zagrożeniem jest tu ludzka głupota, a nie sztuczna inteligencja. Realnie można mówić o zagrożeniach rozwojem specjalistycznych systemów AI, ale mieszanie do tego nazwy „sztuczna inteligencja” tworzy fałszywe wyobrażenia i odwraca uwagę od istoty zagrożenia. Należy więc mówić precyzyjniej o zagrożeniu dalszym rozwojem technologii informacyjnych. Jest ono realne, na tyle, na ile realne zagrożenia niesie ze sobą rozwój każdej nowej technologii – może być ona użyta w złych celach”.

„Jednak (jak słusznie zwraca uwagę prof. Zybertowicz) rozwój nowych technologii informacyjnych niesie ze sobą również specyficzne zagrożenia, których nie ma w przypadku na przykład broni masowej zagłady. Jedno z nich to fakt, że rozwój ten zdaje się wymykać spod naszej kontroli, a jednocześnie zmieniać rewolucyjnie nasze życie społeczne, w kierunku, który bynajmniej nie wydaje się ani dobry, ani pożądany. Wizja, gdzie ludzie większość życia spędzają w świecie wirtualnym, przylepieni do laptopów i smartfonów czy z czymś w głowie, co zastąpi w przyszłości te urządzenia, ma charakter raczej przerażający. Dążymy w tym kierunku jakby wbrew naszej woli. Na potencjalnie katastrofalne zastosowanie programów typu GPT zwrócił z kolei uwagę mój kolega prof. Jerzy Surma”.

„Realna jest idea takich zindywidualizowanych programów, które nie tylko mogą rozmawiać z tobą na wszystkie tematy, ale mogą przede wszystkim rozmawiać z tobą na twój temat i twoich problemów, bo uczą się ciebie – stają się twoim największym przyjacielem, powiernikiem, odgadują twoje nastroje – a przy okazji, czemu nie, mówią ci, na kogo powinieneś głosować. Realne jest zagrożenie, że wielkie korporacje czy quasi-totalitarne reżimy użyją zaawansowanych narzędzi informatycznych do manipulacji społeczeństwami i ich kontrolowania. Nie żadna sztuczna inteligencja, ale olbrzymia moc obliczeniowa współczesnych komputerów i algorytmy przetwarzania olbrzymich baz danych umożliwiają pełną kontrolę nad całymi społeczeństwami i każdym obywatelem z osobna. (To, że algorytmy te rozwijane są w ramach badań sygnowanych etykietą AI, nie ma tu znaczenia)” – pisze prof. Andrzej KISIELEWICZ w tekście „Bajki o sztucznej inteligencji i prawdziwe zagrożenia”

LINK DO TEKSTU: https://wszystkoconajwazniejsze.pl/andrzej-kisielewicz-bajki-o-sztucznej-inteligencji-i-prawdziwe-zagrozenia/

PAP/ Monika Blandyna Lewkowicz/ LW

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 26 stycznia 2026