Sztuczna inteligencja przejęta przez cyberprzestępców

Zaawansowane boty AI w 2026 r. będą coraz częściej wykorzystywane do kampanii dezinformacyjnych, oszustw i wyłudzeń – wynika z raportu firmy Eset. Analitycy przewidują też m.in. wzrost aktywności grup cyberprzestępczych w Polsce powiązanych z Białorusią i Rosją.
Zaawansowane boty AI wykorzystywane przez przestępców
.Jak wynika z raportu Eset Threat Report, w przyszłym roku zaawansowane boty AI będą wykorzystywać luki w zautomatyzowanych procesach rekrutacyjnych oraz posłużą do kampanii dezinformacyjnych, oszustw i wyłudzeń. Analitycy wskazali, że oszustwa na dużą skalę będą też napędzać deepfake’i, e-maile i reklamy generowane przez AI.
W 2025 r. sztuczna inteligencja była wykorzystywana m.in. przy atakach typu ransomware, które polegają na zaszyfrowaniu danych przez cyberprzestępców, często celem żądania okupu od firmy lub jednostki publicznej. Analitycy wykryli oprogramowanie PromptLock, zdolne do generowania złośliwego oprogramowania (malware) w czasie rzeczywistym, co ułatwiało przestępcom ataki na podmioty. Według Eset, Polska w drugiej połowie 2025 roku była trzecim najczęściej atakowanym metodą ransomware państwem na świecie, a w br. ataków tego typu przybędzie.
Zdaniem analityków, w 2026 r. rozwiązania oparte na agentach AI – technologii sztucznej inteligencji zdolnej do wykonywania skomplikowanych zadań bez nadzoru człowieka – będą zmierzać w stronę integracji m.in. z systemami chmurowymi, jednak bezpieczeństwo będzie pozostawać w tyle. Wśród zagrożeń w br. analitycy wskazali też rozpowszechnianie publicznych modeli AI o „niejasnej logice wewnętrznej” i nieznanych danych treningowych, co jest zagrożeniem m.in. dla przedsiębiorstw.
„Firmy będą musiały pogodzić oczekiwania szybkiego zwrotu z inwestycji w AI z utrzymaniem bezpieczeństwa” – podkreślili eksperci w informacji prasowej.
Wzrost aktywności grup cyberprzestępczych powiązanych z Białorusią i Rosją
.Jak wynika z raportu, w przyszłym roku w Polsce nastąpi wzrost aktywności grup cyberprzestępczych powiązanych z Białorusią i Rosją. „Spodziewamy się wzrostu rosyjskiej aktywności wymierzonej w kontrahentów w obszarze obrony, łańcuchy dostaw oraz infrastrukturę krytyczną, w ramach działań mających na celu monitorowanie i osłabianie modernizacji wojskowej Zachodu. Równolegle grupy APT powiązane z Białorusią stają się coraz bardziej aktywne i agresywne, szczególnie w Ukrainie i Polsce. Choć dotychczas były uważane za zagrożenie drugiego poziomu, w niedalekiej przyszłości mogą stać się znaczącą siłą. Biorąc pod uwagę szerszy kontekst strategiczny, możliwe jest, że będziemy świadkami stopniowej integracji niektórych zdolności cybernetycznych Rosji i Białorusi w ramach wschodniego sojuszu wywiadowczego »2 Eyes«” – wskazał Jean-Ian Boutin z Eset.
Zdaniem analityków w 2026 r. bezzałogowe statki powietrzne (UAV), czyli drony, znajdą się w centrum zainteresowania Rosji, Chin, Iranu i Korei Północnej. „Rosja będzie nieustannie koncentrować się na zdolnościach dronów Ukrainy, wykorzystując zarówno cybernetyczne, jak i tradycyjne zasoby wywiadowcze. Korea Północna i Iran są gotowe do zwiększenia własnej aktywności szpiegowskiej wobec celów europejskich i globalnych, dążąc do przyspieszenia modernizacji swoich zasobów dronów. Chiny natomiast z dużym prawdopodobieństwem mogą dążyć do nasilenia wysiłków w monitorowaniu rozwoju floty UAV na Tajwanie” – podał Jean-Ian Boutin.
W przyszłym roku – jak wskazali analitycy – możemy spodziewać się większej powszechności złośliwego oprogramowania wykorzystującego narzędzia generatywnej sztucznej inteligencji i wymierzonego w użytkowników urządzeń z systemem Android. Jako drugi obszar zagrożeń wymienili oszustwa związane z technologią NFC, czyli Near Field Communication – technologię komunikacji bezprzewodowej krótkiego zasięgu, do 20 cm. Z raportu wynika, że w drugiej połowie 2025 r. nastąpił wzrost ataków związanych z NFC o 87 pkt proc. i ten trend będzie utrzymywał się w br.
Bajki o sztucznej inteligencji i prawdziwe zagrożenia
.Profesor nauk matematycznych, Andrzej KISIELEWICZ, na łamach „Wszystko co Najważniejsze” twierdzi, że: „Obawa, że myślące maszyny czy też jakaś egzystująca w sieci sztuczna inteligencja zaatakują ludzi, opanują ludzką cywilizację, to na dzisiaj „bajki dla robotów”, żeby odwołać się do tytułu książki Lema; kompletna fantasmagoria. Jednym z „apostołów” tej fantasmagorii na polskim gruncie jest prof. Andrzej Zybertowicz (moje dyskusje z nim stały się zaczynem tego artykułu). Pomysł, żeby umożliwić programom takim jak GPT automatyczne uruchamianie jakichś procesów fizycznych, bez nadzoru człowieka, jest tak samo mądry, jak uzależnienie uruchomienia rakiet z głowicami atomowymi od rzutu monetą. Oczywiście nie da się wykluczyć, że ktoś gdzieś na taki pomysł wpadnie, ale zagrożeniem jest tu ludzka głupota, a nie sztuczna inteligencja. Realnie można mówić o zagrożeniach rozwojem specjalistycznych systemów AI, ale mieszanie do tego nazwy „sztuczna inteligencja” tworzy fałszywe wyobrażenia i odwraca uwagę od istoty zagrożenia. Należy więc mówić precyzyjniej o zagrożeniu dalszym rozwojem technologii informacyjnych. Jest ono realne, na tyle, na ile realne zagrożenia niesie ze sobą rozwój każdej nowej technologii – może być ona użyta w złych celach”.
„Jednak (jak słusznie zwraca uwagę prof. Zybertowicz) rozwój nowych technologii informacyjnych niesie ze sobą również specyficzne zagrożenia, których nie ma w przypadku na przykład broni masowej zagłady. Jedno z nich to fakt, że rozwój ten zdaje się wymykać spod naszej kontroli, a jednocześnie zmieniać rewolucyjnie nasze życie społeczne, w kierunku, który bynajmniej nie wydaje się ani dobry, ani pożądany. Wizja, gdzie ludzie większość życia spędzają w świecie wirtualnym, przylepieni do laptopów i smartfonów czy z czymś w głowie, co zastąpi w przyszłości te urządzenia, ma charakter raczej przerażający. Dążymy w tym kierunku jakby wbrew naszej woli. Na potencjalnie katastrofalne zastosowanie programów typu GPT zwrócił z kolei uwagę mój kolega prof. Jerzy Surma”.
„Realna jest idea takich zindywidualizowanych programów, które nie tylko mogą rozmawiać z tobą na wszystkie tematy, ale mogą przede wszystkim rozmawiać z tobą na twój temat i twoich problemów, bo uczą się ciebie – stają się twoim największym przyjacielem, powiernikiem, odgadują twoje nastroje – a przy okazji, czemu nie, mówią ci, na kogo powinieneś głosować. Realne jest zagrożenie, że wielkie korporacje czy quasi-totalitarne reżimy użyją zaawansowanych narzędzi informatycznych do manipulacji społeczeństwami i ich kontrolowania. Nie żadna sztuczna inteligencja, ale olbrzymia moc obliczeniowa współczesnych komputerów i algorytmy przetwarzania olbrzymich baz danych umożliwiają pełną kontrolę nad całymi społeczeństwami i każdym obywatelem z osobna. (To, że algorytmy te rozwijane są w ramach badań sygnowanych etykietą AI, nie ma tu znaczenia)” – pisze prof. Andrzej KISIELEWICZ w tekście „Bajki o sztucznej inteligencji i prawdziwe zagrożenia” – cały artykuł [LINK]
PAP/eg




