Sztuczna inteligencja już wkrótce będzie wygrywać wybory – NCSC
Postępy w dziedzinie sztucznej inteligencji stanowią rosnące zagrożenie dla uczciwości następnych wyborów powszechnych w Wielkiej Brytanii, a w szczególności w ich przebieg może chcieć ingerować Rosja – ostrzegło we wtorek brytyjskie Narodowe Centrum Cyberbezpieczeństwa (NCSC).
Sztuczna inteligencja – „największe zagrożenie”
.W corocznym przeglądzie kwestii związanych z cyberbezpieczeństwem agencja, będąca częścią wywiadu elektronicznego GCHQ, ostrzegła przed perspektywą coraz bardziej realistycznych, fałszywych nagrań wideo i innych form dezinformacji mających na celu wpłynięcie na preferencje wyborców. Dotyczy to zarówno Wielkiej Brytanii, gdzie wybory odbędą się najprawdopodobniej w przyszłym roku, jak i innych zachodnich demokracji, w tym USA.
„Choć głosowanie papierowe w Wielkiej Brytanii w wyborach powszechnych znacznie utrudnia ingerowanie w nasze wybory, następne wybory będą pierwszymi, które odbędą się na tle znaczących postępów w dziedzinie sztucznej inteligencji. Ale to raczej zdolność sztucznej inteligencji do włączania istniejących technik, a nie stwarzanie zupełnie nowe zagrożeń, stanowi największe ryzyko” – ostrzega NCSC.
Wskazało na sfabrykowane posty i kampanie typu deepfake rozprzestrzeniające się w mediach społecznościowych z dużą prędkością.
Wrogie podmioty cybernetyczne
.Narodowe Centrum Cyberbezpieczeństwa opisało, jak „krajobraz zagrożeń” ewoluował „znacząco” od ostatnich wyborów do Izby Gmin w 2019 r., w szczególności w następstwie wojny Rosji z Ukrainą. Konflikt ten „sprawił, że perspektywa wpływania na dyskurs polityczny w demokracjach stała się jeszcze bardziej atrakcyjna dla podmiotów państwowych” – oceniła agencja.
Ostrzegła również przed pojawieniem się podmiotów cybernetycznych, które są powiązane z wrogimi państwami, takimi jak Rosja, i mają te same cele ideologiczne, ale mogą działać z mniejszą powściągliwością. Jak wskazała, jest to „nowa klasa przeciwników, którym Wielka Brytania musi się przeciwstawiać”.
„NCSC ocenia, że wydarzenia demokratyczne, takie jak wybory, prawie na pewno stanowią atrakcyjne cele dla wrogich podmiotów, a zatem organizacje i osoby fizyczne muszą być przygotowane na zagrożenia, stare i nowe” – napisano. Oprócz skupienia się na Rosji, NCSC w raporcie zwróciło również uwagę na ciągłe zagrożenie cybernetyczne ze strony Chin, Iranu i Korei Północnej.
Bajki o sztucznej inteligencji i prawdziwe zagrożenia
.Sztuczna inteligencja to jeden z najbardziej gorących tematów na świecie. Oczy wszystkich skierowane są na ten wielki wynalazek w nadziei na osiągnięcie zysków. Na drugiej stronie medalu widnieją jednak zagrożenia, które niesie za sobą AI. Na ten temat wypowiada się profesor nauk matematycznych, Andrzej KISIELEWICZ.
„Obawa, że myślące maszyny czy też jakaś egzystująca w sieci sztuczna inteligencja zaatakują ludzi, opanują ludzką cywilizację, to na dzisiaj „bajki dla robotów”, żeby odwołać się do tytułu książki Lema; kompletna fantasmagoria. Jednym z „apostołów” tej fantasmagorii na polskim gruncie jest prof. Andrzej Zybertowicz (moje dyskusje z nim stały się zaczynem tego artykułu). Pomysł, żeby umożliwić programom takim jak GPT automatyczne uruchamianie jakichś procesów fizycznych, bez nadzoru człowieka, jest tak samo mądry, jak uzależnienie uruchomienia rakiet z głowicami atomowymi od rzutu monetą. Oczywiście nie da się wykluczyć, że ktoś gdzieś na taki pomysł wpadnie, ale zagrożeniem jest tu ludzka głupota, a nie sztuczna inteligencja. Realnie można mówić o zagrożeniach rozwojem specjalistycznych systemów AI, ale mieszanie do tego nazwy „sztuczna inteligencja” tworzy fałszywe wyobrażenia i odwraca uwagę od istoty zagrożenia. Należy więc mówić precyzyjniej o zagrożeniu dalszym rozwojem technologii informacyjnych. Jest ono realne, na tyle, na ile realne zagrożenia niesie ze sobą rozwój każdej nowej technologii – może być ona użyta w złych celach” – wyjaśnia profesor.
„Jednak (jak słusznie zwraca uwagę prof. Zybertowicz) rozwój nowych technologii informacyjnych niesie ze sobą również specyficzne zagrożenia, których nie ma w przypadku na przykład broni masowej zagłady. Jedno z nich to fakt, że rozwój ten zdaje się wymykać spod naszej kontroli, a jednocześnie zmieniać rewolucyjnie nasze życie społeczne, w kierunku, który bynajmniej nie wydaje się ani dobry, ani pożądany. Wizja, gdzie ludzie większość życia spędzają w świecie wirtualnym, przylepieni do laptopów i smartfonów czy z czymś w głowie, co zastąpi w przyszłości te urządzenia, ma charakter raczej przerażający. Dążymy w tym kierunku jakby wbrew naszej woli. Na potencjalnie katastrofalne zastosowanie programów typu GPT zwrócił z kolei uwagę mój kolega prof. Jerzy Surma” – dodaje profesor Andrzej Kisielewicz.
PAP/Bartłomiej Niedziński/WszystkocoNajważniejsze/AB