Sztuczna inteligencja przeprowadzi cyberataki, na które będzie trudno odpowiedzieć

Szybki rozwój sztucznej inteligencji (AI) doprowadzi do wzrostu liczby cyberataków – ostrzegła w środę 24 stycznia brytyjska agencja wywiadu GCHQ w nowym raporcie.
Chatboty „ulepszą” cyberataki
.W związku z rozwojem nowych technologii wzrośnie również liczba ataków ransomware, które polegają na blokowaniu systemów komputerowych w zamian za cyfrowy okup – dodano.
„AI prawie na pewno zwiększy liczbę i wpływ cyberataków w ciągu najbliższych dwóch lat. Jednak wpływ na cyberzagrożenia będzie nierównomierny” – zauważyła agencja.
W raporcie stwierdzono, że wykorzystanie generatywnych narzędzi AI, takich jak chatboty, może pomóc w tworzeniu bardziej przekonujących wiadomości e-mail lub dokumentów wykorzystywanych w internetowych działaniach phishingowych (podszywanie się pod inną osobę lub instytucję w celu wyłudzenia poufnych informacji) – poinformowała agencja Reutera, cytująca raport.
Bardziej zdolni hakerzy wspierani przez państwo są „najlepiej przygotowani do wykorzystania potencjału AI w zaawansowanych operacjach przeciwko sieciom, na przykład do generowania zaawansowanego złośliwego oprogramowania” – zauważono.
Hakerzy już korzystają z AI
.Agencje wywiadowcze na całym świecie zmagają się z rosnącymi potencjalnymi problemami bezpieczeństwa związanymi z algorytmami, które mogą generować interakcje przypominające ludzkie. Jednym z narzędzi, które mogą generować takie treści, jest ChatGPT firmy OpenAI.
Implikacje sztucznej inteligencji dla bezpieczeństwa są wciąż w centrum uwagi rządów i organizacji międzynarodowych. Władze w Wielkiej Brytanii, Stanach Zjednoczonych i Kanadzie stwierdziły, że zaobserwowały hakerów korzystających z tej technologii.
Czy AI myśli?
.”Niezwykłe możliwości programu ChatGPT wznowiły po raz kolejny dyskusję o zagrożeniach dla ludzkości ze strony sztucznej inteligencji” – pisze prof. Andrzej Kisielewicz we „Wszystko co Najważniejsze„. – „Dyskusję tę w oczywisty sposób zaburzają zjawiska z jednej strony związane z pogonią za sensacją w mediach, a z drugiej troska badaczy i szefów firm AI o zapewnienie funduszy na dalsze badania. W rezultacie większość informacji na temat GPT i możliwości sztucznej inteligencji, jakie można znaleźć w mediach, w bardzo małym stopniu opiera się na prawdzie.”
„Żeby uzmysłowić sobie jak mało wspólnego GPT ma z naturalną inteligencją, można powiedzieć, że w czacie GPT jest tyle samo myślenia co w teoretycznym programie, który szuka zadanego fragmentu tekstu w olbrzymim zbiorze danych i gdy znajdzie, to po prostu przepisuje jego kontynuację; gdy zaś nie znajdzie, to stara się znaleźć tekst najbardziej podobny i przepisując kontynuację, stosuje odpowiednie modyfikacje. Taki program jest tylko teoretyczny, bo każdorazowe przeszukiwanie całego zbioru danych wielkości 570 GB przy obecnej wydajności komputerów trwałoby tygodniami. A my potrzebujemy prawie natychmiastowej reakcji programu na każde zapytanie. Stąd pośrednia realizacja powyższego pomysłu: najpierw 》trenujemy《 sieć, żeby 》zapamiętała《 w swoich miliardach parametrów najistotniejsze cechy zbioru danych tekstowych, a odpowiedzi dostatecznie bliskie oryginalnym przykładom generuje sieć i robi to dostatecznie szybko.”
„Są inżynierowie AI, którzy na poważnie twierdzą, że ChatGPT jednak myśli, że podobny jest (ich zdaniem) mechanizm myślenia w mózgu ludzkim, gdzie rzecz polega również na wykonywaniu w sposób prawie deterministyczny, z elementami losowości, pewnego algorytmu. Sprzyja temu niezwykły efekt programu GPT, którego liczne reakcje na nasze zapytania zdają się w ewidentny sposób przekraczać zdolności intelektualne pojedynczych ludzi.„
„Najsłabszą stroną programu ChatGPT i innych specjalistycznych systemów AI jest brak zdolności do wyciągania logicznych wniosków, brak mechanizmów logicznego myślenia w tych systemach. (Dobitnie ilustruje to przykład załączony powyżej). Po klęsce próby zastosowania logiki formalnej w badaniach nad sztuczną inteligencją musimy dojść do wniosku, że nie wiemy nawet, na czym właściwie polega praktyczne, logiczne myślenie, praktyczne rozumowanie (nie uczymy tego w szkołach!), więc niby jak chcemy skonstruować myślące maszyny? Na ślepo?”
„Wizja sztucznej inteligencji współegzystującej z powszechną ludzką głupotą, znakomitych osiągnięć technologicznych z degeneracją więzi społecznych, internet jako narzędzie do szerzenia i utrzymywania dezinformacji w ludzkich społecznościach – takiej wizji wykluczyć się nie da” – przestrzega profesor.
„Żeby zapobiec czarnym scenariuszom, pilna wydaje się nie tylko reforma edukacji uwzględniająca postęp technologiczny, szczególnie w sferze technologii informacyjnych, oraz dbająca o właściwe wyważenie proporcji między czasem spędzanym przez młodzież w świecie wirtualnym i w świecie fizycznym. […] O tym, jak rozpoznawać prawdę, jak ją wyszukiwać w internecie, trzeba zacząć uczyć w szkołach. Mnie osobiście niezbędny wydaje się powrót do edukacji przedmiotu pod nazwą 》logika praktyczna《 – z naciskiem na 》praktyczna《 i z uwzględnieniem doświadczeń z nieudanych prób zbudowania sztucznej inteligencji. Chociaż obawiam się, że moje osobiste zabiegi w tym kierunku to niestety głos wołającego na puszczy.”
PAP/Wszystko co Najważniejsze/JT