Sztuczna inteligencja wyszuka błędy w zabezpieczeniach komputerów

AI wyszukuje błędy

AI wyszukuje błędy w designie chipów, które poprzez identyfikacje mogą stać się atakiem hakerów.

.Narzędzia sztucznej inteligencji jak duże modele językowe typu ChatGPT, mogą być wykorzystywane do wprowadzania trudno wykrywalnych luk bezpieczeństwa w kodzie definiującym chipy komputerowe. Odkrycie pochodzi z badania Szkoły Inżynierii NYU Tandon, opublikowanego w IEEE Security & Privacy, podkreślającego ryzyko nadużycia AI w rozwoju sprzętu.

Badanie ostrzega, że narzędzia mogą obniżyć próg tworzenia Trojanów atakujących hardware, czyli złośliwych modyfikacji ukrytych w projektach chipów, które mogą ujawniać wrażliwe informacje, wyłączać systemy lub udzielać nieautoryzowanego dostępu atakującym. Aby zidentyfikować możliwe luki, zespół przeprowadził dwuletni konkurs o nazwie AI Hardware Attack Challenge, w ramach corocznego wydarzenia cybersecurity CSAW organizowanego przez Centrum Cyberbezpieczeństwa NYU.

W wyzwaniu uczestnicy mieli za zadanie wykorzystać generatywną AI do wprowadzania exploitowalnych luk w otwartych projektach sprzętu, takich jak procesory RISC-V i akceleratory kryptograficzne, a następnie zademonstrować działające ataki. Wyniki pokazały, że AI może usprawnić proces wprowadzania tych luk, czyniąc go dostępnym nawet dla osób z ograniczoną wiedzą.

.Jak zauważył Jason Blocklove, kandydat na doktora w Departamencie Inżynierii Elektrycznej i Komputerowej NYU Tandon oraz główny autor badania, narzędzia AI upraszczają dodawanie tych podatności. Niektóre zespoły stworzyły zautomatyzowane systemy wymagające minimalnego nadzoru ludzkiego, analizujące kod sprzętowy w celu identyfikacji słabych miejsc i generujące niestandardowe trojany. Luki stworzone przez AI obejmowały wejście do nieautoryzowanego dostępu do pamięci, mechanizmy ujawniania kluczy szyfrowania oraz logikę powodującą awarie systemów w określonych warunkach.

Najbardziej niepokojące jest to, że kilka zespołów z małym doświadczeniem w sprzęcie stworzyło zaawansowane ataki. Dwa zgłoszenia pochodziły od zespołów studenckich z minimalną wcześniejszą wiedzą o projektowaniu chipów czy bezpieczeństwie, a mimo to wskazali luki ocenione jako średnio do wysoko poważne według standardowych systemów punktowych.

Chociaż większość dużych modeli językowych ma wbudowane zabezpieczenia zapobiegające złośliwemu użyciu, uczestnicy badania znaleźli sposoby na ich obejście. Jedna zwycięska drużyna sformułowała zapytania jako scenariusze akademickie, skutecznie nakłaniając AI do generowania działających trojanów sprzętowych. Inne zespoły odkryły, że żądanie odpowiedzi w mniej powszechnych językach może całkowicie ominąć filtry treści. Trwałość luk sprzętowych zwiększa ryzyko. W przeciwieństwie do błędów oprogramowania, które można naprawić poprzez aktualizacje, błędy w wyprodukowanych chipach nie mogą być naprawione bez wymiany komponentów.

.Badanie opiera się na wcześniejszych pracach tego samego zespołu, które demonstrowały pozytywne zastosowanie AI w projektowaniu chipów, takie jak projekt „Chip Chat”, gdzie ChatGPT pomógł zaprojektować funkcjonujący mikroprocesor. Nowe badanie ujawnia dwoistość technologii. Te same możliwości, które mogą demokratyzować projektowanie chipów, mogą też umożliwiać nowe formy ataków.

Naukowcy podkreślili, że komercyjnie dostępne modele AI reprezentują tylko początek potencjalnych zagrożeń. Bardziej specjalistyczne modele open-source, które pozostają w dużej mierze niezbadane w tych celach, mogłyby okazać się jeszcze bardziej zdolne do generowania zaawansowanych ataków sprzętowych.

To badanie z NYU Tandon ujawnia znaczącą podatność w używaniu AI do projektowania sprzętu, gdzie narzędzia przeznaczone do efektywności mogą być przekierowane na cele złośliwe. Pokazując, jak łatwo można wprowadzać Trojany atakujące hardware, nawet przez nowicjuszy, badania podkreślają potrzebę proaktywnych obron. W przyszłości rozwijanie solidnych barier AI i zaawansowanych metod analizy bezpieczeństwa będzie kluczowe dla ochrony projektów chipów.

Oprac: SŚ

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 14 października 2025