Anthropic ostrzega przed atakami hakerskimi AI

Anthropic

Zespół firmy Anthropic odkrył pierwszy znany przypadek wykorzystania sztucznej inteligencji do prowadzenia kampanii hakerskiej za pomocą AI.

.Firma Anthropic zajmująca się sztuczną inteligencją poinformowała, że udaremniła cyberoperację, którą jej naukowcy powiązali z chińskim rządem. Operacja polegała na wykorzystaniu systemu sztucznej inteligencji do kierowania kampaniami hakerskimi, co naukowcy nazwali niepokojącym zjawiskiem, które może znacznie zwiększyć zasięg działania hakerów wyposażonych w dobrze dostrojoną sztuczną inteligencję.

Chociaż obawy dotyczące wykorzystania sztucznej inteligencji do prowadzenia operacji cybernetycznych nie są nowe, to według naukowców niepokojące w tej nowej operacji jest to, w jakim stopniu sztuczna inteligencja była w stanie zautomatyzować część pracy.

Operacja była skierowana przeciwko firmom technologicznym, instytucjom finansowym, przedsiębiorstwom chemicznym i agencjom rządowym. Naukowcy poinformowali, że hakerzy zaatakowali „około trzydzieści globalnych celów i odnieśli sukces w niewielkiej liczbie przypadków”. Firma Anthropic wykryła operację we wrześniu 2025 r. i podjęła kroki w celu jej powstrzymania oraz powiadomienia poszkodowanych stron.

Anthropic zauważyło, że chociaż systemy sztucznej inteligencji są coraz częściej wykorzystywane w różnych środowiskach do pracy i rozrywki, to mogą one również zostać wykorzystane jako broń przez grupy hakerskie pracujące dla zagranicznych przeciwników. Firma z siedzibą w San Francisco, producent generatywnego chatbota AI Claude, jest jednym z wielu twórców technologii promujących „agentów” AI, którzy wykraczają poza możliwości chatbota, aby uzyskać dostęp do narzędzi komputerowych i podejmować działania w imieniu danej osoby.

Microsoft ostrzegł na początku tego roku, że przestępcy coraz częściej wykorzystują sztuczną inteligencję, aby zwiększyć skuteczność swoich cyberkampanii i zmniejszyć nakłady pracy. Przeciwnicy głównie Ameryki, a także gangi przestępcze i firmy hakerskie, wykorzystują potencjał sztucznej inteligencji do automatyzacji i usprawniania cyberataków, szerzenia podżegających dezinformacji i penetrowania wrażliwych systemów. Sztuczna inteligencja może na przykład przetłumaczyć źle sformułowane wiadomości phishingowe na płynny angielski, a także generować cyfrowe klony wysokich rangą urzędników państwowych.

.Anthropic poinformowało, że hakerzy byli w stanie wykorzystać techniki „jailbreakingu”, które polegają na oszukaniu systemu sztucznej inteligencji w celu ominięcia zabezpieczeń przed szkodliwymi zachowaniami, w tym przypadku twierdząc, że są pracownikami legalnej firmy zajmującej się cyberbezpieczeństwem.

Wykorzystanie sztucznej inteligencji do automatyzacji lub kierowania cyberatakami będzie również atrakcyjne dla mniejszych grup hakerskich i samotnych hakerów, którzy mogą wykorzystać sztuczną inteligencję do zwiększenia skali swoich ataków.

Reakcje na ujawnienie informacji przez Anthropic były mieszane, niektórzy postrzegali to jako chwyt marketingowy mający na celu promowanie podejścia Anthropic do kwestii cyberbezpieczeństwa, a inni z zadowoleniem przyjęli to ostrzeżenie i otwartość w pokazywaniu również negatywnych skutków AI.

.Rosnące wykorzystanie AI w cyberatakach może wkrótce dać nawet małym grupom mocne narzędzia do automatyzowania włamań i dezinformacji. Jeśli systemy staną się łatwiejsze do obchodzenia, skala ataków może gwałtownie wzrosnąć.

Oprac: SŚ

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 17 listopada 2025