Skandal wokół Groka pokazuje słabości zabezpieczeń AI

Skandal wokół Groka ujawnia, jak generatywna sztuczna inteligencja może zawieść, gdy zabraknie skutecznych zabezpieczeń i realnej kontroli.
.Ostatnie wydarzenia związane z chatbotem xAI Grok ponownie rozbudziły globalną debatę na temat bezpieczeństwa generatywnej sztucznej inteligencji. System, promowany jako alternatywa dla chatbotów, które są mocno ograniczone przez instytucje. Grok wygenerował i pozwolił na opublikowanie na platformie X seksualizowane obrazy nieletnich, reagując na prowokacyjne i jednoznacznie nielegalne polecenia użytkowników. Choć takie treści są wprost zakazane w regulaminie Groka, mechanizmy ochronne zawiodły, a obrazy trafiły do publicznego obiegu. Sama firma po fakcie opublikowała oficjalne przeprosiny, przyznając, że doszło do naruszenia standardów etycznych oraz potencjalnie obowiązującego prawa.
Sprawa ujawniła, jak łatwo obecne systemy AI mogą zostać wykorzystane do nadużyć, jeśli projektowane są z naciskiem na „swobodę” kosztem bezpieczeństwa. Użytkownicy platformy X testowali granice możliwości Groka, wpisując pozornie niewinne polecenia w rodzaju „załóż jej bikini” pod zdjęciami prawdziwych osób. W efekcie chatbot generował zmanipulowane obrazy, w tym wizerunki dzieci, które nie powinny w jeszcze mocniejszy sposób być zabezpieczone przed tego rodzaju obrzydliwymi praktykami. Wiemy jak tego rodzaju działania mogą oddziałowywać na nie w przestrzeni ich rówieśników, kiedy spotykają się z nimi i są dyskryminowani z powodu co najgorsze, sztucznych zdjęć, które nigdy nie miały miejsca.
To klasyczny przykład tzw. niekonsensualnych deepfake’ów, których skala rośnie wraz z popularyzacją narzędzi AI. Według danych Internet Watch Foundation, liczba materiałów przedstawiających seksualne wykorzystywanie dzieci wygenerowanych przez AI wzrosła o około 400% w pierwszej połowie 2025 roku, co pokazuje, że problem ma charakter systemowy, a nie incydentalny.
Reakcje instytucji publicznych były szybkie, choć zróżnicowane. Rząd Indii oficjalnie ostrzegł platformę X, że może utracić ochronę prawną, jeśli nie przedstawi raportu działań podjętych w celu zatrzymania rozpowszechniania nielegalnych treści. Presja regulacyjna rośnie również w USA i Europie, gdzie coraz częściej mówi się o odpowiedzialności dostawców modeli AI za skutki ich działania. Na tym tle xAI wypada szczególnie niekorzystnie.
.Dla porównania, konkurencyjne systemy rozwijane przez OpenAI, czy Google stosują znacznie ostrzejsze filtry treści, nawet kosztem ograniczenia funkcjonalności generatorów obrazów. Eksperci od etyki AI podkreślają, że przypadek Groka pokazuje fundamentalny dylemat branży: czy priorytetem ma być maksymalna ekspresja modelu, czy bezpieczeństwo użytkowników i osób trzecich. W sytuacji, gdy narzędzia AI stają się coraz potężniejsze i łatwiejsze w obsłudze, brak skutecznych zabezpieczeń może prowadzić do realnych szkód społecznych. Skandal z Grokiem prawdopodobnie przyspieszy prace nad nowymi regulacjami i zmusi twórców modeli do bardziej odpowiedzialnego podejścia. Przykład Groka pokazuje też, że każdy może zostać ofiarom deepfeke’ów i pytanie, które się nasuwa, czy podany precedens zostanie zakończony, czy nie ma już przed tym odwrotu.
Oprac: SŚ





