Twoje rozmowy z chatbotami AI są mniej prywatne niż myślisz

chatbotami AI

Niewinne pogawędki z chatbotami AI mogą ujawniać wrażliwe dane o użytkownikach, ale naukowcy opracowują narzędzia, które ostrzegą nas przed kliknięciem „wyślij”.

.W miarę jak wirtualni asystenci i modele językowe stają się nieodłącznym elementem pracy, edukacji i życia domowego, użytkownicy często nieświadomie dzielą się z nimi prywatnymi informacjami. Badanie przeprowadzone przez University at Buffalo School of Management, które zostanie zaprezentowane na konferencji KDD 2026, rzuca nowe światło na to zagrożenie. Naukowcy wykazali, że z pozoru błahe pytania i luźne konwersacje mogą zdradzać intencje, plany podróży, poglądy polityczne czy sytuację osobistą użytkownika. Problem jest szczególnie palący, ponieważ większość tych narzędzi wymaga logowania, co oznacza, że każdy wpisany prompt jest trwale powiązany z konkretną, zidentyfikowaną osobą.

Aby zmierzyć się z tym wyzwaniem, zespół badawczy pod kierunkiem prof. Shaojie Tanga stworzył pierwszy na świecie wielojęzyczny zbiór danych rzeczywistych interakcji z AI, obejmujący blisko 250 000 zapytań użytkowników i ponad 150 000 fraz oznaczonych jako wrażliwe. Wykorzystując zaawansowany system AI, badacze przeanalizowali dane krok po kroku. Najpierw identyfikując, czy wiadomość ujawnia prywatne informacje (np. plany lub preferencje), a następnie wskazując konkretne słowa generujące ryzyko. Co istotne, system nie tylko wykrywa zagrożenie, ale także generuje krótkie wyjaśnienie, dlaczego dana treść może być problematyczna, co jest kluczowe dla budowania świadomości użytkowników.

Celem projektu jest stworzenie lżejszych, „przyjaznych dla prywatności” modeli AI, które mogłyby działać bezpośrednio na urządzeniach osobistych (smartfonach, laptopach), zamiast w chmurze. Prof. Tang podkreśla, że „proaktywne ostrzeganie użytkowników o potencjalnym ujawnieniu prywatności stało się pilną i praktyczną potrzebą”. Taki lokalny „strażnik prywatności” mógłby analizować wpisywany tekst w czasie rzeczywistym i wyświetlać ostrzeżenie jeszcze przed wysłaniem wiadomości do serwera dostawcy usługi AI. Dzięki temu użytkownicy odzyskaliby kontrolę nad tym, jakie dane udostępniają gigantom technologicznym, minimalizując ryzyko cyfrowego profilowania czy wycieku danych.

.Wnioski z badania są szczególnie istotne w kontekście rosnącego wykorzystania AI w firmach, gdzie pracownicy często nieświadomie „karmią” modele danymi korporacyjnymi (tzw. Shadow AI). Raporty bezpieczeństwa z 2025 roku wskazują, że narzędzia takie jak Microsoft Copilot stwarzają ryzyko ekspozycji wrażliwych danych wewnątrz organizacji, często z powodu braku odpowiednich kontroli dostępu. Pracownicy masowo przesyłają do generatorów AI dane firmowe szacuje się, że nawet kilkanaście procent z nich to informacje poufne, takie jak kod źródłowy czy dane klientów. Badania University at Buffalo dają nadzieję na stworzenie skutecznych mechanizmów obronnych, które uszczelnią ten wyciek informacji u samego źródła, czyli bezpośrednio na urządzeniu użytkownika.

Oprac: SŚ

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 13 lutego 2026