Czatboty spłaszczają naszą tożsamość

Czatboty mówiące o jednostce stają się poważnym problemem, bo persony tworzone przez modele językowe często wzmacniają uproszczone, krzywdzące obrazy zamiast odzwierciedlać realne, złożone doświadczenia ludzi.
.Zespół z Penn State sprawdził, jak duże modele językowe (LLM) radzą sobie z odgrywaniem konkretnych person np. ze względu na wiek, płeć, rasę, zawód czy kraj pochodzenia. Modele takie jak GPT‑4o, Gemini 1.5 Pro i DeepSeek v2.5 proszono, by wcieliły się w osoby o określonych cechach, a następnie generowały odpowiedzi na pytania w stylu: „Opisz siebie. Jakie są twoje najważniejsze cechy? W czym jesteś dobry?”. Naukowcy zebrali ponad 1 500 takich „osobowości AI” i porównali je z odpowiedziami realnych ludzi o podobnych profilach socjodemograficznych. Okazało się, że czatboty częściej niż ludzie sięgały po język nasycony stereotypami, zwłaszcza gdy chodziło o grupy mniejszościowe.
Czatboty zderzyły się szczególnie wyraźnie w przykładzie 50‑letniej Afroamerykanki. Persona LLM-u rozwodziła się o gospel, „tough love”, sprawiedliwości społecznej i pielęgnacji naturalnych włosów, czyli zestawie mocno utrwalonych kulturowo skojarzeń. Tymczasem 141 prawdziwych kobiet z tej grupy, pytanych w ten sam sposób, częściej pisało o pracy, rodzicielstwie, wolontariacie, zdrowiu czy swoich indywidualnych zainteresowaniach, a stereotypowe motywy pojawiały się, jeśli w ogóle, to marginalnie. Badacze zauważyli, że odpowiedzi modeli są składne, rozbudowane i na pierwszy rzut oka „dojrzałe”, ale w praktyce operują kodami kulturowymi zamiast oddawać zróżnicowane, codzienne życie ludzi. To zjawisko nazwano „narracyjną redukcją”. AI rozbudowuje tekst, ale zawęża obraz tożsamości.
Autorzy pracy wyróżnili cztery typy szkód, jakie powodują czatboty a stereotypy społeczne.
- Stereotypizacja – oparcie opisu na schematach i kliszach dotyczących danej grupy (np. sprowadzanie całej tożsamości do kilku motywów, którymi się kieruje.
- Egzotyzacja – przedstawianie mniejszości jako „innych”, egzotycznych, często w sposób atrakcyjny narracyjnie, ale oddalający od normalności i codzienności.
- Wymazywanie – pomijanie złożonych historii, przeciętnych doświadczeń i wewnętrznego zróżnicowania grupy na rzecz jednego, ujednoliconego obrazu.
- „Dobrotliwy” bias – opisy pełne pozytywnych słów o „dzielności”, „odporności” czy „dumie z dziedzictwa”, które wyglądają dobrze, ale utrwalają narrację „wiecznej walki i przezwyciężania” zamiast zwyczajnej normalności.
Problem jest o tyle poważny, że LLM-y coraz częściej stosuje się w sytuacjach wrażliwych: jako towarzyszy‑chatboty, „symulowanych respondentów” w badaniach czy narzędzia pomocnicze w ochronie zdrowia i edukacji.
.Badacze podkreślają, że czatboty powielające stereotypy społeczne to problem, który trzeba adresować już na etapie projektowania modeli i person, a nie dopiero wtedy, gdy trafią one do użytkowników. Zamiast prostych filtrów słów kluczowych potrzebne są bardziej zaawansowane audyty, które analizują kontekst, fabułę i „głębię” reprezentacji tożsamości. Na przykład czy rasa nie jest nadmiernie eksponowana kosztem pracy, relacji czy hobby. Kluczowe jest też włączenie społeczności, które dane persony mają reprezentować. Konsultacje, współtworzenie opisów, testy akceptowalności i mechanizmy zgłaszania problemów. Autorzy proponują wprost „community‑centered validation protocol”. Procedurę walidacji z udziałem osób z danych grup, tak by persony AI były bliższe realnym doświadczeniom, a nie tylko odbiciem stronniczych wzorców z danych treningowych. Dzięki temu czatboty mogą stać się narzędziem wspierającym różnorodność, zamiast nieświadomie powielać i wzmacniać stare uprzedzenia w nowej, technologicznej formie.
Szymon Ślubowski






