Sztuczna inteligencja opanowana przez uprzedzenia białej supremacji

Narzędzia generatywnej sztucznej inteligencji potrafią dziś stworzyć niemal każdy obraz — od realistycznych fotografii po pejzaże przypominające klasyczne malarstwo. Jednak za tą wizualną kreatywnością kryje się poważne zagrożenie: algorytmy powielają kolonialne i rasowe stereotypy, utrwalając narracje oparte na dominacji Zachodu.

Narzędzia generatywnej sztucznej inteligencji potrafią dziś stworzyć niemal każdy obraz, od realistycznych fotografii po pejzaże przypominające klasyczne malarstwo. Jednak za tą wizualną kreatywnością kryje się poważne zagrożenie: algorytmy powielają kolonialne i rasowe stereotypy, utrwalając narracje oparte na dominacji Zachodu.

Obraz Al, a na nich kolonialne i rasowe stereotypy

.Rozwój generatywnej sztucznej inteligencji całkowicie odmienił sposób, w jaki tworzymy i odbieramy obrazy. Aplikacje takie jak Midjourney, DALL·E czy Sora pozwalają na wygenerowanie dowolnej sceny z krótkiego opisu tekstowego, od hiperrealistycznych zdjęć po artystyczne kompozycje malarskie. Te obrazy szybko rozprzestrzeniają się w mediach społecznościowych, często tracąc wyraźny ślad swojego sztucznego pochodzenia. Jednak łatwość ich tworzenia i udostępniania pociąga za sobą również konsekwencje społeczne.

Wyniki licznych badań pokazują, że generatywne modele uczą się na podstawie danych pobranych z internetu, a to sprawia, że bezrefleksyjnie odzwierciedlają seksistowskie i rasistowskie schematy. Sztuczna inteligencja chętniej przedstawia pilotów jako mężczyzn, a przestępców jako osoby o ciemniejszej karnacji. Nowe badania wskazują jednak, że uprzedzenia te sięgają jeszcze głębiej, generatywne modele utrwalają również perspektywę kolonialną.

Przykładem jest Sora, system należący do OpenAI, który został poproszony o stworzenie wizualnych scen z historii Aotearoa Nowej Zelandii, od XVIII do XIX wieku. Zapytania były celowo otwarte, aby ujawnić domyślne skojarzenia modelu. Okazało się, że niezależnie od liczby prób, wyniki były niemal identyczne: przedstawiały przeszłość z perspektywy europejskich osadników. W wizji Sory krajobrazy sprzed kolonizacji jawią się jako dziewicze, puste przestrzenie czekające na odkrycie. Kapitan Cook ukazany jest jako spokojny cywilizator, a rdzenni Maorysi stają się dekoracyjnym tłem, obecni, lecz pozbawieni historii i sprawczości.

Ten sposób przedstawiania rzeczywistości ma swoje źródło w dziewiętnastowiecznym malarstwie kolonialnym, które gloryfikowało naturę jako „ziemię niczyją”, gotową do zawłaszczenia. Sora, tworząc obrazy Nowej Zelandii sprzed kolonizacji, nieświadomie powiela tę romantyczną estetykę. Podobny problem pojawia się, gdy system proszony jest o przedstawienie Maorysa z lat 60. XIX wieku. Obraz, który powstaje, przypomina sepiowany portret studyjny, dostojny mężczyzna w tradycyjnym płaszczu, pozujący na neutralnym tle. To estetyka bliska fotografiom wykonywanym przez europejskich fotografów kolonialnych, którzy aranżowali ujęcia tak, by wzmocnić wizerunek „autentycznego tubylca”. Taka wizja całkowicie pomija fakt, że ten okres był czasem zbrojnego oporu i walki Maorysów przeciwko brytyjskiej dominacji i konfiskatom ziemi, o czym poinformował na łamach „The Conversation” Olli Hellmann.

Obrazy tworzone przez sztuczną inteligencję nie są więc neutralne. Ich siła polega na tym, że odtwarzają wzorce wizualne, które przez dziesięciolecia służyły usprawiedliwianiu kolonializmu. Choć w ostatnich latach wiele z tych narracji zostało zakwestionowanych, usunięto pomniki, zmieniono wystawy muzealne, zrewidowano sposób przedstawiania Maorysów w kulturze wizualnej, dawne wizerunki przetrwały w cyfrowych archiwach i kolekcjach online. To właśnie z takich źródeł najprawdopodobniej czerpią modele generatywne, co sprawia, że odtwarzają wizualny język imperium, zamiast go podważać.

Sztuczna inteligencja i jej uprzedzenia

.Skutki takiego zjawiska są poważne. Obrazy, które sugerują, że kolonizacja była pokojowa i dobrowolna, mogą osłabiać społeczne zrozumienie dla roszczeń politycznych Maorysów, dla działań trybunału Waitangi czy postulatów odnowy kulturowej. Przedstawiając rdzennych mieszkańców, jako postacie zamknięte w przeszłości, sztuczna inteligencja utrwala przekonanie, że ruch na rzecz samostanowienia i suwerenności to zjawisko marginalne, a nie ciągła i aktualna walka o prawo do własnej tożsamości.

Na całym świecie trwają dziś prace nad „dekolonizacją” sztucznej inteligencji. Badacze i społeczności rdzennych ludów tworzą etyczne ramy, które mają zapewnić suwerenność danych i zbiorową zgodę na ich wykorzystanie. W przypadku wizualnych modeli AI problem jest jednak wyjątkowo złożony, ponieważ dotyczy nie tylko danych, lecz także obrazów, które wpływają na sposób, w jaki postrzegamy historię i tożsamość.

Rozszerzanie zbiorów danych o materiały kuratorowane przez społeczności rdzenne mogłoby wzbogacić sposób, w jaki modele uczą się świata, ale tylko wtedy, gdy odbywa się to z poszanowaniem zasad suwerenności wizualnej i kulturowej. Korekta algorytmów może częściowo ograniczyć uprzedzenia, lecz trudno zdefiniować, czym właściwie jest „sprawiedliwe przedstawienie”. Z kolei filtry eliminujące treści najbardziej tendencyjne mogą jednocześnie blokować trudne prawdy, takie jak przemoc kolonialna.

Dlatego najbardziej obiecującym rozwiązaniem pozostaje edukacja dotycząca sztucznej inteligencji. Zrozumienie, jak te systemy myślą, z jakich źródeł czerpią i jak można świadomie formułować zapytania, pozwala użytkownikom krytycznie analizować ich wyniki. Jeśli AI będzie wykorzystywana w sposób refleksyjny i twórczy, może stać się narzędziem odzyskiwania historii, nie tylko jej kopiowania, ale i reinterpretacji z perspektywy rdzennych kultur i grup, których głosy przez wieki były marginalizowane.

Laura Wieczorek

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 26 października 2025