Dlaczego sztuczna inteligencja powinna być demokratyczna?
Najpierw należy zidentyfikować obszary ludzkiego działania oraz wybory dokonywane przez ludzi podczas tworzenia systemów sterowanych danymi – piszą Josh SIMONS i Eli FRANKEL
.W 2022 roku w świecie literatury i sztuki miały miejsce nowe, dość niekonwencjonalne debiuty. Pewien obiecujący literat z niespotykaną dotąd szybkością pisał wiersze, opowiadania i eseje, a kilku młodych artystów stworzyło wspaniałe obrazy i portrety. Twórcami tymi nie są ludzie, lecz systemy sztucznej inteligencji, które, przynajmniej z pozoru wydają się rzeczywiście inteligentne.
Pozory mogą mylić. Za finansowaniem typu venture capital, błyskotliwymi hasłami i oknami wieżowców w San Francisco, w których powstają systemy takie jak ChatGPT, kryje się coś prostszego: przewidywanie. Wystarczy wpisać coś do okna dialogowego. To, co pojawia się na ekranie, nie jest przejawem systemu, który rozumie naszą prośbę. Odpowiedź jest generowana przez sieć neuronową, czyli algorytmy nauczone przewidywania, które wyniki z całych zasobów sieci będą w danym przypadku użyteczne.
Może się wydawać, że stoi za tym rozumienie, a my oglądamy rezultaty działań prawdziwego autora – tak jednak nie jest. To jedynie przewidywanie i naśladowanie. Nawet najbardziej skomplikowane systemy sztucznej inteligencji to w rzeczywistości zaawansowane formy uczenia się maszyn, w których algorytmy nabywają umiejętności przewidywania konkretnych wyników na podstawie wzorców i struktur w ogromnych zbiorach danych.
To istotne, ponieważ większość realnych szkód, które te systemy mogą wyrządzić – jak również większość możliwości, które oferują – nie ma nic wspólnego z robotami przejmującymi władzę nad światem lub z samogenerującymi się systemami SI. Ma za to znaczenie to, jak, kiedy i dlaczego powinniśmy stosować potężne narzędzia predykcyjne w systemach decyzyjnych naszych organizacji politycznych, społecznych i gospodarczych. W jaki sposób, jeśli w ogóle, powinniśmy używać predykcji do decydowania o tym, kto dostanie pożyczkę lub kredyt hipoteczny, do których dzielnic wysłać policjantów, które zgłoszenia o znęcaniu się nad dziećmi i ich zaniedbywaniu należy zbadać czy też które posty usunąć z Facebooka lub które z nich zaproponować użytkownikowi? Nie ma niestety jednej odpowiedzi na takie pytania. Dylematy prawne i moralne związane z wykorzystaniem przez policję predykcji opartej na danych są często skrajnie różne od dylematów dotyczących wykorzystania tej metody do przydzielania kredytów. Z kolei całkiem odmienny od obu tych zagadnień jest temat wykorzystania SI do kształtowania i moderowania sfery publicznej. Oznacza to, że przepisy, których celem jest regulacja działań organizacji wykorzystujących dane do podejmowania decyzji, powinny być inne dla policji, inne dla sektora finansowego i jeszcze inne dla mediów społecznościowych.
Wyzwania normatywne wiążące się z zastosowaniem narzędzi predykcyjnych zależą w ogromnym stopniu od tego, do czego te narzędzia są wykorzystywane. Potrzebujemy podstawowej idei, dzięki której rozwiązania regulacyjne będą akceptowalne. Tą ideą powinien być rozkwit demokracji – z uwzględnieniem ochrony politycznej równości obywateli, utrzymania sfery publicznej czy administrowania infrastrukturą. To powinno pomóc nam zbudować wizję zarządzania algorytmami, sztuczną inteligencją i uczeniem się maszyn.
Przede wszystkim należy zidentyfikować obszary ludzkiego działania oraz wybory dokonywane przez ludzi podczas tworzenia systemów sterowanych danymi. Wymaga to dogłębnego przeanalizowania sposobu, w jaki informatycy definiują zmienne docelowe, aby przewidywać, konstruować i oznaczać zbiory danych oraz rozwijać algorytmy i modele treningowe. Wydaje się to o wiele bardziej skomplikowanie, niż jest w rzeczywistości, dlatego warto poświęcić chwilę na zapoznanie się z tymi kwestiami. Codzienne wybory dokonywane z pomocą informatyków w rządzie, biznesie i w organizacjach non profit wpływają na wartości moralne i wybory polityczne. Kiedy decydenci i informatycy korzystali z samouczenia się maszyn, aby skuteczniej reagować na skargi dotyczące przemocy domowej wobec dzieci, okazało się, że nieumyślnie oparli się na danych odzwierciedlających dziesięciolecia, w których obowiązywały przepisy oparte na uprzedzeniach. Nie istnieje sposób na zbudowanie neutralnego narzędzia predykcyjnego. Co więcej, moje badania ujawniają polityczny charakter wyborów związanych z tworzeniem narzędzi predykcyjnych i pokazują, że najczęściej mamy do czynienia z nowymi wersjami starych, głęboko zakorzenionych problemów.
Dotyczy to prawdopodobnie najstarszego wyzwania demokracji – zapewnienia równości obywateli. Kiedy komisje ds. zwolnień warunkowych więźniów w Stanach Zjednoczonych zaczęły wykorzystywać dane do przewidywania ryzyka recydywy, natknęły się na uchwycony w nich rasizm. Historia uprzedzeń amerykańskiego systemu sądownictwa jest zapisana w danych wykorzystywanych do szkolenia algorytmów, które mogą następnie powielać i wzmacniać zapisane wzorce niesprawiedliwości. Narzędzia predykcyjne są interesującym obiektem badań pod kątem moralnym i politycznym – tworząc te narzędzia, trzeba zdecydować, jaką postawę przyjąć wobec historycznej niesprawiedliwości. Przyjęcie postawy neutralnej w celu zbudowania najdokładniejszego narzędzia skończy się odtworzeniem i utrwaleniem podstawowych wzorców niesprawiedliwości. I to właśnie robią systemy predykcji – odtwarzają wzorce z przeszłości. Kiedy więc tak powstałe przewidywania są wykorzystywane do kształtowania przyszłości, jest ona w istocie kształtowana na wzór przeszłości.
Badania dotyczą innego wyzwania, z którym demokracje zmagają się od czasów starożytnych Aten i Republiki Rzymskiej – utrzymania zdrowej sfery publicznej. Kiedy Facebook i Google używają systemów uczenia się maszyn, by przewidzieć, jakie treści najbardziej zaangażują użytkowników, a następnie uszeregować je w kolejności od najbardziej do najmniej potencjalnie angażujących, tworzą sferę publiczną zorganizowaną wokół zaangażowania. I znowu – każdy sposób wykorzystania predykcji do uszeregowania i uporządkowania informacji oraz idei krążących w sferze publicznej jest wyznaczany przez zestaw zasad moralnych i politycznych dotyczących tego, jak ta sfera powinna wyglądać w demokracji. Kiedy pytamy o właściwe cele targetowania treści mediów społecznościowych, powracamy do starożytnych rozważań na temat prawdy i dostępu do informacji. Oznacza to, że tworząc przepisy regulacyjne, musimy zmierzyć się z podstawowymi pytaniami o to, jak ma wyglądać nasza sfera publiczna, aby wspierać demokrację – a zatem z pytaniami, których często unikamy lub które zostawiamy technokratycznym podmiotom regulacyjnym.
.Powszechne wykorzystanie predykcji może zmusić nas do powrotu do demokracji i przyjęcia, że wszystko jest na wskroś polityczne. Jedynym sposobem na zbudowanie struktur zarządzania i regulacji dla algorytmów, sztucznej inteligencji i uczenia się maszyn jest zmierzenie się z pytaniami o charakter naszego wspólnego świata i o to, jak odnosimy się do siebie jako współmieszkańcy tradycyjnej i cyfrowej przestrzeni publicznej. Do tego właśnie potrzebna jest demokracja – aby zapewnić strukturę, procesy i instytucje, które z czasem pozwolą nam jako społeczeństwu odpowiedzieć na te pytania. Powinniśmy być wdzięczni, że żyjemy w demokracji.
Josh Simons
Eli Frankel