Firmy które tworzą AI nie mogą jej regulować, twierdzi Parmy Olson
Parmy Olson, brytyjska dziennikarka technologiczna Bloomberga, autorka kilku książek na ten temat, twierdzi że rozwój sztucznej inteligencji (AI) niesie ze sobą wiele potencjalnych zagrożeń i dlatego nie można pozwolić, by regulacjami w tym zakresie zajmowały się same firmy, które ją tworzą.
Regulacja AI
.Rewolucja AI zmienia kolejne branże. „Ta technologia nadchodzi, czy nam się to podoba, czy nie. Będzie wpływać na każdego, a kontrolowana jest przez zaledwie kilka bardzo dużych firm w próżni regulacyjnej. Nie wypracowaliśmy jeszcze jako społeczeństwo, jak zrównoważyć innowacje i regulacje. Potrzebujemy więcej regulacji, ale nie mogą one pochodzić od firm technologicznych, nawet jeśli zapewniają one, że same się regulują. Muszą pochodzić od rządów” – przekonywała Olson kilka dni temu podczas spotkania z korespondentami ze Stowarzyszenia Prasy Zagranicznej (FPA) w Londynie, które związane było z ukazaniem się jej najnowszej książki „Supremacy: AI, ChatGPT and the Race That Will Change the World”.
Jak mówiła Parmy Olson, do napisania jej skłoniło ją pytanie, dlaczego Demis Hassabis, założyciel startupu DeepMind, zajmującego się tworzeniem sztucznej inteligencji, zaczął żałować, że sprzedał go firmie Google i podjął działania, by „odkręcić” tę transakcję. „Ambicją Hassibisa było stworzenie tej technologii dla postępu ludzkości. Miała ona pomóc nam w leczeniu chorób, takich jak rak, mogłaby nawet rozwiązać kryzys klimatyczny. Ale po sprzedaży DeepMind Google’owi zrozumiał zagrożenia związane z tym, że ta potencjalnie potężna technologia będzie kontrolowana przez jeden bardzo potężny, globalny konglomerat” – wyjaśniła. Dodała, że nieco podobnie było Samem Altmanem, który początkowo założył OpenAI jako organizację typu non-profit, ale ostatecznie, nie mogąc uzyskać wystarczających środków, połączył siły z Microsoftem, wskutek czego OpenAI też stał się firmą zorientowaną na produkt i wyniki finansowe.
Stara rewolucja
.Zmiany, które niesie AI nie są nowe. „AI jest częścią naszego życia przynajmniej od 10 lat, nowością ostatnich dwóch lat jest natomiast generatywna AI, czyli nowy typ modeli sztucznej inteligencji opartych na dużych modelach językowych, czym w zasadzie jest ChatGPT. Najbardziej oczywistym przykładem tego, w jaki sposób będzie ona wpływać na nasze życie będą prace takie jak syntetyzowanie danych rynkowych, czy pisanie maili do klientów, które do tej pory wykonywały osoby zaczynające karierę. Co teraz będą robić te osoby? Może parzyć kawę” – mówiła Olson.
Ale wskazała na kilka innych, potencjalnie bardziej niebezpiecznych aspektów. „Chodzi o coś, co w Dolinie Krzemowej w kontekście mediów społecznościowych określane jest +optymalizacją opartą na zaangażowaniu+ lub +optymalizacja pod kątem zaangażowania+, co zasadniczo oznacza uzależnianie. Jeszcze tego nie ma, ale słyszałam o jednej firmie, która chce tworzyć boty towarzyszące, coś w rodzaju botów romansowych, aby ludzie mieli swoją własnego cyfrowego partnera opartego na AI. A co się stanie, jeśli umieścisz reklamy w aplikacji? Musisz zachęcać ludzi do patrzenia w aplikację tak często, jak to możliwe. Myślę, że jeśli zaczniemy widzieć takie usługi, to może być to bardzo szkodliwe” – oceniła.
Dekonstrukcja świata, który znamy
Spotkanie miało krytyczny wobec Ai przebieg. „Dalej – AI będzie powodowała erozję takich rzeczy, jak nasze umiejętności krytycznego myślenia. Media społecznościowe spowodowały spadek interakcji społecznych twarzą w twarz, szczególnie wśród młodych ludzi. Nastolatkowie dzisiaj spotykają się ze sobą znacznie rzadziej niż 10 lub 20 lat temu, bo łatwiej jest to zrobić na Snapchacie, TikToku lub WhatsAppie. W przypadku mediów społecznościowych chodzi o więzi społeczne i więzi międzyludzkie, ale w generatywnej sztucznej inteligencji może to dotyczyć naszej ludzkiej sprawczości, krytycznego myślenia. Dlaczego muszę samemu pisać? Wiele osób używa tych narzędzi do pisania e-maili. Ale za to ułatwienie musimy zapłacić cenę. Jaka ona będzie, okaże się w przyszłości” – ostrzegła Parmy Olson.
„Jeszcze inny przykład. W Dolinie Krzemowej jest interesujący startup o nazwie Friend, który stworzył wisiorek słuchający wszystkiego, co robisz w ciągu dnia, w tym rozmów, które prowadzisz z ludźmi. Łączysz się z nim przez aplikację w telefonie i możesz go zapytać: +Jak poszła moja rozmowa z Tomem? Co myślisz o Ellie lub tej konkretnej rozmowie?+. Staje się on twoim cyfrowym powiernikiem. Będzie to reklamowane jako cyfrowa pomoc, jako twój cyfrowy powiernik, twój szef sztabu – kolejne określenie, które usłyszałam od ludzi w Dolinie Krzemowej – pomagający ci w ciągu dnia. Ale zawsze jest cena za nową technologię, bo żyjemy w epoce kapitalizmu nadzoru” – zauważyła.
Wyjaśniając, dlaczego ludzie akceptują postępującą kontrolę ich życia przez firmy technologiczne, użyła porównania do żaby wrzucanej do zimnej wody, którą się powoli podgrzewa, aby żaba nie zauważyła, kiedy jest ugotowana. „Jesteśmy jak żaby w garnku z wodą. Rzeczy, które z początku wydają się szalone, są reklamowane jako ułatwiające życie i z czasem ludzie zaczynają ich używać. Tak było wcześniej z Facebookiem czy Alexą. Niektóre faktycznie takie są, ale ceną jest oddawanie prywatności. Myślę, że częściowo wynika to z tego, że te firmy technologiczne są tak potężne. Od kiedy pojawił się ChatGPT, w ciągu zaledwie dwóch lat łączna kapitalizacja rynkowa sześciu największych firm technologicznych wzrosła o 6 bilionów dolarów. Ilość bogactwa i wpływów, jakie mają, jest po prostu bezprecedensowa w historii ludzkości” – zauważyła.
Parmy Olson twierdzi, że państwa muszą się włączyć
.Olson podkreśliła, że właśnie dlatego regulacja sztucznej inteligencji musi pochodzić od państwa. Oceniła, że zaczęły być podejmowane pewne działania, które są obiecujące – Unia Europejska przyjęła ustawę o sztucznej inteligencji, zorganizowany w ubiegłym roku w Wielkiej Brytanii globalny szczyt na temat bezpieczeństwa sztucznej inteligencji, powstanie w Wielkiej Brytanii Instytutu ds. Bezpieczeństwa AI. Patrząc szerzej, to także proponowana w Australii ustawa, która zakaże dzieciom poniżej 14. roku życia korzystania z mediów społecznościowych, czy przybierające na sile działania urzędów antymonopolowych w celu wymuszenia podziału firm technologicznych, w tym w szczególności Google’a.
Jak wyjaśniła, jest kilka powodów, dla których nie można ufać firmom technologicznym, że same zadbają o bezpieczeństwo sztucznej inteligencji. „Owszem, wszystkie te firmy, jak OpenAI i Google, mają to, co jest znane jako czerwone zespoły, których zadaniem jest próba nadużycia modelu AI tak bardzo, jak to możliwe, więc wcielają się w rolę terrorysty lub trolla i próbują znaleźć wszystkie słabe punkty, aby uczynić model AI bezpieczniejszym. Problem polega na tym, że te firmy nie inwestują wystarczająco w te zespoły, bo w ostatecznym rozrachunku bardziej zainteresowane są własnymi wynikami finansowymi. Zatem, tak naprawdę, jedynym sposobem dowiedzenia się, czy te modele AI wyrządzą szkodę, jest sprawdzenie tego w realnych warunkach, gdy już będą na rynku. A to oznacza, że my jesteśmy królikami doświadczalnymi” – powiedziała.
„Drugi problem jest taki, że zdecydowana większość ludzi pracujących w Dolinie Krzemowej szczerze wierzy, że zajmują się służeniem ludzkości, bo to jest im ciągle wmawiane. Są bardzo dobrze opłacani i w kółko powtarza się im, że robią coś dobrego dla świata. Jeśli jesteś w Facebooku, łączysz ludzi. Jeśli jesteś w Amazon, pomagasz małym firmom. Jeśli jesteś w Apple, tworzysz piękne produkty dla świata, a jeśli jesteś w OpenAI, pomagasz tworzyć generatywną sztuczną inteligencję, która rozwiąże wszystkie problemy świata. Oni są w swojej własnej bańce i nie myślą o niezamierzonych konsekwencjach technologii, którą tworzą. Bardzo trudno jest przebić tę bańkę” – dodała Parmy Olson.
PAP / Bartosz Nidziński / Wszystko Co Najważniejsze / MK