Bez globalnego porozumienia w sprawie AI grozi nam katastrofa - „Foreign Affairs”
Czy sztuczną inteligencję uda się okiełznać tak, jak broń nuklearną? Nie jest jeszcze za wcześnie na rozpoczęcie poważnych rozmów między Ameryką i Chinami, jednymi supermocarstwami w zakresie sztucznej inteligencji – twierdzą Henry Kissinger, weteran amerykańskiej polityki i profesor Graham Allison w tekście „Droga do kontroli zbrojeń sztucznej inteligencji”, opublikowanym przez magazyn Foreign Affairs.
Sztuczna inteligencja niczym broń nuklearna?
.Autorzy są zdania, że przy mierzeniu się z obecnymi wyzwaniami związanymi z rozwojem sztucznej inteligencji można sięgnąć po nauki zaczerpnięte z historii ograniczania ryzyka broni nuklearnej. Twierdzą jednak, że oba typy zagrożeń dzielą zasadnicze różnice. Po pierwsze, rozwojem technologii nuklearnej kierowały rządy, z kolei to prywatni przedsiębiorcy, technolodzy i firmy napędzają współczesne postępy w dziedzinie sztucznej inteligencji. I znacznie wyprzedzają wszelkie analogiczne wysiłki rządu.
„Co więcej, firmy ze sobą konkurują. Przyspiesza to innowacje, ale ponieważ prywatne podmioty koncentrują się na rachunku zysków i strat, interesy narodowe „będą w tej kalkulacji niedoceniane” – podkreślają. Po drugie, tworzenie broni jądrowej wymagało złożonej infrastruktury na każdym etapie: od wzbogacania uranu po projektowanie broni jądrowej. Produkty były obiektami fizycznymi, a zatem policzalnymi. Tam, gdzie można było sprawdzić, co robi przeciwnik, można było tworzyć ograniczenia. Natomiast sztuczna inteligencja stanowi zupełnie inne wyzwanie.
Jak piszą autorzy jej główne ewolucje zachodzą w umysłach ludzi. „Jej zastosowanie ewoluuje w laboratoriach, a jej wdrożenie jest trudne do zaobserwowania. Broń nuklearna jest namacalna; istota sztucznej inteligencji jest konceptualna” – diagnozują eksperci. Po trzecie, sztuczna inteligencja rozwija się i rozprzestrzenia z prędkością, która uniemożliwia długie negocjacje. Kontrola zbrojeń rozwijała się przez dziesięciolecia, ale ograniczenia dla AI muszą pojawić się, zanim AI zostanie wbudowana w strukturę bezpieczeństwa każdego społeczeństwa, a więc zanim maszyny zaczną wyznaczać własne cele (a to może nastąpić w ciągu najbliższych pięciu lat).
Biznes i rząd muszą współpracować zanim będzie za późno – „Foreign Affairs”
.Na szczęście – zauważają – największe firmy, które uczyniły Stany Zjednoczone wiodącym supermocarstwem AI, zdają sobie sprawę, że mają obowiązki nie tylko wobec swoich akcjonariuszy, ale także wobec kraju i całej ludzkości. Wiele z nich opracowało już własne wytyczne dotyczące oceny ryzyka przed wdrożeniem, zmniejszania stronniczości danych szkoleniowych i ograniczania niebezpiecznych zastosowań swoich modeli. Znaczącym krokiem we właściwym kierunku była inicjatywa administracji prezydenta Bidena, dzięki której liderów siedmiu głównych firm zajmujących się sztuczną inteligencją zjawili się w Białym Domu, by wspólnie zobowiązać się do ustanowienia wytycznych zapewniających „bezpieczeństwo, ochronę i zaufanie”.
Skala zagrożeń związanych z nieograniczonym postępem sztucznej inteligencji wymaga, aby liderzy zarówno w rządzie, jak i biznesie zaczęli działać jak najszybciej, i to mimo istniejących w USA ostrych podziałów politycznych – twierdzą eksperci. Każda z firm dysponujących ogromnymi możliwościami obliczeniowymi do trenowania nowych modeli sztucznej inteligencji oraz każda firma lub grupa badawcza opracowująca nowe modele powinna stworzyć grupę analizującą ludzkie i geopolityczne implikacje swoich komercyjnych operacji AI.
Konieczność rozmów ponad podziałami
.”Wymaga to współdziałania obu partii politycznych” – podkreślają eksperci. Prezydent i Kongres powinni powołać krajową komisję składającą się z wybitnych, bezpartyjnych byłych liderów sektora prywatnego, Kongresu, wojska i wywiadu, która powinna zaproponować szczegółowe obowiązkowe zabezpieczenia. Winny one obejmować wymagania dotyczące stałego monitoringu możliwości obliczeniowych potrzebnych do szkolenia modeli sztucznej inteligencji, takich jak GPT-4, oraz tego, że zanim firmy wprowadzą na rynek nowy produkt czy model, przetestują go pod kątem ekstremalnych zagrożeń.
Analitycy zwracają uwagę, że wcale nie jest za wcześnie na rozpoczęcie poważnych rozmów z jedynym na świecie supermocarstwem AI. Chińscy mistrzowie w sektorze technologicznym – Baidu (czołowa wyszukiwarka w kraju), ByteDance (twórca TikTok), Tencent (twórca WeChat) i Alibaba (lider w handlu elektronicznym) – budują własne chińskojęzyczne analogi ChatGPT, chociaż chiński system polityczny stwarza szczególne trudności dla sztucznej inteligencji. Biden i Xi Jinping powinni zatem spotkać się w najbliższej przyszłości na prywatnej rozmowie o kontroli broni AI.
Aplikacje stwarzające katastrofalne zagrożenie
.Każdy z nich powinien omówić, jak ocenia zagrożenia stwarzane przez sztuczną inteligencję, co robi jego kraj, aby zapobiec aplikacjom stwarzającym katastrofalne zagrożenia oraz w jaki sposób jego państwo przeciwdziała eksportowi zagrożeń przez krajowe firmy. Powinni stworzyć grupę doradczą składającą się z amerykańskich i chińskich naukowców zajmujących się sztuczną inteligencją oraz innych osób, które zastanawiały się nad konsekwencjami tych wydarzeń. Podejście to byłoby wzorowane na istniejącej dyplomacji Track II w innych dziedzinach, gdzie grupy składają się z osób wybranych ze względu na ich osąd i uczciwość, choć nie są formalnie zatwierdzone przez ich rząd. Na podstawie naszych rozmów z kluczowymi naukowcami w obu rządach jesteśmy przekonani, że może to być bardzo produktywna dyskusja – podkreślają analitycy.
Zdaniem autorów, amerykańsko-chińskie działania byłyby tylko częścią globalnej dyskusji na temat sztucznej inteligencji. W dłuższej perspektywie wymagany będzie globalny porządek w zakresie sztucznej inteligencji. Prace nad nim powinny rozpocząć się od krajowych wysiłków na rzecz zapobiegania najbardziej niebezpiecznym i potencjalnie katastrofalnym konsekwencjom sztucznej inteligencji. Wszystkie te inicjatywy powinny być uzupełnione dialogiem między naukowcami z różnych krajów.
Czy jeśli Biden, Xi i inni światowi przywódcy podejmą teraz działania, aby stawić czoła wyzwaniom związanym ze sztuczną inteligencją, tak jak ich poprzednicy w walce z zagrożeniami nuklearnymi we wcześniejszych dziesięcioleciach, odniosą taki sam sukces? Patrząc na historię i rosnącą polaryzację, trudno być optymistą. Niemniej jednak fakt, że minęło już 78 lat pokoju między mocarstwami nuklearnymi, powinien zainspirować wszystkich do opanowania rewolucyjnych, nieuniknionych wyzwań naszej przyszłości związanych ze sztuczną inteligencją – konkludują Henry Kissinger i Graham Allison.
Nieunikniona rewolucja AI
.Na temat tego jakie szanse i zagrożenia niesie coraz bardziej postępujący rozwój sztucznej inteligencji, na łamach „Wszystko Co Najważniejsze” pisze David LISNARD w tekście „ChatGPT. Problem jest w innym miejscu”.
„Radykalna innowacja z natury niesie ze sobą wielkie ryzyko, proporcjonalne do możliwości, jakie stwarza. U zarania pojawienia się sztucznej inteligencji uczelnia Sciences Po – podobnie jak uczelnie w Nowym Jorku – zabroniła korzystania z niej. Jeśli w świetle ogromu czekających nas wstrząsów obawy są uzasadnione, rozwiązań nie znajdziemy w odrzuceniu, przejawiającym się w skrajnym przypadku ideą spowolnienia gospodarczego, które nie oferuje żadnej wiarygodnej alternatywy i proponuje świat bez innowacji, naznaczony strachem i wycofaniem, społeczeństwo, w którym każdy powinien zredukować swój byt: mniej podróżować, mniej pracować, mniej działać, mniej tworzyć. Mniej żyć”.
„To śmiercionośny projekt polityczny. Musimy pozostać wierni naszym zasadom, które jako jedyne mogą kierować naszymi wyborami w burzliwych czasach: wolność jako nadrzędna wartość, odpowiedzialność jako nieuchronne następstwo wolności, kultura i krytyczne myślenie jako źródła indywidualnej emancypacji i zbiorowej więzi, godność ludzka jako ostateczny i ontologiczny cel”.
.„Innowacyjność jest nierozerwalnie związana z życiem, z ludzkością, a teraz z jej przetrwaniem w obliczu wyzwania ekologicznego. Sprzeciw wobec rewolucji AI byłby daremny. Możemy aspirować do rozwijania nauki i świadomości. Taka jest rola polityki. W kwestii sztucznej inteligencji tą świadomością jest wiedza o pochodzeniu treści, o przejrzystości informacji dotyczących narzędzia i jego ograniczeń” – pisze David LISNARD.
PAP/WszystkoCoNajważniejsze/MJ