Członkowie PE chcą nadzoru nad rozwojem sztucznej inteligencji
Grupa 12 europosłów wezwała światowych przywódców do zorganizowania szczytu, podczas którego wypracowane zostaną metody pozwalające kontrolować rozwój sztucznej inteligencji (AI). Zdaniem polityków zaawansowane systemy AI rozwijają się szybciej niż oczekiwano.
.Dwunastu członków Parlamentu Europejskiego, którzy pracują nad unijnymi przepisami dotyczącymi technologii, wezwało w liście otwartym prezydenta USA Joe Bidena i przewodniczącą Komisji Europejskiej Ursulę von der Leyen do zwołania szczytu i stwierdziło, że firmy zajmujące się sztuczną inteligencją powinny działać bardziej odpowiedzialnie. Współautorem listu jest polski europoseł Kosma Złotowski.
Rozwój sztucznej inteligencji – mechanizmy kontroli
.„Szybki i niekontrolowany rozwój technologii to ogromne wyzwanie zarówno społeczne, ekonomiczne jak i prawne. W ostatnich miesiącach obserwujemy nowe przykłady zastosowania sztucznej inteligencji, które wywołują entuzjazm, ale także budzą obawy o to czy nasze prawa jako użytkowników i konsumentów tych narzędzi będą w odpowiedni sposób chronione. Podsycanie strachu przed innowacjami jest jednak drogą donikąd. Potrzebujemy jasnych przepisów, które będą zobowiązywać producentów i dystrybutorów produktów i usług opartych na AI do przewidywania i minimalizowania zagrożeń dla naszego zdrowia, bezpieczeństwa czy danych osobowych” – powiedział europoseł Kosma Złotowski.
Jak dodał, nowe prawo o sztucznej inteligencji, nad którym pracuje PE, może być właściwym narzędziem, aby zapewnić najwyższe możliwe standardy w tym zakresie.
„Mamy jednak świadomość, że Unia Europejska jest tylko jednym z uczestników globalnego wyścigu technologicznego, dlatego powinniśmy ściśle współpracować z naszymi demokratycznymi partnerami, zwłaszcza z USA, aby określić minimalne standardy dla tworzenia godnej zaufania sztucznej inteligencji. Dlatego jako sprawozdawcy pracujący nad AI Act wzywamy przewodniczącą von der Leyen i prezydenta Bidena m.in. do zwołania globalnego szczytu wysokiego szczebla w celu uzgodnienia wstępnego zestawu zasad rządzących rozwojem, kontrolą i wdrażaniem bardzo potężnej sztucznej inteligencji” – dodał Złotowski.
W liście wezwano demokratyczne i „niedemokratyczne” kraje do zachowania powściągliwości w pogoni za bardzo potężną sztuczną inteligencją.
Jak wskazuje Reuters, list europosłów pojawił się kilka tygodni po tym, jak właściciel Twittera Elon Musk i ponad 1000 osób zajmujących się zaawansowanymi technologiami zażądało sześciomiesięcznej przerwy w rozwoju systemów potężniejszych niż system OpenAI ChatGPT.
Ten list otwarty, opublikowany w marcu przez Future of Life Institute (FLI), ostrzegał, że sztuczna inteligencja może rozpowszechniać dezinformację w niespotykanym dotąd tempie, a maszyny mogą przechytrzyć i zastąpić ludzi, jeśli nie będą kontrolowane.
Sztuczna inteligencja powinna być demokratyczna
.„Najpierw należy zidentyfikować obszary ludzkiego działania oraz wybory dokonywane przez ludzi podczas tworzenia systemów sterowanych danymi” – piszą Josh SIMONS i Eli FRANKEL, eksperci związani z Uniwersytetem Harvarda.
Jak podkreślają, „nawet najbardziej skomplikowane systemy sztucznej inteligencji to w rzeczywistości zaawansowane formy uczenia się maszyn, w których algorytmy nabywają umiejętności przewidywania konkretnych wyników na podstawie wzorców i struktur w ogromnych zbiorach danych”.
„To istotne, ponieważ większość realnych szkód, które te systemy mogą wyrządzić – jak również większość możliwości, które oferują – nie ma nic wspólnego z robotami przejmującymi władzę nad światem lub z samogenerującymi się systemami SI. Ma za to znaczenie to, jak, kiedy i dlaczego powinniśmy stosować potężne narzędzia predykcyjne w systemach decyzyjnych naszych organizacji politycznych, społecznych i gospodarczych” – podkreślają osh SIMONS i Eli FRANKEL.
Ich zdaniem, „wyzwania normatywne wiążące się z zastosowaniem narzędzi predykcyjnych zależą w ogromnym stopniu od tego, do czego te narzędzia są wykorzystywane. Potrzebujemy podstawowej idei, dzięki której rozwiązania regulacyjne będą akceptowalne. Tą ideą powinien być rozkwit demokracji – z uwzględnieniem ochrony politycznej równości obywateli, utrzymania sfery publicznej czy administrowania infrastrukturą. To powinno pomóc nam zbudować wizję zarządzania algorytmami, sztuczną inteligencją i uczeniem się maszyn”.
Co się jeszcze może zepsuć?
.„Co się jeszcze może zepsuć? W zasadzie wszystko. Ostatnio powiało strachem, gdy na całym świecie padł Facebook. Był moment, gdy obawiano się, że awaria jest terminalna i przepadną wszystkie zdjęcia z wakacji, filmiki z kotami i wybuchy hejtu. Po paru godzinach program wrócił, awaria pewnie już została zapomniana. Ale koniec był bliski” – pisze Jan ŚLIWA, publicysta i informatyk.
Podkreśla on, że „trochę wcześniej źle prowadzony statek stanął w poprzek Kanału Sueskiego i go zablokował. Już zaczęły się dyskusje o przerwanych łańcuchach dostaw i kosztach opływania Afryki. Po niedługim czasie statek udało się wyprowadzić i otworzyć kanał. (…) Pokazało to wyraźnie, jak wielka jest nasza zależność nawet od stosunkowo drobnych wydarzeń. Nie ma w tym niczego demonicznego, maszyny nie przejmują nad nami władzy. Problem w tym, że my sami, dążąc do wygodnego życia, im tę władzę przekazujemy. Każda nowa rewolucja technologiczna tę zależność pogłębia”.
„Niebezpieczeństwa techniki są tym większe, im więcej oddajemy jej władzy. Kto powinien o tym decydować? W idealnej sytuacji: szlachetni badacze, uczciwi przywódcy i świadomi obywatele. W praktyce wiemy, że o takich trudno. Badacze widzą problemy jednostronnie, dbają o swoje kariery. Przywódcy mają ambicję, by ruszyć z posad bryłę świata albo by tylko wygrać wyborów. Obywatele wiedzą i rozumieją mało, są też poddani manipulacji ze wszystkich stron. Pewną opcją są platońskie autorytarne rządy filozofów/ekspertów. Trend ten jest ostatnio silnie widoczny. Na dłuższą metę chyba jednak lepszym rozwiązaniem jest otwarta dyskusja i demokracja” – pisze Jan ŚLIWA.
PAP/Łukasz Osiński/WszystkoCoNajważniejsze/PP