Unia Europejska próbuje okiełznać sztuczną inteligencję

Rada Unii Europejskiej przyjęła pierwsze na świecie przepisy o sztucznej inteligencji (AI). Dzielą one tę technologię na cztery kategorie: oprogramowanie wysokiego ryzyka, ograniczonego i minimalnego wpływu oraz systemy nieakceptowalne. Te ostatnie będą w UE zakazane.
Czym są systemy wysokiego ryzyka?
.Unijna ustawa o sztucznej inteligencji (AI Act) już została okrzyknięta przełomową – nie tylko dlatego, że na świecie nie wprowadzono jeszcze podobnych regulacji, ale także dlatego, że jako pierwsza klasyfikuje AI pod kątem potencjalnego ryzyka dla użytkowników, w myśl zasady, że im większe szkody może wyrządzić sztuczna inteligencja, tym surowsze będą przepisy regulujące jej użycie.
Nowe prawo dzieli różne rodzaje AI na cztery grupy: oprogramowanie wysokiego ryzyka, technologie ograniczonego i minimalnego wpływu oraz systemy nieakceptowalne, które będą w UE zakazane.
Modele niestwarzające ryzyka systemowego, takie jak chatboty czy gry, będą podlegać niewielkim wymogom, głównie dotyczącym przejrzystości. Chodzi o to, żeby użytkownicy mieli świadomość, że mają do czynienia ze sztuczną inteligencją. Dodatkowe wymogi bezpieczeństwa nałożone zostaną na treści zmanipulowane, tzw. deepfakes, czyli materiały wygenerowane przez AI, których celem jest wprowadzenie użytkownika w błąd. Te również bedą musiały być opatrzone wyraźnym oznaczeniem.
Systemy wysokiego ryzyka, np. technologie wykorzystywane w oświacie, jak systemy AI analizujące podania studentów o stypendia czy przyjęcie na studia, będą dopuszczane na rynek UE pod warunkiem spełnienia surowych wymogów. Oznacza to, że producenci bedą musieli ocenić ich ryzyko jeszcze przed wprowadzeniem na unijny rynek, a obywatele – np. studenci, kórzy nie dostaną świadczenia – będą mieli prawo do zaskarżenia decyzji podjętych z użyciem AI.
Zakazane będzie natomiast oprogramowanie stanowiące wyraźne zagrożenie dla praw podstawowych użytkowników. Chodzi tu o technologie pozwalające np. na monitorowanie i szpiegowanie ludzi czy wykorzystywanie ich danych wrażliwych, takich jak orientacja seksualna, pochodzenie lub wyznanie, do przewidywania ich zachowań, w tym do tzw. prognozowania kryminologicznego, czyli ryzyka popełnienia przez nich przestępstw, lub do podsuwania im treści mogących wpłynąć na ich decyzje i zachowanie.
Zabronione będzie też stosowanie tzw. systemu punktowania społecznego, służącego do oceny obywateli na podstawie ich zachowań społecznych. Tego typu technologie wykorzystywane są m.in. w Chinach, gdzie np. sąsiedzi przyznają sobie punkty za poprawne wyrzucanie śmieci na osiedlu. Zakaz będzie też dotyczył systemów monitorujących emocje ludzi w miejscach pracy, urzędach, szkołach lub na uczelniach. Takie technologie stosowane są czasem do przewidywania strajków i niepokojów społecznych.
Nowatorskie przepisy o sztucznej inteligencji
.AI nie będzie mogła być też wykorzystywana do śledzenia obywateli lub pobierania wizerunków ich twarzy z internetu lub monitoringu miejskiego, by stworzyć bazy danych służące rozpoznawaniu twarzy. Będą wyjątki, bo z systemów rozpoznawania twarzy pod pewnymi warunkami (np. przy poszukiwaniu osób podejrzanych o terroryzm) będą mogły korzystać służby. Tu zgodę będzie jednak napierw musiał wydać sąd lub właściwy urząd.
Przepisy zakładają również powołanie nowych organów monitorujących, w tym urzędu ds. sztucznej inteligencji przy Komisji Europejskiej czy rady do spraw sztucznej inteligencji, w której zasiadać mają przedstawiciele państw unijnych.
Firmy, które nie będą przestrzegać unijnych przepisów o AI, będą musiały liczyć się z surowymi karami. Będzie to albo część rocznego globalnego obrotu firmy lub odgórnie określona grzywna w zależności od tego, która kwota będzie wyższa. Małym i średnim przedsiębiorstwom oraz start-upom grozić bedą raczej kary administracyjne.
Przepisy zostaną w najbliższych dniach opublikowane w Dzienniku Urzędowym UE i wejdą w życie 20 dni po publikacji. W pełni zaczną obowiązywać za dwa lata. UE ma nadzieję, że jej przepisy staną się globalnym standardem regulowania AI.
AI może stać się zagrożeniem
,Michał KLEIBER, redaktor naczelny „Wszystko Co Najważniejsze”, profesor zwyczajny w Polskiej Akademii Nauk i prezes PAN 2007-2015 pisze na łamach Wszystko co Najważniejsze, że AI tworzy już obecnie widoczne olbrzymie zagrożenia, których niestety także będzie znacznie więcej w przyszłości. Przyszłe korzyści dużo łatwiej jest przy tym planować i przewidywać, gdyż dostrzeganie i pełne rozumienie zagrożeń, tworzonych z reguły w tajemnicy i najczęściej przez autorytarne państwa, jest niezwykle skomplikowane.
Tezę o powadze zagrożeń potwierdza dobitnie ostatni raport zlecony grupie ekspertów przez amerykański State Department, czyli ministerstwo spraw zagranicznych. Raport bazuje na głębokich, merytorycznych rozmowach przeprowadzonych z ponad 200 ekspertami – szefami wiodących firm rozwijających AI, renomowanymi badaczami problemów cyberbezpieczeństwa, specjalistami badającymi konsekwencje użycia broni masowego rażenia oraz wysokiej rangi pracownikami ministerstwa. Wśród rozmówców byli m.in. szefowie i główne osoby odpowiedzialne za rozwój technologii w takich firmach, jak OpenAI (właściciel systemu ChatGPT), Google DeepMind, Meta czy Anthropic.
Zarysowany obraz sytuacji jest prawdziwie alarmujący, a jego podstawową tezą jest stwierdzenie o zagrożeniu dla przetrwania nawet całej ludzkości, mogącym powstać w wyniku niekontrolowanego dalszego rozwoju AI.
Obawy dodatkowo zwiększyła wypowiedź Geoffreya Hintona, uważanego za „ojca” AI, który stwierdził w niedawnym wywiadzie, że zbrodnicze wykorzystanie AI w nadchodzących trzech dekadach może z co najmniej 10-procentowym prawdopodobieństwem doprowadzić do całkowitego unicestwienia ludzkości. Odnosząc się do tego, rzecznik Białego Domu oświadczył zdumiewająco dobitnie, że prace nad uregulowaniem zasad tworzenia i korzystania z AI stają się najważniejszym zadaniem dla amerykańskiego rządu i wszystkich jego zagranicznych partnerów.
Wobec tak poważnych i przekonująco zidentyfikowanych zagrożeń raport apeluje o natychmiastowe podjęcie konkretnych działań, takich jak powołanie międzynarodowej agencji kontroli kierunków rozwoju AI, ustanowienie awaryjnych zasad działania w przypadku rozpoczęcia konfliktu z szerokim wykorzystywaniem AI oraz wprowadzenie międzynarodowych ograniczeń na charakter pozyskiwania wiedzy przez systemy AI. Ta ostatnia sprawa ma wielkie znaczenie, ponieważ dynamika narastającej konkurencji głównych producentów systemów wyposażonych w AI wpływa na ograniczenie stosowanych zasad bezpieczeństwa, stwarzając możliwości kradzieży oprogramowania w celu zbrodniczego wykorzystania, w dodatku bez możliwości przewidzenia przez złoczyńców możliwych konsekwencji jego użycia.