Jak ludzie „walczą” ze sztuczną inteligencją

ludzie walczą z AI

Wielka Brytania przyjmuje bardziej elastyczne podejście do regulacji sztucznej inteligencji niż UE, która kładzie nacisk na zapobieganie zagrożeniom. We Włoszech projekt ustawy przewiduje karę do pięciu lat więzienia za szkody wizerunkowe wyrządzone za pomocą nagrań zmienionych przy użyciu tej technologii. Oto jak ludzie „walczą” ze sztuczną inteligencją.

Różne kraje „walczą” na różne sposoby

.Jak walczą z AI różne kraje? W Wielkiej Brytanii regulacje dotyczące stosowania sztucznej inteligencji nadal są w fazie rozwoju, ale kilka kluczowych inicjatyw i ram prawnych już istnieje. W efekcie nie próbuje się wprowadzać przepisów, które całościowo regulowałyby kwestie związane z AI, lecz tam, gdzie to możliwe, opiera się na już istniejących ramach prawnych.

W 2021 r. brytyjski rząd ogłosił narodową strategię ws. sztucznej inteligencji, a w 2023 r. powstała „biała księga”, w której przedstawiła ogólne zasady dotyczące AI, ale pozostawiła istniejącym organom regulacyjnym znaczną elastyczność w dostosowywaniu tych zasad do konkretnych obszarów, takich jak transport lub rynki finansowe.

W Szwecji rząd w połowie września zlecił ekspertyzę mającą dokonać przeglądu ustawodawstwa krajowego w celu dostosowania przepisów do unijnego rozporządzenia o sztucznej inteligencji. Według założeń wprowadzony może zostać obowiązek rejestracji w organie państwowym w przypadku podejmowania decyzji przy użyciu AI dotyczących zatrudnienia lub edukacji. Natomiast systemy AI, które nie stwarzają ryzyka ani nie wywołują kontrowersji, będzie można stosować bez ograniczeń lub z pewnymi wyjątkami.

Do końca 2024 roku swoje wnioski ma przedstawić Komisja ds. AI, powołana przez szwedzki rząd w grudniu 2023 r., której zadaniem jest m.in. przeanalizowanie, w jaki sposób należy dostosować szkolnictwo wyższe, by zaspokajało potrzeby w zakresie AI, czy jak zwiększyć efektywność administracji publicznej przy pomocy tej technologii.

Rząd Niemiec zamierza w pierwszym kwartale 2025 r. zająć się ustawą, która wdroży unijne rozporządzenie ws. sztucznej inteligencji. Władze podkreśliły, że w przygotowaniu tego aktu prawnego istotne jest „stworzenie wydajnej, sprzyjającej innowacjom biznesowym struktury, która mądrze wykorzystuje ograniczone zasoby”.

W Niemczech ma też powstać centrum doradcze ds. sztucznej inteligencji (BeKI), które w przyszłości będzie koordynować projekty AI w obszarze niemieckiej administracji publicznej.

Niemcy koncentrują się ponadto na prowadzeniu badań nad innowacjami w dziedzinie AI. Obejmują one m.in. tworzenie centrów badawczych w każdym landzie czy wzmocnienie bezpieczeństwa w sektorze infrastruktury informatycznej z wykorzystaniem AI. Rząd chce też zachęcić firmy i przedsiębiorstwa nie tylko do używania, ale też rozwijania AI, np. przy automatyzacji łańcuchów logistycznych czy tworzeniu zrównoważonego systemu transportowego, opartego na rozwoju zautomatyzowanej jazdy.

We Włoszech rządowy projekt ustawy zawierający zbiór przepisów dotyczących sztucznej inteligencji jest obecnie przedmiotem prac komisji Senatu. Przewiduje on m.in. karę od roku do pięciu lat więzienia za szkody wizerunkowe wyrządzone przy tworzeniu i rozpowszechnianiu bez zgody nagrań wideo i wizerunków zmienionych przy użyciu AI.

Minister sprawiedliwości Carlo Nordio poinformował, że posłużenie się AI będzie uważane za dodatkową okoliczność obciążającą w przypadku takich przestępstw, jak podawanie się za kogoś, manipulowanie cenami, oszustwa informatyczne czy spekulacje giełdowe.

Ponadto w projekcie ustawy zapisano, że utworzony zostanie krajowy urząd ds. sztucznej inteligencji, którego zadaniem będzie wymierzanie kar za jej nielegalne wykorzystanie. Przewiduje się także wykorzystanie AI w celu uproszczenia i usprawnienia wymiaru sprawiedliwości, ale przy wyraźnym zastrzeżeniu, że to do sędziego należy ostateczna decyzja w sprawie interpretacji prawa, oceny faktów i zastosowania koniecznych środków.

W Hiszpanii we wrześniu 2023 r. utworzono Agencję Nadzoru nad Sztuczną Inteligencją (AESIA) i tym samym Hiszpania stała się pierwszym państwem UE, który powołał do życia tego typu organ. AESIA, której budżet wynosi 5 mln euro, ma za zadanie m.in. monitorowanie wykorzystywania AI zgodnie z obowiązującymi przepisami, walkę z niewłaściwym jej stosowaniem i wdrażanie unijnych regulacji. Agencja pełni też funkcje szkoleniowe i sankcyjne.

W Finlandii w 2023 r. przyjęto przepisy o „automatycznym rozstrzyganiu spraw w administracji publicznej”. Przewidują one, że systemy sztucznej inteligencji można wykorzystać do wspomagania pracy, ale nie bezpośrednio w procesie decyzyjnym. Przykładowo w administracji skarbowej organ nie może wydać decyzji podatkowej na podstawie systemów AI.

Wcześniej w 2020 r. w Finlandii wdrożono narzędzie wykorzystujące sztuczną inteligencję np. do anonimizacji orzeczeń sądowych oraz decyzji urzędowych. Zdaniem władz rozwój technologii i wdrożenie AI może przyczynić się do obniżenia kosztów sądowych i przyspieszenia rozwiązywania spraw, jednak przy rozszerzeniu zakresu zastosowań metod AI w czynnościach prawnych należy „zachować rozwagę”.

W Estonii polityki i programy na rzecz rozwoju sztucznej inteligencji wdrażane były od 2019 r., a rok później zainicjowano program Open-Source AI Components, zawierający gotowe rozwiązania do wykorzystania w sektorze publicznym i prywatnym. Stworzono także bazę danych projektów, których celem była poprawa jakości usług i efektywności działań podmiotów państwowych. Przykładowo w okresie pandemii Covid-19 uruchomiono “czatbot AI”, którego celem było przekazywanie danych oraz unikanie rozpowszechniania fake newsów.

Powołana w 2022 r. Narodowa Strategia AI 2.0 koncentruje się z kolei – przy wykorzystaniu programu AI & Robotics – na wspieraniu krajowych przedsiębiorstw gotowych na użycie metod sztucznej inteligencji. Według OECD Estonia jest obecnie jednym z liderów w zakresie zrównoważonego wdrażania AI w różnych sektorach gospodarki.

Na Łotwie rządowa Narodowa Strategia AI została uruchomiona na początku 2020 r. Jednym z jej celów było inwestowanie w infrastrukturę cyfrową i telekomunikacyjną, podniesienie świadomości i kompetencji mieszkańców w zakresie AI poprzez reformy edukacyjne oraz zapewnienie sprzyjającego otoczenia politycznego dla rozwoju i wdrażania rozwiązań przy użyciu sztucznej inteligencji.

W Brazylii omawiany obecnie w Senacie projekt ustawy regulującej zastosowanie sztucznej inteligencji kładzie nacisk na prawa użytkowników, w tym prawo do informacji, że wchodzą w interakcje z AI, do wyjaśnień, na jakiej podstawie AI podjęła daną decyzję, oraz do odwołania się od niej. Projekt wyróżnia też zastosowania „wysokiego ryzyka”, takie jak ochrona zdrowia, wymiar sprawiedliwości, edukacja czy infrastruktura krytyczna, w których obowiązywać mają bardziej rygorystyczne wymogi, m.in. dotyczące przejrzystości działania systemów AI.

Projekty ustaw mających uregulować kwestie rozwoju i wykorzystania AI zgłoszone zostały też w innych państwach Ameryki Łacińskiej, w tym w Meksyku, Argentynie i Chile. W niektórych krajach w związku z wyzwaniami wynikającymi z możliwości sztucznej inteligencji planowane są zmiany innych ustaw, np. w Kolumbii rozważana jest nowelizacja kodeksu karnego i dopisanie użycia tzw. deepfake’ów jako okoliczności obciążającej przy podszywaniu się pod inną osobę.

W Japonii nie ma obecnie kompleksowych regulacji prawnych dotyczących sztucznej inteligencji ani prawnej definicji AI. Dotychczas państwo pozwalało firmom na samodzielne regulacje, w oparciu o rządowe wytyczne dotyczące sztucznej inteligencji, w celu przyspieszenia wzrostu. W tej dziedzinie zastosowanie ma szereg obowiązujących przepisów, w tym konstytucja i przepisy dotyczące umów, czynów niedozwolonych, niektórych ustaw gospodarczych, własności intelektualnej, danych osobowych, prywatności i kodeksu karnego. Opublikowane w połowie kwietnia br. nowe wytyczne dotyczące AI dla biznesu również nie są prawnie wiążące.

Poza kilkoma przepisami dotyczącymi wąskich aspektów Korea Płd. nie posiada obecnie kompleksowych ram regulacyjnych dotyczących sztucznej inteligencji. Rozpatrywany jest obecnie projekt ustawy o wspieraniu tej technologii. Równolegle Komisja Ochrony Danych Osobowych (PIPC) opowiada się za elastycznym podejściem do sztucznej inteligencji opartym na samoregulacji przy wsparciu PIPC.

Chiny są najbardziej aktywne w kształtowaniu przepisów dotyczących generatywnej sztucznej inteligencji (genAI), a w 2023 r. weszła w życie pierwsza regulacja administracyjna w sprawie zarządzania usługami tej technologii. Dodatkowo do istotnych regulacji należą rozporządzenie w sprawie algorytmów rekomendacji z 2021 i zasady dotyczące treści generowanych syntetycznie z 2022 r. Głównym celem wszystkich trzech środków jest kontrola informacji, będąca jednym z narzędzi w rękach potężnego mechanizmu cenzury w ChRL. Przykładowo czatboty tworzone przez chińskie przedsiębiorstwa lub chcące działać na terytorium Chin nie odpowiadają na pytania dotyczące przywódcy kraju Xi Jinpinga czy wrażliwych dla władz wydarzeń historycznych.

W USA głównym dokumentem wyznaczającym kompleksowe zasady dotyczące AI jest rozporządzenie wykonawcze o „bezpiecznym, pewnym i godnym zaufania rozwoju i wykorzystaniu sztucznej inteligencji”, wydane przez prezydenta Joe Bidena w 2023 r. Dokument m.in. nakłada na firmy rozwijające AI obowiązek dzielenia się z władzami wynikami badań na temat bezpieczeństwa ich systemów, ustanawia standardy chroniące przed używaniem AI do tworzenia niebezpiecznych substancji biologicznych czy złośliwego oprogramowania oraz wyznacza cele mające służyć ochronie prywatności i jasnemu oznaczaniu treści generowanych przez AI. Jednocześnie rozporządzenie podkreśla konieczność promocji konkurencji i innowacyjności w sektorze sztucznej inteligencji.

Dokument był pierwszym kompleksowym zestawem zasad dla AI w USA, lecz wiele jego postanowień nie jest prawnie wiążących, zaś dotychczasowe projekty ustaw dotyczące sztucznej inteligencji nie zostały przyjęte w Kongresie.

W Izraelu rozwój AI nie jest regulowany ustawowo. Pod koniec 2023 r. ministerstwo innowacji, nauki i rozwoju oraz resort sprawiedliwości wydały dokument przedstawiający politykę państwa wobec rozwoju sektora AI i związanych z tym wyzwań etycznych. Rząd Izraela zaleca „miękkie” regulacje wewnątrzsektorowe, opierające się na promowaniu współpracy między różnymi podmiotami i na zasadach etycznych OECD dla branży.

O niebezpieczeństwach wynikających stosowania AI różni eksperci piszą na łamach „Wszystko co Najważniejsze” regularnie. Prof. Piotr CZAUDERNA zwraca uwagę na niebezpieczeństwa natury medycznej i etycznej. „Istnieją już boty AI, które rozmawiają z pacjentami na przykład na temat ich problemów ze zdrowiem psychicznym. Wiele osób używa AI, aby uzyskać informacje o swoim stanie zdrowia i otrzymać odpowiedź, czy powinny zasięgnąć opinii lekarzy i pielęgniarek. Rodzi to wiele nowych problemów, zarówno natury etycznej, jak i regulacyjnej” – zauważa profesor.

PAP/WszystkocoNajważniejsze/ad

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 18 października 2024