
Akt o Sztucznej Inteligencji w Parlamencie Europejskim

Akt o Sztucznej Inteligencji został poddany głosowaniu w środę w Parlamencie Europejskim. Głosów za było 499, przeciw 28, a wstrzymujących się 93. PE tym samym przyjął stanowisko negocjacyjne w sprawie Aktu o Sztucznej Inteligencji. Nowe regulacje zakładają, że SI ma być ukierunkowana na człowieka i godna zaufania oraz zapewniać ochronę zdrowia, bezpieczeństwa, praw podstawowych i demokracji przed szkodliwymi skutkami technologii.
.Teraz PE będzie prowadzić z państwami członkowskimi Unii negocjacje w sprawie ostatecznego jego kształtu. Przepisy miałyby zagwarantować, że sztuczna inteligencja opracowywana i wykorzystywana w Europie będzie w pełni zgodna z prawami i wartościami Unii.
Akt o Sztucznej Inteligencji
Nowe przepisy ustanawiają obowiązki dla dostawców i tych, którzy wdrażają systemy SI, w zależności od poziomu ryzyka, jakie może generować sztuczna inteligencja. Zabronione byłyby zatem systemy SI o niedopuszczalnym poziomie ryzyka dla bezpieczeństwa ludzi, takie jak te wykorzystywane do oceny społecznej (klasyfikowanie ludzi na podstawie ich zachowań społecznych lub cech osobistych).
Zakaz dyskryminacyjnego wykorzystywania AI
.Posłowie rozszerzyli wykaz zakazanych praktyk o inwazyjne i dyskryminujące zastosowania sztucznej inteligencji, takie jak: wykorzystywanie w przestrzeni publicznej systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym i post-factum; systemy kategoryzacji biometrycznej wykorzystujące cechy wrażliwe (np. płeć, rasa, pochodzenie etniczne, status obywatelski, religia, orientacja polityczna), systemy rozpoznawania emocji wykorzystywane w egzekwowaniu prawa, zarządzaniu granicami, miejscu pracy i instytucjach edukacyjnych.
Posłowie chcą, by klasyfikacja zastosowań wysokiego ryzyka obejmowała takie systemy sztucznej inteligencji, które przynoszą znaczne szkody dla zdrowia, bezpieczeństwa, praw podstawowych lub środowiska. Do wykazu systemów wysokiego ryzyka dodali systemy sztucznej inteligencji wykorzystywane do wpływania na wyborców i wyniki wyborów oraz systemy rekomendacji wykorzystywane przez platformy mediów społecznościowych (z ponad 45 milionami użytkowników).
Unijna baza danych
.Dostawcy modeli generatywnych – nowego i szybko rozwijającego się rozwiązania w dziedzinie sztucznej inteligencji – musieliby oceniać i ograniczać potencjalne ryzyko (dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji i praworządności). Mieliby także rejestrować swoje modele w unijnej bazie danych przed ich wprowadzeniem na rynek Unii.
Generatywne systemy sztucznej inteligencji oparte na takich modelach, takie jak ChatGPT, musiałyby spełniać wymogi przejrzystości. Konieczne będzie ujawnianie, że treści wygenerowała sztuczna inteligencja (włącznie z pomocą w odróżnianiu tak zwanych głębokich fałszywych obrazów „deep fake” od prawdziwych) oraz wprowadzanie zabezpieczeń przed generowaniem nielegalnych treści. Trzeba będzie też publikować szczegółowe podsumowania danych chronionych prawem autorskim, które wykorzystano do przygotowania tych systemów.
Zwiększenie innowacyjności w unijnym przemyśle AI
.Posłowie chcą pobudzać innowacje w zakresie sztucznej inteligencji i wspierać MŚP. Dlatego dodali wyjątki obejmujące badania naukowe i komponenty sztucznej inteligencji dostarczane na licencjach typu open source. Nowe prawo promuje tzw. piaskownice regulacyjne, czyli rzeczywiste środowiska ustanowione przez władze publiczne, w których testuje się sztuczną inteligencję przed wdrożeniem. Ponadto posłowie chcą, by obywatelom było łatwiej składać skargi dotyczące systemów SI. Powinni mieć też łatwiejszy dostęp do wyjaśnień dotyczących decyzji opartych na systemach SI wysokiego ryzyka, które mają znaczący wpływ na ich prawa podstawowe. Posłowie zreformowali również zakres zadań Rady ds. Sztucznej Inteligencji. Miałaby ona monitorować sposób wdrażania przepisów dotyczących sztucznej inteligencji. Negocjacje z Radą w sprawie ostatecznego kształtu przepisów rozpoczną się już w środę.
Zagrożenia i korzyści jakie niesie SI w procesie edukacji
.Na temat zagrożeń i korzyści jakie niesie ChatGPT w procesie edukacji na łamach „Wszystko Co Najważniejsze” pisze Jędrzej STĘPIEŃ w tekście „ChatGPT a przyszłość edukacji„.
„Z jednej strony przedstawiane są pełne optymizmu wizje przyszłości, w której produktywność ludzi i gospodarek zwiększa się tysiąckrotnie, z drugiej strony – apokaliptyczne wizje, w których nie tylko szaleją bezrobocie i dalsze rozwarstwienie, lecz także sztampa, automatyzm i zniewolenie”.
„W mojej branży, w edukacji, rodząca się nowa generacja asystentów językowych ma niewątpliwie potencjał do odbiurokratyzowania pracy nauczyciela, zarówno gdy idzie o przygotowywanie materiałów na zajęcia, sprawdzanie prac, jak i pisanie wniosków o granty. Słyszę od kolegów nauczycieli, że od teraz praca z uczniem ma szansę być spersonalizowana jak nigdy wcześniej. Zlecenie przygotowania indywidualnych materiałów i ćwiczeń przystosowanych do danego poziomu ucznia będzie kwestią kilku minut spędzonych z oprogramowaniem, a nie bitych godzin jak wcześniej, na co nikogo zresztą nie było stać”.
.”Jednak wszystko to są bardzo wczesne i krótkoterminowe projekcje. Zgadywanie, co konkretnie się wydarzy w dalszej przyszłości, jest trudne, gdyż transformacja czekająca świat edukacji w dobie rozwiniętej SI zapowiada się bezprecedensowo. Uważałbym z przykładaniem nowego narzędzia do rzeczywistości, bo ta ulegnie zasadniczej zmianie. Bo z czym w istocie mamy do czynienia? W ręce ludzi trafia superinteligentny instrument o niemal nieograniczonym potencjale twórczym, którego obsługa jest bardzo prosta i sprowadza się do wydawania poleceń czy wręcz życzeń, z których każde zostaje natychmiast spełnione. Dodajmy, że polecenia wydaje się nie językiem programowania, którego nauka trwa latami, tylko zwykłym językiem ludzkim, którego używa się na co dzień” – pisze Jędrzej STĘPIEŃ.
PAP/WszystkoCoNajważniejsze/MJ