Sztuczna inteligencja ochroni bezpieczeństwo Rzymu

Co najmniej 15 tysięcy kamer monitoringu wykorzystujących sztuczną inteligencję, zostanie zamontowanych w Rzymie – zapowiedziały lokalne władze. Podkreślono, że dzięki temu Wieczne Miasto będzie bezpieczniejsze, co ma szczególne znaczenie w związku z Rokiem Świętym 2025, gdy oczekuje się przyjazdu milionów pielgrzymów.

Co najmniej 15 tysięcy kamer monitoringu wykorzystujących sztuczną inteligencję, zostanie zamontowanych w Rzymie – zapowiedziały lokalne władze. Podkreślono, że dzięki temu Wieczne Miasto będzie bezpieczniejsze, co ma szczególne znaczenie w związku z Rokiem Świętym 2025, gdy oczekuje się przyjazdu milionów pielgrzymów.

Wieczne Miasto z nowym systemem monitoringu

.Nowy skoordynowany system nadzoru, pierwszy taki we Włoszech, który zostanie uruchomiony jeszcze w tym roku, ułatwi pościg za przestępcami uciekającymi samochodem, zidentyfikowanym na podstawie tablicy rejestracyjnej. Umożliwi również ustalenie liczby osób zgromadzonych w danym punkcie stolicy.

„Oprogramowanie pozwoli nie tylko na analizę tego, co się dzieje w danym momencie, ale także na wszczęcie postępowania natychmiast po wydarzeniu”- powiedział były szef prokuratury w Mediolanie, obecnie delegat zarządu Rzymu do spraw bezpieczeństwa Francesco Greco, cytowany przez dziennik „Il Sole-24 Ore”.

Kwestie bezpieczeństwa i prywatności mieszkańców

.Kwestia bezpieczeństwa to jedno z największych wyzwań w związku z falą przestępczości w masowo uczęszczanych miejscach Rzymu, takich jak dworzec kolejowy Termini i metro – zaznaczył portal Roma Today.

Kamery wspomagane przez sztuczną inteligencję mają być jedną z odpowiedzi – argumentują władze miejskie.

Podkreślają zarazem, odnosząc się do kwestii prywatności, że instalacja nowych kamer zostanie uzgodniona z krajowym inspektorem do spraw ochrony danych osobowych.

Etyka przełomu. O przyszłości AI

.We „Wszystko co Najważniejsze” ukazał się tekst „Etyka przełomu. O przyszłości AI” autorstwa prof. Setha LAZARA, filozofa zajmującego się etyką wojny, ryzyka i sztucznej inteligencji, obecnie kierującego Laboratorium Inteligencji Maszyn i Teorii Normatywnej (MINT – Machine Intelligence and Normative Theory). „Generatywne narzędzia AI zmienią nasze społeczeństwo w dziwny, cudowny i niepokojący sposób. Czy filozofia może pomóc nam nad nimi zapanować?” – stawia pytanie autor artykułu.

Prof. Seth LAZAR stoi na stanowisku, że „ze względu na łatwość w posługiwaniu się pojęciami moralnymi i pokrewnymi narzędzia generatywne mogłyby zbudować model naszych preferencji i wartości, rozmawiając z nami na ich temat i w przejrzysty sposób odpowiadając na nasze obawy, nie zaś wnioskować o tym, co lubimy na podstawie naszych działań. Oznacza to, że zamiast pomijać naszą sprawczość, można by ją wspierać, szanując nasze preferencje drugiego rzędu (dotyczące tego, czego chcemy chcieć) i ucząc się z wyjaśnień w języku naturalnym – nawet tych mglistych – dlaczego nie chcemy widzieć konkretnego postu. Strażnicy uwagi mogą być również zaprojektowani tak, aby wykazywać umiarkowany paternalizm – ale w transparentny sposób”.

Jednocześnie zwraca uwagę, że „ponieważ tacy strażnicy uwagi nie potrzebowaliby danych behawioralnych, a infrastruktura, od której byliby zależni, nie musiałaby być centralnie kontrolowana przez główne platformy cyfrowe, mogliby zostać opracowani tak, aby rzeczywiście działać w interesie użytkownika i chronić jego uwagę, zamiast ją wykorzystywać. Owszem, główne platformy zapewne ograniczyłyby narzędziom generatywnym możliwość przeglądania ich witryn w imieniu użytkownika. Jednak istnienie tych narzędzi i tak mogłoby zmienić sposób korzystania z serwisów społecznościowych opartych na otwartym protokole, takich jak Mastodon, zapewniając rekomendacje i filtrowanie bez nadzoru i optymalizacji zaangażowania”.

„Wreszcie, dzięki LLM-om być może uda się zaprojektować uniwersalnych pośredników, tj. generatywne narzędzia, które będą swoistym pomostem między człowiekiem a technologią cyfrową – my będziemy tylko wyrażać naszą intencję, a system ją efektywnie zaktualizuje. Każdy mógłby mieć własnego cyfrowego lokaja, asystenta osobistego lub badawczego i tym podobne. Hierofantyczna klasa programistów mogłaby zostać obalona, ponieważ każdy mógłby wyczarować dowolny program za pomocą instrukcji wydawanych w języku naturalnym” – pisze prof. Seth LAZAR.

Dodaje jednocześnie, że „obecnie nie ma możliwości stworzenia takich uniwersalnych pośredników ze względu na łatwość wpłynięcia na LLM-y za pomocą promptów”. Całość artykułu dostępna jest na portalu „Wszystko co Najważniejsze”:

PAP/WszystkoCoNajważniejsze/SN

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 19 sierpnia 2024
Fot. Pixabay