Sztuczna Inteligencja zaangażowana do przewidywania przestępstw

sztuczna inteligencja

Argentyńskie służby chcą sprawić, aby sztuczna inteligencja przewidywała przestępstwa – podał w portal hiszpańskiego dziennika „El Pais”. Wyspecjalizowana jednostka ma dysponować narzędziami wykorzystującymi sztuczną inteligencję oraz dronami, za pomocą których będzie pilnować porządku w internecie i poza nim.

Sztuczna inteligencja zaangażowana do przewidywania przestępstw

.Formacja będzie nosić nazwę Jednostka Sztucznej Inteligencji ds. Bezpieczeństwa (UIAAS) – wynika z opublikowanego w dzienniku ustaw dokumentu.

„Jest to kluczowe , aby wykorzystywać AI do prewencji, wykrywania, śledzenia i osądzania przestępstw” – zadeklarowano w rezolucji ustanawiającej tą nową jednostkę. Dokument podpisała ministerka bezpieczeństwa Patricia Bullrich, której będzie podlegać nowa jednostka.

Jak zauważył „El Pais” premier Argentyny Javier Milei, który zlikwidował i zreformował wiele instytucji publicznych, zainwestował ogromne fundusze w aparat bezpieczeństwa. Powołana jednostka jest kolejną częścią planu inwestycji w służby – ocenił hiszpański dziennik.

W skład UIAAS, przez którą zostanie wykorzystana sztuczna inteligencja, wejdą funkcjonariusze kilku argentyńskich formacji ds. bezpieczeństwa – wynika z dokumentu ustanawiającego tą formację mundurową.

„Dzięki UIAAS będzie można szybciej i z większą precyzją powstrzymać zagrożenia i odpowiedzieć w nagłych sytuacjach” – przekazała administracja prezydenta Javiera Mileia.

Działania jednostki UIAAS

.Głównymi zadaniami nowej jednostki będzie przeszukiwanie mediów społecznościowych, aplikacji i stron internetowych, a także ukrytej zawartości w tzw. ciemnej sieci (dark web). „Przy wykorzystaniu danych z już przeprowadzonych śledztw, funkcjonariusze przy pomocy sztucznej inteligencji, będą przewidywać przestępstwa” – wyjaśnił „El Pais”.

Do zadań UIAAS będzie także należało patrolowanie dużych obszarów przy wykorzystaniu dronów. Ta jednostka będzie również miała dostęp do obrazów z kamer bezpieczeństwa w czasie rzeczywistym, aby móc reagować i interweniować w razie możliwości popełnienia przestępstwa.

Powołanie do życia Jednostki Sztucznej Inteligencji ds. Bezpieczeństwa spotkało się z krytyką ze strony niektórych organizacji pozarządowych, w tym argentyńskiego oddziału Amnesty International.

„Jednostka rządowa do monitorowania mediów społecznościowych i stron jest wbrew wielu artykułom konstytucji” – powiedział profesor i badacz mediów oraz technologii informacyjnych Martin Becerra.

Wielu opozycjonistów cytowanych przez „El Pais” sądzi, że UIAAS może w przyszłości zagrozić prawom człowieka poprzez nadmierne inwigilowanie w aktywności obywateli w przestrzeni cyfrowej.

Etyka przełomu. O przyszłości AI

.Profesor filozofii na Australijskim Uniwersytecie Narodowym, Seth LAZAR, na łamach „Wszystko co Najważniejsze” twierdzi, że: „Jednym z głównych potencjalnych zagrożeń związanych z przyszłymi systemami AI jest ich pozorna zależność od prymitywnie konsekwencjalistycznych form rozumowania – systemy te zawsze optymalizują się pod kątem czegoś i jeśli nie określimy tego czegoś ekstremalnie dokładnie, mogą powodować niepożądane szkody, pomimo że w dosłownym sensie optymalizują się pod kątem wyznaczonego celu. Narzędzia generatywne dysponujące pojęciami moralnymi można zaprogramować tak, by dążyły do realizacji założeń tylko w rozsądnym zakresie, a w razie wątpliwości zwracały się do nas. Tej prostej heurystyki, rutynowo stosowanej przy zlecaniu ludziom wykonania działań w naszym imieniu, nigdy wcześniej nie udało się nawet w niewielkim stopniu zastosować do programu obliczeniowego”.

„Co więcej, zdolność agentów generatywnych do posługiwania się językiem moralnym mogłaby pozwolić na solidne i weryfikowalne uzasadnienie podejmowanych przez nich decyzji. W innych podejściach oddolnych modele uczą się naśladować ludzkie zachowania lub osądy, a podstawą ich werdyktu w niektórych przypadkach jest po prostu umiejętność przewidzenia, co pomyśleliby niektórzy ludzie. To słaba podstawa. Bardziej wrażliwe etycznie modele mogłyby przeprowadzać rozumowanie łańcuchowe, w którym najpierw identyfikowałyby moralnie istotne cechy sytuacji, a następnie podejmowały decyzję na podstawie tych cech. Byłby to znaczący krok naprzód”.

„Obecna rola społeczna narzędzi generatywnych wynika z istniejącej infrastruktury cyfrowej. Zostały one powiązane z wyszukiwaniem i wytwarzaniem treści oraz z gospodarką influencerów. Już teraz zastępują pracowników obsługi klienta. Sprawią też (mam nadzieję), że MOOC (masowe otwarte kursy online) staną się zbędne. Dalej chciałbym skupić się na trzech bardziej ambitnych społecznych rolach agentów generatywnych, w kolejności, w jakiej moim zdaniem się upowszechnią. Z konieczności przedstawię tu tylko skrócony przegląd cudownych i niepokojących sposobów, w jakie narzędzia te zmienią społeczeństwo w najbliższej i średniej perspektywie”.

„Postępy w dziedzinie dużych modeli językowych zrewolucjonizowały ulubiony temat entuzjastów sztucznej inteligencji: asystenta AI. Narzędzia generatywne zasilane modelami na poziomie GPT-4, z precyzyjnie dostrojonymi „osobowościami”, wyposażone w pamięć długoterminową i zdolność do podejmowania szeregu działań w prawdziwym świecie, oferują dziś znacznie bardziej przystępne, angażujące i przekonujące symulacje przyjaźni niż kiedykolwiek wcześniej, przekraczając nową granicę w interakcji człowiek-AI. Antropomorfizacja przychodzi ludziom z łatwością. Nic więc dziwnego, że nawet bardzo prosty chatbot może wzbudzić w danej osobie nieuzasadnione przywiązanie. Jak zmieni się rzeczywistość, gdy każdy będzie miał dostęp do niewiarygodnie przekonujących agentów generatywnych, którzy będą doskonale symulować prawdziwe osobowości, wysłuchają nas lub wesprą radą, a na dodatek zapamiętają wszystko, co kiedykolwiek im – powiemy?”.

„Niektórzy wzdrygają się przed taką koncepcją. Instynktowna odraza jest jednak zawodnym przewodnikiem moralnym w obliczu nowych praktyk społecznych i nie powinna stanowić podstawy do podejmowania działań, które miałyby uniemożliwiać świadomym osobom dorosłym wchodzenie w interakcje z asystentami AI. Jednakże nasze doświadczenia z mediami społecznościowymi dobitnie pokazują, że wdrażanie tego rodzaju innowacji technologicznych bez rzetelnej oceny ich możliwych konsekwencji prowadzi do katastrofy. Jak zatem wkroczyć w erę szeroko dostępnych asystentów AI z otwartymi oczami i przeciwdziałać powiązanym z tym zagrożeniom?” – pisze prof. Seth LAZAR w tekście „Etyka przełomu. O przyszłości AI„.

PAP/WszystkocoNajważniejsze/eg

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 2 sierpnia 2024