Czym jest grooming? Karalne treści w internecie

grooming pedofilia kara więzienia AI sztuczna inteligencja pomoc w łapaniu przestępców

Bazujący na sztucznej inteligencji program, przygotowany przez polskich naukowców, pomoże w pracy moderatorom, którzy czyszczą internet z nielegalnych treści. Program ma rozpoznawać wideo, obrazy i teksty o charakterze pedofilskim oraz zapobiegać praktykom takim jak m.in. grooming.

Program, który powstaje w ramach projektu APAKT, ograniczy kontakt moderatorów z takimi materiałami.

Sztuczna inteligencja pomoże moderatorom

.W Państwowym Instytucie Badawczym NASK działa Dyżurnet.pl – zespół, którego zadaniem jest blokowanie w internecie nielegalnych materiałów, szczególnie związanych z wykorzystywaniem seksualnym dzieci. Należy tam zgłaszać tego rodzaju treści, które znajdzie się w sieci.

„Moderatorzy Dyżurnet.pl przez wiele godzin każdego dnia przeglądają nielegalne treści – czy to zgłoszone przez użytkowników, czy to wskazane przez scrapery, czyli algorytmy, które same wyszukują w sieci materiały o specyficznych parametrach” – mówi dr Inez Okulska z Pionu Sztucznej Inteligencji NASK. Tłumaczy, że takich zgłaszanych treści jest bardzo dużo, a ktoś musi je zawsze przejrzeć, aby ocenić, czy materiał ten rzeczywiście przedstawia nielegalne treści i czy należy go zablokować. A osobę, która to udostępniła – ścigać.

Martyna Różycka, szefowa Dyżurnet.pl, tłumaczy, że najpilniejszym zadaniem jest wychwycenie spośród zgłoszeń materiałów, które nie były wcześniej zgłaszane, a które pokazują seksualne wykorzystywanie dzieci. Jeśli takie materiały powstały niedawno, to może jakiemuś dziecku nadal wyrządzana jest krzywda. Trzeba wtedy jak najszybciej znaleźć sprawcę i chronić potencjalną ofiarę. „Większość jednak materiałów, które trzeba blokować, to treści, które powstały lata temu, jednak wciąż są kopiowane i udostępniane w kolejnych miejscach” – mówi Różycka.

Aby usprawnić pracę moderatorów – i ochronić ich przed kontaktem z obciążającymi psychiczne treściami – NASK we współpracy z Politechniką Warszawską postanowił wykorzystać sztuczną inteligencję. Opracowany przez badaczy algorytm, w ramach projektu APAKT, ma za zadanie automatycznie analizować nielegalne treści, które trafiają do moderatorów i proponować, w jakiej kolejności zająć się zgłoszeniami – zaczynając od tych wymagających najszybszej interwencji.

I tak np. program będzie mógł wskazać z 90-procentową pewnością, że dany plik przypomina znany już wcześniej materiał. Dzięki temu moderator będzie mógł szybko ocenić i potwierdzić, czy zgadza się z oceną programu. To zaoszczędzi nie tylko czas, ale również ochroni kondycję psychiczną moderatorów, którzy nie będą musieli samodzielne porównywać, czy rzeczywiście już kiedyś coś podobnego pojawiło się w bazie.

Model ten nie jest – w odróżnieniu od wielu systemów AI – wyłącznie „czarną skrzynką”, która wypluwa odpowiedzi bez żadnej możliwości skontrolowania, skąd wzięła się jej decyzja. APAKT będzie w stanie wyjaśnić, dlaczego uznał dany materiał tekstowy za pedofilski. Bo, co nieoczywiste, system ten jest w stanie sklasyfikować nie tylko materiały wideo i zdjęcia, ale także teksty narracyjne opisujące seksualne wykorzystanie dzieci.

Grooming

.„Prezentowanie pedofilii na poziomie wideo oraz zdjęć jest w Polsce nielegalne. Jeśli jednak chodzi o tekst, to kwestia ta nie jest precyzyjnie uregulowana w polskim prawie” – zwraca uwagę dr Okulska.

Badaczka wymienia, że są dwa rodzaje problematycznych tekstów związanych z pedofilią. Jednym z nich są teksty groomingowe. „Chodzi o nagabywanie osoby nieletniej przez dorosłą w celu pozyskania nagich zdjęć lub skłonienia do kontaktów seksualnych” – opowiada dr Okulska i tłumaczy, że grooming jest karalny i takimi sprawami zajmuje się prokuratura.

Dodaje jednak, że istnieje inny problem – teksty, które opowiadają historie o treściach erotycznych czy pornograficznych, ale z udziałem osób nieletnich. „W takich tekstach dużo rzeczy dzieje się w szkole, między osobą starszą i dzieckiem. Dużo jest też tam wątków kazirodztwa” – opisuje dr Okulska. I dodaje, że sposób podawania treści w bardzo wielu tego typu tekstach jest szkodliwy.

„Moderatorzy nie mają wątpliwości – takie teksty są szkodliwe społecznie. Treści te propagują pedofilię, zachowania, które są absolutnie niedopuszczalne i nigdy nie powinny być normalizowane. Naszym zdaniem powinno być jasno powiedziane, że są to treści nielegalne” – ocenia Martyna Różycka.

A dr Okulska tłumaczy: „Nie dość, że takie teksty są źle napisane i grafomańskie, to jeszcze opowieść jest w nich zwykle budowana stopniowo. Zanim moderator zdąży się zorientować, czy dany tekst jest niewinny czy promuje pedofilię, musi sporo przeczytać, wczuć się w bohaterów. Treści, które przeczyta, zostają w jego pamięci. A to nieprzyjemne, ciężkie tematy. Moderatorzy mają opiekę psychologiczną, ale naturalna była chęć, aby wprowadzić modele, które moderatorom ułatwią pracę”.

Badaczka wyjaśnia, że program APAKT będzie w stanie wskazać moderatorowi konkretne fragmenty tekstu, które świadczą o tym, że materiał rzeczywiście opisuje sceny seksualne z wykorzystaniem nieletnich. Program ten ma sam wskazać szkodliwe elementy.

Social media biorą wszystko

.„Media społecznościowe opierają się na budowie wiarygodnego przekazu. A co  jeśli ten przekaz będzie kłamliwy? Nieważne, byle był wiarygodny. Tutaj właśnie pojawia się ogromna rola dziennikarzy, zawodowo zajmujących się oddzielaniem prawdy od kłamstwa” – pisze Michał KŁOSOWSKI, zastępca redaktora naczelnego „Wszystko co Najważniejsze”, szef działu projektów międzynarodowych Instytutu Nowych Mediów.

Jak podkreśla, „choć cyfryzacja niesie ze sobą wiedzę, niesie również zagrożenia – głównie natury etycznej”.

„Odpowiedzialność w mediach społecznościowych nie istnieje, nie jest bowiem potrzebna. Social media służą bardziej jako narzędzie kreacji niż lustro rzeczywistości. Pozwalają budować maski, a do tego odpowiedzialność nie jest potrzebna. Konsekwencją braku odpowiedzialności jest język hejtu. Skoro nie trzeba być odpowiedzialnym, pojęcia nie muszą być ostre; nie trzeba odpowiadać za swoje słowa. Odpowiedzialność zastąpiona została przez wiarygodność, umiejętność wytworzenia obrazu czy narracji, w którą uwierzą inni” – pisze Michał KŁOSOWSKI.

W jego opinii „dzięki mediom społecznościowym – a w zasadzie z ich winy – młodzi kreują siebie samych takimi, jacy chcą być, a nie jacy są. Widać to po aktywności na fejsie porównanych z zachowaniami w rzeczywistym świecie. W starciu z życiem w realu pojawiają się kłopoty. Nieodpowiedzialność w mediach społecznościowych nie może istnieć bez nieodpowiedzialności za samego siebie – i bliźniego. Ogień rozprzestrzenia się coraz bardziej”. 

PAP/Ludwika Tomala/WszystkoCoNajważniejsze/PP

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 26 maja 2023