Izraelski start-up udostępnił narzędzie rozpoznające treści wygenerowane przez sztuczną inteligencję

Izraelski start-up stworzył narzędzie do wykrywania botów i spamu. Narzędzie umożliwi sprawdzenie czy tekst, zdjęcie lub film wideo wygenerowała sztuczna inteligencja.
Sztuczna inteligencja pod lupą
.Izraelski start-up o nazwie Cyabra zajmował się do tej pory analizą zagrożeń w mediach społecznościowych. Zrobiło się o nim głośno w 2022 r., kiedy Elon Musk zwrócił się do niego o pomoc w analizie obecności botów i spamu na Twitterze.
Firma ogłosiła właśnie, że udostępnia bezpłatne narzędzie botbusters.ai, które potrafi wykrywać teksty, obrazy, filmy wideo i fałszywe profile generowane przez sztuczną inteligencję.
„Botbusters.ai to nasz sposób, by umożliwić ludziom i korporacjom na całym świecie korzystanie z bezpłatnego rozwiązania, które pozwala sprawdzić, czy tekst, obrazy, a nawet profile były tworzone przez człowieka, czy przez komputer” – powiedział Dan Brahmy, szef Cyabra, cytowany przez FOX Business.
Sztuczna inteligencja – aktywność botów
.Brahmy wymienił również trzy najbardziej rozpowszechnione rodzaje aktywności botów, z którymi spotkała się firma Cyabra. Jest to podszywanie się pod korporacje, boty sponsorowane przez państwo – które mają realizować cele geopolityczne, oraz boty, które „pozornie przypadkowo tworzą chaos”, by odwracać uwagę internautów od ważnych rzeczy i wydarzeń.
Brahmy powiedział, że często generowanie botów zlecają podmioty państwowe lub zagraniczne rządy, których celem jest szerzenie dezinformacji lub propagandy. „Obserwujemy wiele geopolitycznych burz zarówno w regionie Azji i Pacyfiku, trochę w Europie, i oczywiście jest ich dużo w Stanach Zjednoczonych. To dlatego, że stawka jest niezwykle wysoka” – powiedział.
Korporacje i kierująca nimi kadra kierownicza również bywają celem oszustw związanych z podszywaniem się pod inne osoby, które wykorzystują narzędzia sztucznej inteligencji.
„Jesteśmy świadkami podszywania się pod członków kadry kierowniczej na ogromną skalę – począwszy od dobrze znanych prezesów, skończywszy na dyrektorach generalnych lub innych dyrektorach naczelnych z listy Fortune 2000. Mogę powiedzieć, że jest to coś tak powszechnego, że nie zdziwiłbym się, gdyby dotknęło już dość dużą część firm” – twierdzi Brahmy.
Technologia wykorzystywana negatywnie
.Choć oszustwa polegające na podszywaniu się pod członków kadry kierowniczej przedsiębiorstw cieszą się dużym zainteresowaniem, niektórzy oszuści obrali sobie za cel pracowników niższego szczebla, w celu uzyskania dostępu do istotnych informacji lub danych. Są też oszuści, którzy za pomocą narzędzi sztucznej inteligencji podszywają się pod przedstawicieli obsługi klienta firm, aby wabić swoje ofiary.
Oszuści podszywają się także pod korporacyjne konta w mediach społecznościowych. Dobrym przykładem był przypadek firmy farmaceutycznej Eli Lilly z końca 2022 r., kiedy na fałszywym koncie Twitterowym opublikowano informację o darmowym rozpowszechnianiu insuliny. Spowodowało to znaczny spadek dzienny notowań firmy, zanim stało się jasne, że informacja była fałszywa.
Realne zagrożenia
.ChatGPT nie myśli, nie wnioskuje, niczego nie rozumie i nie jest żadną „sztuczną inteligencją”, o ile termin ten rozumiemy zgodnie z ideami ojców dziedziny artificial intelligence jako „autonomiczny program myślący na podobieństwo człowieka” – pisze na łamach „Wszystko co Najważniejsze” prof. Andrzej KISIELEWICZ.
Niezwykłe możliwości programu ChatGPT wznowiły po raz kolejny dyskusję o zagrożeniach dla ludzkości ze strony sztucznej inteligencji. Dyskusję tę w oczywisty sposób zaburzają zjawiska z jednej strony związane z pogonią za sensacją w mediach, a z drugiej troska badaczy i szefów firm AI o zapewnienie funduszy na dalsze badania. W rezultacie większość informacji na temat GPT i możliwości sztucznej inteligencji, jakie można znaleźć w mediach, w bardzo małym stopniu opiera się na prawdzie. Jako naukowiec zajmujący się sztuczną inteligencją raczej w charakterze recenzenta niż aktywnego badacza nie mam żadnego interesu w reklamowaniu lub dyskredytowaniu osiągnięć AI, mam natomiast dość solidną wiedzę w tym zakresie i szczególną atencję dla prawdy – czytamy w tekście „Bajki o sztucznej inteligencji i prawdziwe zagrożenia”.
PAP/ Urszula Kaczorowska/ Wszystko co Najważniejsze/ LW