Sztuczna inteligencja obniży poziom zaufania między ludźmi i naszego bezpieczeństwa

Przygotujmy się na moment, kiedy nikt już nie odróżni głosu sztucznej inteligencji (SI) od głosu człowieka. Zmieni się wtedy model bezpieczeństwa i zaufania. Poziom złożoności potencjalnych problemów, które może stworzyć SI, przypomina analizowanie zjawiska globalnego ocieplenia – powiedział dr Teodor Buchner, fizyk z PW.
.Sztuczna inteligencja od lat usprawnia pracę w wielu obszarach, m.in. medycynie, cyberbezpieczeństwie, automatyce. W największym skrócie – wykonuje pracę, która przerasta człowieka, np. dokonuje obliczeń na ogromną skalę, bada podobieństwa czy wyszukuje fakty schowane w ogromnym zbiorze informacji.
„Rok 2022 w obszarze sztucznej inteligencji okazał się przełomowy. Dzięki zastosowaniu technologii deepfake zaczęły powstawać fałszywe filmy, które są jednocześnie tak realistyczne, że bardzo łatwo dać się nabrać” – mówi dr Teodor Buchner, fizyk z Politechniki Warszawskiej, który na co dzień tworzy rozwiązania dla medycyny w oparciu o sztuczną inteligencję.
Sztuczna inteligencja (SI) w roli psychologa
.To, jak duży dysonans poznawczy potrafi wywołać sztuczna inteligencja, pokazał na swoim przykładzie dziennikarz New York Timesa Kevin Roose. Dzień po walentynkach odbył kilkugodzinną rozmowę z botem stworzonym przez firmę Microsoft, podczas której usłyszał, że wcale nie kocha swojej żony, a ona nie kocha jego, więc powinni wziąć rozwód. Rozmowa okazała się na tyle wciągająca, że dziennikarz przyznał, że czuł się emocjonalnie rozbity i nie mógł zasnąć w nocy.
Teodor Buchner uważa, że w przywołanej historii dziennikarza nie ma nic zaskakującego. SI weszła w rolę psychologa, bo prawdopodobnie została wytrenowana na dialogach z ludźmi, którzy przeżywali podobne problemy i używali określonego zestawu słów-kluczy. „Oczywiście po stronie maszyny nie ma intencji, bo ona jest głupia. W rozmowie z tym dziennikarzem zastosowała tylko analogię do procesu, na którym wcześniej była szkolona. Zidentyfikowała słowa klucze, których dostarczył dziennikarz i z łatwością kontynuowała rozmowę. Gdyby trafiła na sytuację dla siebie nową i na nowe dane, w pewnym momencie pogubiła by się w odpowiedziach” – tłumaczy Buchner.
Jego zdaniem najistotniejsza jest inna część tej historii – dziennikarz stracił dystans do przekazu i zaufał maszynie tak, jak się ufa człowiekowi – dlatego miał problem z zaśnięciem. Buchner uważa, że to jest zapowiedź problemów, które w przyszłości staną się ogromnym wyzwaniem. Zmieni się model bezpieczeństwa i zaufania, co wpłynie na zachowania społeczne.
SI z umiejętnością doskonałego naśladowania głosu
.„Dziś darzymy zaufaniem przekaz, ponieważ rozpoznajemy po głosie tożsamość rozmówcy. Media odnotowują już pojedyncze przypadki, kiedy SI z powodzeniem naśladuje głos najbliższej osoby w telefonie i człowiek nie orientuje się, że mówi do niego maszyna. Kiedy zacznie się to dziać na masową skalę, zrodzi poważne konsekwencje dla życia społecznego. Będzie nadużywane przez cyberprzestępców lub przez rządy i ich służby – w sytuacjach, kiedy będzie im na tym zależało. Zmiany pójdą bardzo daleko i musimy się na nie przygotować” – ostrzega Buchner.
Ekspert uważa, że wiedzę na temat SI będziemy gromadzić na wzór tej, dotyczącej globalnego ocieplenia. Nie od razu świat nauki będzie potrafił łączyć fakty i dostrzegać potencjalne skutki uboczne. „Wyzwania, które w przyszłości stworzy sztuczna inteligencja, będą przypominały te, związane z globalnym ociepleniem. Od pierwszych sygnałów do pierwszych, definitywnych konkluzji minęły dziesiątki lat. Ale musimy działać, by minimalizować stopień zaskoczenia nieoczekiwanym obrotem spraw” – mówi Buchner.
Ogromne wyzwania związane z dynamicznym rozwojem SI
.Jego zdaniem próbę prognozowania i nazywania potencjalnych problemów generowanych przez SI powinny podjąć wspólnie instytucje naukowe, biznes i politycy. Kluczowe będzie sformułowane nowej etyki, która pomoże określić co wolno, a czego nie wolno sztucznej inteligencji. Obecnie takie technologie jak ChatGPT działają inaczej niż wyszukiwarki internetowe. Od razu prezentują gotową odpowiedź, bez podawania źródeł na wzór listy linków, co daje dużo większe możliwości oddziaływania na opinię publiczną. Wielu odbiorców przyjmie taką odpowiedź jako obiektywną.
„By wyjść poza dwie skrajne emocje – zachwyt i lęk, które budzi dziś SI – należy myśleć o budowaniu zaplecza intelektualnego, instytucjonalnego i programowego. Musimy poświęcać im konferencje i debaty, nowe programy badawcze, konkursy naukowe, budowane we wspólnocie między inżynierią, naukami przyrodniczymi i humanistyką. W centrum uwagi powinien być człowiek i diagnoza dotycząca jego bieżącej sytuacji, jego samodzielności i autonomii, jego potrzeb i modelowania jego sytuacji w przyszłości. Problemy generowane przez SI powinny być ciągle obecne w dyskursie publicznym” – wylicza Buchner.
Firmy mające budżety większe niż państwa
.Ekspert zwraca uwagę, że w XXI w. budżety firm są większe niż budżety państw. To one mają wyłączne prawo decydowania o technologii i kierunkach jej rozwoju, co mocno osłabia struktury państwowe. „Struktury państwowe przestają być wydolne. Zapewniają nam oczywiście bezpieczeństwo fizyczne przed konfliktem konwencjonalnym, natomiast ich działanie w przestrzeni bezpieczeństwa informacyjnego jest mocno ograniczone” – podkreśla Buchner.
Jako przykład destrukcyjnego wpływu firm technologicznych na społeczeństwa na całym świecie, Buchner podaje konstruowanie algorytmów, których zadaniem jest ciągłe podsycanie emocji.
Polaryzacja społeczeństw – efekt uboczny algorytmów
.„Polaryzacja społeczeństw jest efektem ubocznym działania algorytmu. O tym, że sytuacja wymknęła się spod kontroli może świadczyć fakt, że obudziliśmy się w świecie, w którym każde społeczeństwo udało się podzielić. Sztuka polega tylko na dobraniu tematów, które dzielą. I nie chodzi tylko o działania na jakieś konkretne zamówienie. Podzielone społeczeństwa wywołują wysoki poziom emocji, a emocje nakręcają ruch w sieci i generują ogromne zyski firm technologicznych, które żerują na naszej uwadze. One nie mają żadnego interesu, żeby zatrzymać ten proces” – wyjaśnia Buchner. I dodaje, że potrzebne są regulacje.
„Mówi się prześmiewczo, że jedynym produktem, który wychodzi z Unii Europejskiej, są regulacje. Jestem daleki od tego, żeby regulować wszystko, ale w przypadku sztucznej inteligencji jest to potrzebne na poziomie narodowym i ponadnarodowym” – podkreśla.
Ekspert dodaje, że najgroźniejsze jest nic nie robić. „Mamy w fizyce drugą zasadę termodynamiki, która w tłumaczeniu na ludzki język znaczy, że psucie zachodzi samo – niezależnie od woli człowieka. Problemy same się nie naprawiają. Trzeba im poświęcić uwagę” – podsumowuje.
Sztuczna inteligencja a nauka
.Na temat najbardziej znanego chatbota, którym jest ChatGPT, na łamach „Wszystko Co Najważniejsze” pisze prof. Leszek PACHOLSKI w tekście „Bez obaw, ChatGPT nie zrewolucjonizuje nauki„.
„Wiele osób obawia się, że ChatGPT może mieć negatywny wpływ na edukację, a dokładniej na metody oceny uczniów i studentów. Nie do końca podzielam te obawy. Po pierwsze, egzaminy można prowadzić w zamkniętych salach, bez dostępu do komputerów i do internetu. Po drugie, można tak skonstruować egzamin, żeby zminimalizować ryzyko skutecznego skorzystania z ChatGPT. Po trzecie, warto postarać się tak kształtować uczniów i studentów, żeby rozumieli, że o ich przyszłym sukcesie nie zadecyduje ocena na egzaminie, lecz kompetencje zdobyte w szkole lub na uczelni. Jeśli natomiast chodzi o pisane w domu rozprawy, prace dyplomowe i magisterskie, to już teraz można bez trudu zamówić ich napisanie przez wykwalifikowane osoby. ChatGPT spowoduje tylko, że ta usługa będzie tańsza. Oczywiście w przypadku prac dyplomowych najlepszym rozwiązaniem będzie właściwa opieka promotora. Może się też zdarzyć, że w Polsce odejdziemy od obowiązkowych prac dyplomowych, gdyż uznamy, że nie jesteśmy w stanie dopilnować tego, żeby były pisane samodzielnie”.
„Od kilku tygodni wielkie korporacje, jak Microsoft, Google czy Amazon, masowo zwalniają pracowników. Wielu komentatorów uważa, że nie jest to tylko wynik światowej recesji gospodarczej, lecz także potrzeby zwolnienia miejsc pracy dla ekspertów w zakresie sztucznej inteligencji. Już teraz obok ChatGPT istnieje wiele narzędzi opartych na sztucznej inteligencji, które mają kolosalne znaczenie dla gospodarki i mogą w przyszłości zrewolucjonizować naukę. Nie wyobrażam sobie przyszłości medycyny bez sztucznej inteligencji. Giełda też to widzi. Nakłady na AI rosną bardzo szybko. Nie ma nic złego w sztucznej inteligencji. Problemem są ludzie – nieumiejący lub niechcący z niej rzetelnie korzystać” – pisze prof. Leszek PACHOLSKI.
Zagrożenia i korzyści jakie niesie SI w procesie edukacji
.Na temat zagrożeń i korzyści jakie niesie ChatGPT w procesie edukacji na łamach „Wszystko Co Najważniejsze” pisze Jędrzej STĘPIEŃ w tekście „ChatGPT a przyszłość edukacji„.
„Z jednej strony przedstawiane są pełne optymizmu wizje przyszłości, w której produktywność ludzi i gospodarek zwiększa się tysiąckrotnie, z drugiej strony – apokaliptyczne wizje, w których nie tylko szaleją bezrobocie i dalsze rozwarstwienie, lecz także sztampa, automatyzm i zniewolenie”.
„W mojej branży, w edukacji, rodząca się nowa generacja asystentów językowych ma niewątpliwie potencjał do odbiurokratyzowania pracy nauczyciela, zarówno gdy idzie o przygotowywanie materiałów na zajęcia, sprawdzanie prac, jak i pisanie wniosków o granty. Słyszę od kolegów nauczycieli, że od teraz praca z uczniem ma szansę być spersonalizowana jak nigdy wcześniej. Zlecenie przygotowania indywidualnych materiałów i ćwiczeń przystosowanych do danego poziomu ucznia będzie kwestią kilku minut spędzonych z oprogramowaniem, a nie bitych godzin jak wcześniej, na co nikogo zresztą nie było stać”.
.”Jednak wszystko to są bardzo wczesne i krótkoterminowe projekcje. Zgadywanie, co konkretnie się wydarzy w dalszej przyszłości, jest trudne, gdyż transformacja czekająca świat edukacji w dobie rozwiniętej SI zapowiada się bezprecedensowo. Uważałbym z przykładaniem nowego narzędzia do rzeczywistości, bo ta ulegnie zasadniczej zmianie. Bo z czym w istocie mamy do czynienia? W ręce ludzi trafia superinteligentny instrument o niemal nieograniczonym potencjale twórczym, którego obsługa jest bardzo prosta i sprowadza się do wydawania poleceń czy wręcz życzeń, z których każde zostaje natychmiast spełnione. Dodajmy, że polecenia wydaje się nie językiem programowania, którego nauka trwa latami, tylko zwykłym językiem ludzkim, którego używa się na co dzień” – pisze Jędrzej STĘPIEŃ.
PAP/Urszula Kaczorowska/WszystkoCoNajważniejsze/MJ