Prof. Aleksander Mądry o sztucznej inteligencji

Prof. Aleksander Mądry o sztucznej inteligencji

Sztuczna inteligencja radykalnie zmieni nasze życie i musimy się zastanowić, jak kształtować świat napędzany przez AI – powiedział w środę w Kongresie prof. Aleksander Mądry, pochodzący z Polski dyrektor ośrodka zajmującego się sztuczną inteligencją na Massachussetts Insitute of Technology (MIT). Ostrzegł też przed ryzykami związanymi z masowym używaniem tej technologii.

Prof. Aleksander Mądry o AI

.„AI nie jest już sprawą science-fiction ani technologią, która jest ograniczona do laboratoriów badawczych. AI to technologia, która już jest wykorzystywana i szeroko przyjmowana. Drastycznie zmieni nasze życie; musimy myśleć nad tym, jak kształtować napędzany przez AI świat, który stoi przed nami” – powiedział profesor prestiżowej uczelni podczas wysłuchania przed podkomisją Izby Reprezentantów ds. nadzoru.

Pochodzący z Polski uczony i szef ośrodka MIT Center for Deployable Machine Learning występował obok m.in. byłego szefa Google Erica Schmidta w wysłuchaniu poświęconym rozwojowi AI i przygotowaniu USA na „technologiczną rewolucję” z nim związaną.

Nowa generacja AI

.Prof. Aleksander Mądry podkreślił, że nowa generacja AI, tzw. generatywna sztuczna inteligencja, która pojawiła się w ostatnich latach i miesiącach – mowa tu m.in. o aplikacjach ChatGPT, Bing Chat, czy generatorach obrazów DALL-E i Midjourney – różni się nie tylko większymi zdolnościami, ale też dużo większą dostępnością i przystępnością dla zwykłego odbiorcy.

Jak podkreślił, wiążą się z tym zarówno ogromne możliwości w niemal każdym sektorze gospodarki, ale też wiele ryzyk, m.in. związanych z podatnością tych systemów na manipulacje i użycie ich do dezinformacji, powtarzaniem i utrwalaniem uprzedzeń, a także ich generalną zawodnością.

„Nawet eksperci AI mają bardzo słabe zrozumienie skali tych problemów i dopiero zaczynają znajdować sposoby, by je odkrywać i łagodzić” – powiedział ekspert.

Zwrócił też uwagę, że nowe problemy mogą powstać w drodze tworzenia „łańcuchów dostaw AI” – tzn. tworzenia nowych aplikacji na bazie i przy połączeniu z różnymi typami AI. Jak stwierdził, ponieważ tworzenie podstawowych systemów AI jest drogie i wymaga ogromnych nakładów, tylko bardzo nieliczne podmioty są w stanie je tworzyć, co może dać im dominującą pozycję. Jak przewiduje, choć w niedalekiej przyszłości rozwój sztucznej inteligencji doprowadzi do ogromnej eksplozji nowych AI, niemal wszystkie będą oparte na kilku bazowych programach.

Prof. Aleksander Mądry dodał też, że łączenie różnych systemów sztucznej inteligencji może prowadzić do nieprzewidywalnych zmian w ich charakterystykach.

„To jest problem nawet bardziej skomplikowany, bo eksperci AI nie potrafią wyjaśnić, jak pojedyncze systemy AI docierają do swoich konkluzji, a dochodzenie do tego stanie się dużo trudniejsze, jeśli systemy zostaną na siebie nałożone” – ocenił prof. Mądry.

Wezwał również do wprowadzenia regulacji prawnych i technicznych, by móc odpowiadać na problemy związane z decyzjami dokonywanymi przez systemy sztucznej inteligencji.

Prof. Aleksander Mądry o wyzwaniach przyszłości

.Pytany przez kongresmenów, czy obawia się tego, że szybki rozwój AI doprowadzi do katastrofy, prof. Mądry odpowiedział, że choć nie obawia się „scenariusza z Terminatora“, to jego niepokój budzi np. większe użycie AI w mediach społecznościowych, co może jeszcze wzmocnić dotychczasowe problemy z tymi sieciami, kreując „social media na sterydach”. Powiedział przy tym, ze konieczne są w tym obszarze mocne regulacje prawne.

„Musimy zapewnić, że firmy, o których mówimy, nie są tylko motywowane przez zysk, ale zdają sobie sprawę, że mają też pewną odpowiedzialność” – powiedział profesor. Jak dodał, właśnie brak regulacji jest jego największą obawą, jeśli chodzi o rozwój AI.

Inną odpowiedź na temat swoich obaw dał Schmidt, były szef Google’a, który stwierdził, że najbardziej niepokoi go potencjalna rozbieżność interesów między ludźmi i sztuczną inteligencją.

„Chodzi o sytuację, gdzie człowiek ma jeden zestaw zachęt, komputer został wytrenowany, by dążyć do innych rezultatów, a społeczeństwo ma jeszcze inne interesy” – powiedział ekspert. Dodał też, że choć Pentagon chce, by broń oparta o AI automatycznie podejmowała decyzje, w chwili obecnej systemy te nie są gotowe do takich „ostatecznych” wyborów i może nigdy nie będą.

ChatGPT i przyszłe zmiany

.Jak twierdzi Leszek PACHOLSKI, profesor zwyczajny nauk matematycznych, logik i informatyk, „nie ma nic złego w sztucznej inteligencji. Problemem są ludzie – nieumiejący lub niechcący z niej rzetelnie korzystać”.

„Ogromne zainteresowanie wzbudza udostępniony niedawno przez OpenAI ChatGPT. Setki tysięcy internautów bawią się nim, generując teksty, czasem bardzo zabawne. Dziennikarze ułatwiają sobie pracę, uczniowie i studenci piszą eseje i za pomocą ChatGPT zdają egzaminy, a politycy piszą przemówienia” – pisze prof. PACHOLSKI.

Narzędzia takie jak ChatGPT mogą pisać teksty publicystyczne, mało ambitne książki, a nawet ekspertyzy służące do uzasadnienia wcześniej podjętej decyzji. Będą to teksty bezwartościowe, o zerowej wartości poznawczej – intelektualna paplanina. Ale takie teksty od dawna powstają, pisane przez ludzi na zamówienie, można je znaleźć w prasie, w księgarniach, na portalach i w mediach społecznościowych. Sądząc z tego, jak rynki finansowe zareagowały na pojawienie się ChatGPT, można stwierdzić, że zapotrzebowanie na tego typu teksty jest bardzo duże. Pojawienie się narzędzi takich jak ChatGPT powoduje, że stawiane są pytania, czy mogą one zakłócić przyszłość edukacji, publicystyki i nauki“.

Jak podkreśla prof. Leszek PACHOLSKi, od pewnego czasu „wielkie korporacje, jak Microsoft, Google czy Amazon, masowo zwalniają pracowników. Wielu komentatorów uważa, że nie jest to tylko wynik światowej recesji gospodarczej, lecz także potrzeby zwolnienia miejsc pracy dla ekspertów w zakresie sztucznej inteligencji. Już teraz obok ChatGPT istnieje wiele narzędzi opartych na sztucznej inteligencji, które mają kolosalne znaczenie dla gospodarki i mogą w przyszłości zrewolucjonizować naukę. Nie wyobrażam sobie przyszłości medycyny bez sztucznej inteligencji. Giełda też to widzi. Nakłady na AI rosną bardzo szybko”.

Wychowałem się w miłości do technologii

.„Dorastałem w świecie, w którym linie podziału między dobrymi i złymi były dość wyraźne. Nie był to czas apokaliptycznej, ostatecznej bitwy, ale bitwy, którą trzeba było toczyć wciąż na nowo, w której można było dostrzec historyczne echa sięgające rewolucji przemysłowej i w której można było zgromadzić historyczne dowody na rzeczywiste rezultaty” – pisze Eliezer YUDKOWSKY, amerykański badacz sztucznej inteligencji, szczególnie technologicznej osobliwości i propagator Friendly artificial intelligence (przyjaznej sztucznej inteligencji).

Po jednej stronie stali naukowcy i inżynierowie, którzy przyczynili się do wzrostu poziomu życia od czasów średniowiecza i którzy swoją pracą wspierali takie „luksusowe” koncepcje, jak demokracja, wykształcone społeczeństwo, klasa średnia czy delegalizacja niewolnictwa. Po drugiej stronie stanęli ci, którzy niegdyś sprzeciwiali się szczepieniom przeciwko ospie, środkom znieczulającym podczas porodu, maszynom parowym i heliocentryzmowi: teologowie nawołujący do powrotu do doskonałej epoki, która nigdy nie istniała, starsi biali politycy zatwardziali w swoich przekonaniach, członkowie grup o szczególnych zainteresowaniach, którym groziła przegrana, oraz wielu, dla których nauka była zamkniętą księgą i którzy bali się tego, czego nie mogli zrozumieć“.

„Natomiast pośrodku starali się uplasować pretendenci do Głębokiej Mądrości, wypowiadający myśli o tym, że technologia jest korzystna dla ludzkości, ale tylko wtedy, gdy jest odpowiednio regulowana; twierdzący – wbrew brutalnym faktom historycznym – że nauka sama w sobie nie jest ani dobra, ani zła; powołujący uroczyście wyglądające komitety biurokratyczne mające ostentacyjnie zademonstrować ich ostrożność i czekający na aplauz. Jakby prawda zawsze była kompromisem. I jakby ktokolwiek mógł sięgnąć wzrokiem tak daleko w przyszłość. Czy ludzkość miałaby się lepiej, gdyby wykorzystanie ognia nastąpiło w wyniku szczerej, pełnej troski, publicznej debaty i gdyby powołano komisje, które nadzorowałyby jego użycie?” – pyta Eliezer YUDKOWSKY.

PAP/WszystkoCoNajważniejsze/PP

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 9 marca 2023