Pierwsza Nagroda Nobla za sztuczną inteligencję
Komitet Noblowski uznał, kosztem fizyki, że w dzisiejszych czasach informatyka jest tak ważną dziedziną, że zasługuje na Nagrodę Nobla – powiedział prof. Rafał Demkowicz–Dobrzański, fizyk kwantowy z Uniwersytetu Warszawskiego, komentując werdykt akademii noblowskiej z 8 października 2024 r.
Nagroda Nobla za sztuczną inteligencję
.John J. Hopfield i Geoffrey E. Hinton zostali tegorocznymi laureatami Nagrody Nobla w dziedzinie fizyki – ogłosił 8 października w Sztokholmie Komitet Noblowski. Uczeni dokonali ważnych odkryć umożliwiających rozwój sztucznej inteligencji. Doceniono ich za „fundamentalne odkrycia i wynalazki umożliwiające uczenie się maszyn za pomocą sztucznych sieci neuronowych”.
„To jest rewolucja – w tym sensie, że mamy pierwszą Nagrodę Nobla z informatyki. To nie jest w zasadzie nagroda z fizyki, chociaż twórcy mieli dużo wspólnego z fizyką i inspirowali się wieloma procesami fizycznymi. To jest nagroda za algorytmy, które służą do przetwarzania informacji” – skomentował prof. Rafał Demkowicz–Dobrzański, fizyk kwantowy z Uniwersytetu Warszawskiego, który słuchał ogłoszenia wyników przez szwedzką akademię w Centrum Współpracy i Dialogu UW.
Ekspert przypomniał, że sieć neuronowa jest algorytmem, który jest wzorowany na tym, jak działa nasz mózg. „Strukturę sieci neuronowej tworzymy w pewnej analogii do tego, jak nasze neurony są połączone i przetwarzają informacje. Ale to wszystko robimy w materii krzemowej – elektronicznej, a nie biologicznej” – powiedział Demkowicz–Dobrzański. I dodał, że w czasach, kiedy Alfred Nobel zakładał swoją fundację, informatyka nie istniała, więc jej nie uwzględnił w testamencie.
„Zima” sztucznej inteligencji
.„Widać, że Komitet Noblowski jednak zrobił ten krok dalej – uznał, że w dzisiejszych czasach informatyka jest tak ważną dziedziną, że zasługuje na Nagrodę Nobla, w pewnym sensie kosztem fizyki. Ale wydaje mi się, że ta nagroda jest bardzo dobrze uzasadniona, zważywszy na to, że w ostatnich latach metody AI w zasadzie nas zalały. Od dwóch lat mamy słynnego chata GPT, który jest ikoną tego, do czego doszliśmy od lat 80., czyli pionierskich prac noblistów – Hopfielda i Hintona” – zaznaczył ekspert.
Przypomniał, że „trzeba było 40 lat, żeby można było pokazać praktyczne skutki odkrytych idei – żeby zaczęły działać”. Sztuczna inteligencja przeżyła też okres „zamrożenia” swojego rozwoju w latach 90. „To jest bardzo ciekawa historia sztucznej inteligencji i sieci neuronowych. Kiedy miały one swój początek w latach 80., ludzie podeszli do nich z entuzjazmem i bardzo dużo sobie po nich obiecywali; że pozwolą nam zrozumieć mózg, świadomość, pozwolą nam przetwarzać informacje w zupełnie nowy sposób. Lata 90. i początek dwutysięcznych nazywa się „zimą” sztucznej inteligencji, bo wszyscy stracili nadzieję, że to będzie działało” – powiedział Demkowicz–Dobrzański.
Nagroda Nobla w dziedzinie fizyki 2024
.I podał przykład: „Okazało się, że te sieci dobrze działały rozpoznając cyferki i literki, ale już z pismem – bazgrołami – gorzej sobie radziły. A nikt nie był w stanie pokazać, że one zaczynają robić użyteczne rzeczy na taką skalę, jaką widzimy dzisiaj”. Na tle tej historii – zdaniem eksperta – wszystko, co dziś dzieje się ze sztuczną inteligencją jest na swój sposób wyjątkowe ze względu na szerokie zastosowanie. „Dzisiaj metody sztucznej inteligencji próbujemy stosować wszędzie i w związku z tym ta Nagroda Nobla jest bardzo na czasie, dobrze uzasadniona, ale też rewolucyjna przez to, że jest z informatyki” – podsumował ekspert.
Nagrodę Nobla w dziedzinie fizyki za rok 2024 otrzymali wspólnie Amerykanin John J.Hopfield (Princeton University) i Geoffrey brytyjsko-kanadyjski naukowiec E.Hinton (University of Toronto) za „fundamentalne odkrycia i wynalazki, które umożliwiają uczenie maszynowe za pomocą sztucznych sieci neuronowych”. Werdykt ogłosił we wtorek w Sztokholmie Komitet Noblowski.
Chociaż komputery nie potrafią myśleć – mogą naśladować funkcje, takie jak pamięć i uczenie się. W latach 40. XX wieku naukowcy opierali się na matematyce, która leży u podstaw sieci neuronów i synaps mózgu. Kolejny element pochodził z psychologii, dzięki hipotezie neurobiologa Donalda Hebba, zgodnie z którą uczenie się zachodzi, ponieważ połączenia między neuronami są wzmacniane, gdy pracują razem.
Naukowcy próbowali odtworzyć sposób funkcjonowania mózgu poprzez budowanie sztucznych sieci neuronowych jako symulacji komputerowych. Neurony mózgu są w nich naśladowane przez węzły, którym nadano różne wartości, a synapsy – reprezentowane przez połączenia między węzłami, które mogą być wzmacniane lub osłabiane.
Rewolucja uczenia maszynowego od 2010 r.
.Pod koniec lat 60. XX wieku zniechęcające wyniki teoretyczne sprawiły, że wielu badaczy podejrzewało, że te sieci neuronowe nigdy nie będą miały żadnego rzeczywistego zastosowania. Zainteresowanie nimi odżyło w latach 80. XX w. Wtedy właśnie tegoroczni nobliści rozpoczęli ważne prace nad sztucznymi sieciami neuronowymi, wykorzystując zapożyczone z fizyki narzędzia.
John Hopfield skonstruował pamięć skojarzeniową (asocjacyjną), która jest w stanie przechowywać i rekonstruować obrazy oraz inne rodzaje wzorców. Natomiast Geoffrey Hinton wynalazł metodę, która może samodzielnie znajdować pewne właściwości w danych i dzięki temu wykonywać zadania, takie jak identyfikowanie konkretnych elementów na obrazach.
Dzięki ich pracy od lat 80. XX w. powstały podwaliny pod rewolucję uczenia maszynowego, która rozpoczęła się około 2010 roku. Obecny rozwój dziedziny, którą zajęli się nobliści, stał się możliwy dzięki dostępowi do ogromnych ilości danych, które można wykorzystać do trenowania sieci, oraz wzrostowi mocy obliczeniowej. Dzisiejsze sztuczne sieci neuronowe są często ogromne i zbudowane z wielu warstw. Nazywa się je głębokimi sieciami neuronowymi, a sposób ich trenowania nazywa się głębokim uczeniem.
„Praca laureatów przyniosła już wielkie korzyści. W fizyce wykorzystujemy sztuczne sieci neuronowe w szerokim zakresie obszarów, takich jak opracowywanie nowych materiałów o określonych właściwościach” — powiedziała Ellen Moons, przewodnicząca Komitetu Noblowskiego w dziedzinie fizyki. Ich wyniki są też przydatne w systemach rozpoznawania twarzy, automatycznych tłumaczeniach. Odegrały podstawową rolę w rozwoju sztucznej inteligencji. Wielu badaczy rozwija obecnie obszary zastosowań uczenia maszynowego. Trwają również szerokie dyskusje na temat kwestii etycznych związanych z rozwojem i wykorzystaniem tej technologii.
Rola SI w odkryciu bozonu Higgsa
.Wykorzystanie uczenia maszynowego do przeszukiwania i przetwarzania ogromnych ilości danych było niezbędne na przykład do odkrycia bozonu Higgsa. Inne zastosowania obejmują redukcję szumów w pomiarach fal grawitacyjnych pochodzących ze zderzających się czarnych dziur lub poszukiwanie egzoplanet. W ostatnich latach tę technologię zaczęto stosować również przy obliczaniu i przewidywaniu właściwości cząsteczek i materiałów – np. przy obliczaniu struktury cząsteczek białek, która determinuje ich funkcję, lub przy określaniu, które nowe wersje materiału mogą mieć najlepsze właściwości do wykorzystania w bardziej wydajnych ogniwach słonecznych.
Kanadyjsko-brytyjski informatyk i psycholog poznawczy Geoffrey Everest Hinton (ur. 6 grudnia 1947 w Wimbledonie) doktorat zrobił w 1978 r. na University of Edinburgh. Obecnie jest emerytowanym profesorem Uniwersytetu w Toronto (Kanada). Jest uważany za „ojca chrzestnego sztucznej inteligencji”, ponieważ opracował metodę uczenia się sztucznych sieci neuronowych, polegającą na rozpoznawaniu wzorców w konkretnym zbiorze danych. W 2023 r. odszedł z pracy w Google, aby ostrzegać przed zagrożeniami związanymi z niekontrolowanym rozwojem i stosowaniem sztucznej inteligencji. „Jestem oszołomiony. Nie miałem pojęcia, że do tego dojdzie” – powiedział Hinton we wtorek, gdy skontaktował się z nim telefonicznie Komitet Noblowski.
Naukowiec ocenił, że sztuczna inteligencja będzie miała „ogromny wpływ” na cywilizację, przynosząc poprawę produktywności i opieki zdrowotnej. „Będzie to porównywalne z rewolucją przemysłową” – przyznał podczas rozmowy z reporterami i członkami Królewskiej Szwedzkie Akademii Nauk. W jego opinii zamiast przewyższać ludzi pod względem siły fizycznej, sztuczna inteligencja może przewyższyć nas pod względem zdolności intelektualnych. „Nie mamy doświadczenia, jak to jest radzić sobie z mądrzejszymi od nas. I pod wieloma względami będzie to wspaniałe. Musimy się jednak również brać pod uwagę szereg możliwych złych konsekwencji, w szczególności groźbę wymknięcia się tego spod kontroli” – skomentował noblista.
John Hopfield urodził się w 1933 r. w Chicago jako jeden z szóstki dzieci polskiego fizyka Johna Josepha Hopfielda. Jego matka Helen Hopfield również była fizyczką. Doktorat zrobił w 1958 na Cornell University. Jest profesorem na Princeton University. Nagrodą w wysokości 11 mln koron szwedzkich (ok. 4,2 mln zł) naukowcy podzielą się po równo
Czy ChatGPT jest w stanie myśleć?
.Zdaniem prof. Andrzej KISIELEWICZA z Politechniki Wrocławskiej, chociaż ChatGPT dysponuje ogromną wiedzą, to de facto nie jest w stanie myśleć i tym samym nie jest żadną sztuczną inteligencją. Autor ten w tekście „Bajki o sztucznej inteligencji i prawdziwe zagrożenia” wyraża również przekonanie, iż mechanizmy działania obecnych zaawansowanych modeli językowych w złożoności myślenia w najmniejszej mierze nie dorównują mechanizmom myślenia, które zachodzą w ludzkim mózgu.
„Żeby uzmysłowić sobie jak mało wspólnego GPT ma z naturalną inteligencją, można powiedzieć, że w czacie GPT jest tyle samo myślenia co w teoretycznym programie, który szuka zadanego fragmentu tekstu w olbrzymim zbiorze danych i gdy znajdzie, to po prostu przepisuje jego kontynuację; gdy zaś nie znajdzie, to stara się znaleźć tekst najbardziej podobny i przepisując kontynuację, stosuje odpowiednie modyfikacje. Taki program jest tylko teoretyczny, bo każdorazowe przeszukiwanie całego zbioru danych wielkości 570 GB przy obecnej wydajności komputerów trwałoby tygodniami. A my potrzebujemy prawie natychmiastowej reakcji programu na każde zapytanie. Stąd pośrednia realizacja powyższego pomysłu: najpierw „trenujemy” sieć, żeby „zapamiętała” w swoich miliardach parametrów najistotniejsze cechy zbioru danych tekstowych, a odpowiedzi dostatecznie bliskie oryginalnym przykładom generuje sieć i robi to dostatecznie szybko”.
”Z powyższego opisu wynika, że ChatGPT nie myśli, nie wnioskuje, niczego nie rozumie i nie jest żadną „sztuczną inteligencją”, o ile termin ten rozumiemy zgodnie z ideami ojców dziedziny artificial intelligence jako „autonomiczny program myślący na podobieństwo człowieka”. Chciałoby się rzec, że GPT nic nie rozumie, bo generuje kontynuację tekstu wyłącznie na podstawie cech zewnętrznych tekstu, ponieważ ma charakter czysto syntaktyczny, bez żadnej semantyki. Ale nie jest to całkiem prawdą. W procesie uczenia deep learning zawarta jest też pewna wiedza na temat znaczeń słów, ich bliskoznaczności itp. Brak jest natomiast wiedzy na temat znaczeń zdań (i ciągów zdań), bo my, ludzie, ciągle nie wiemy, na czym polega ten fenomen, jak zdanie języka naturalnego uzyskuje znacznie (model formalno-logiczny okazał się nieadekwatny, a filozoficzne rozprawy na ten temat nie dają nam niestety takiego zrozumienia problemu, które można by wykorzystać w programowaniu)”.
Wpływ sztucznej inteligencji na demokrację
.Na temat znaczenia sztucznej inteligencji dla demokracji, na łamach “Wszystko Co Najważniejsze” piszą Josh SIMONS i Eli FRANKEL w tekście “Dlaczego sztuczna inteligencja powinna być demokratyczna?“.
“W 2022 roku w świecie literatury i sztuki miały miejsce nowe, dość niekonwencjonalne debiuty. Pewien obiecujący literat z niespotykaną dotąd szybkością pisał wiersze, opowiadania i eseje, a kilku młodych artystów stworzyło wspaniałe obrazy i portrety. Twórcami tymi nie są ludzie, lecz systemy sztucznej inteligencji, które, przynajmniej z pozoru wydają się rzeczywiście inteligentne”.
“Pozory mogą mylić. Za finansowaniem typu venture capital, błyskotliwymi hasłami i oknami wieżowców w San Francisco, w których powstają systemy takie jak ChatGPT, kryje się coś prostszego: przewidywanie. Wystarczy wpisać coś do okna dialogowego. To, co pojawia się na ekranie, nie jest przejawem systemu, który rozumie naszą prośbę. Odpowiedź jest generowana przez sieć neuronową, czyli algorytmy nauczone przewidywania, które wyniki z całych zasobów sieci będą w danym przypadku użyteczne”.
.“Może się wydawać, że stoi za tym rozumienie, a my oglądamy rezultaty działań prawdziwego autora – tak jednak nie jest. To jedynie przewidywanie i naśladowanie. Nawet najbardziej skomplikowane systemy sztucznej inteligencji to w rzeczywistości zaawansowane formy uczenia się maszyn, w których algorytmy nabywają umiejętności przewidywania konkretnych wyników na podstawie wzorców i struktur w ogromnych zbiorach danych” – piszą Josh SIMONS i Eli FRANKEL.
PAP/Urszula Kaczorowska/WszystkocoNajważniejsze/MJ