Energożerna sztuczna inteligencja

Im większy, szybszy i dokładniejszy duży model językowy, tym więcej energii potrzeba do jego trenowania i użytkowania. Akceptujemy jednak ten stan, ponieważ mamy w głowie nadrzędny cel, jakim jest rozwój sztucznej inteligencji – powiedział dr hab. inż. Paweł Kasprowski, prof. Politechniki Śląskiej.
Model językowy AI, a zużycie energii
.W ostatnich dniach w Paryżu odbył się międzynarodowy szczyt AI Action Summit, w którym udział wzięli przywódcy około 80 krajów, przedstawiciele globalnych gigantów branży technologicznej i wybitni naukowcy. Jednym z tematów było ogromne zapotrzebowanie na energię związane z AI (z działaniem centrów przetwarzania danych) wobec problemu globalnego ocieplenia.
– W naszym codziennym życiu wiele rzeczy wymaga od nas poświęcenia. Uważam, że tutaj jest podobnie. Nam, cywilizacji, rozwój AI jest potrzebny, a wręcz niezbędny, dlatego akceptujemy, że dzieje się on kosztem ogromnego zużycia energii i rosnącego śladu węglowego – ocenił Paweł Kasprowski, koordynator Priorytetowego Obszaru Badawczego Politechniki Śląskiej „Sztuczna inteligencja i przetwarzanie danych”. Przypomniał, że wszystkie duże modele językowe (LLM), czyli modele sztucznej inteligencji pracują na potężnych komputerach.
– Badania sprzed kilku lat pokazały, że tylko na jedno trenowanie modelu – i to starszego modelu GPT 3 – zużywa się tyle energii, co ponad 100 gospodarstw domowych w Stanach Zjednoczonych przez rok i emituje tyle dwutlenku węgla, co ponad 30 lotów z USA do Australii. A to tylko trenowanie i to starszego modelu. Dzisiaj te modele są dużo większe i zużywają jeszcze więcej energii – podał Paweł Kasprowski.
Sztuczna inteligencja może się jednak „odpłacić”. Rozwijamy AI bardzo często do tego, aby coś zoptymalizować, np. zużycie energii, albo by przewidywać np. zapotrzebowanie na energię i możliwości jej dostarczania w danym momencie z wiatru czy słońca. Modele AI są też wykorzystywane do optymalizacji ruchu, transportu publicznego, autonomicznych samochodów, czy w rolnictwie. A to tylko pojedyncze przykłady szerokiego zastosowania, które umożliwiają znaczące oszczędności w zużyciu energii – mówił naukowiec.
Jednocześnie, badacz zwrócił uwagę, że czasem, owszem, można „wylać dziecko z kąpielą” – gdy algorytmy wprawdzie przyczyniają się do jakiejś oszczędności, ale jednocześnie zużywają niewspółmiernie do efektu dużo energii. Jak jednak mówił, problem jest znany środowisku, dlatego pojawiają się kolejne inicjatywy na rzecz zmniejszana śladu węglowego w związku z rozwojem AI. Jedną z nich jest idea „Green in AI”.
– Podam przykład dla zobrazowania problemu. Mamy jakiś algorytm, który po uruchomieniu na moim komputerze oblicza coś przez 6 godzin. Dla mnie, użytkownika, to jest nieakceptowalne. Muszę zrobić tak, żeby było szybciej. Jak? Najlepiej wziąć lepszy, mocniejszy i większy komputer. Wtedy ten algorytm będzie liczył tylko 15 minut, ale kosztem znacznie większej energii. Drugie podejście jest takie, aby zoptymalizować sam algorytm, sprawdzić, czy w kodzie np. coś się liczy niepotrzebnie albo jakieś obliczenia się dublują. Możemy więc spróbować poprawić sam kod, dzięki czemu algorytm będzie liczył szybciej na moim dotychczasowym sprzęcie, zużywając znacznie mniej energii – mówił.
Jednocześnie dodał, że dominuje to pierwsze podejście, ponieważ drugie, choć zyskuje na popularności, wymaga większych nakładów finansowych na zatrudnienie programistów oraz czasu na ich pracę. Dlatego w mojej ocenie, na teraz, problem równowagi między rozwojem AI a wzrostem zapotrzebowania na energię i rosnącym śladem węglowym jest nierozwiązywalny – ocenił Paweł Kasprowski.
Na pytanie „Ile energii potrzeba na przeanalizowanie jednego pytania w ChatGPT?”, ChatGPT odpowiedział: „Twoje obecne pytanie nie jest szczególnie złożone, więc przetworzenie go przez model, taki jak ChatGPT, nie wymaga dużej mocy obliczeniowej w porównaniu do bardziej skomplikowanych zapytań. Mimo to, jest to nadal część obliczeń przeprowadzanych przez serwery, które zajmują się przetwarzaniem zapytania, analizowaniem go i generowaniem odpowiedzi. W tym przypadku, w przybliżeniu, moglibyśmy mówić o zużyciu energii na poziomie kilku watów mocy obliczeniowej przez krótki czas. (…)”. To porównywalnie tyle, co np. żarówka LED”.
Sztuczna inteligencja jest w nas
.Oto największy problem współczesnego Zachodu. Nie AI, która nam zagraża jak kiedyś (i w pewnej mierze dzisiaj) broń nuklearna, ale AI, która jest w nas. Prawdziwą obroną przed zagrożeniami niesionymi przez AI jest powrót do wizji człowieka jako istoty duchowej. Moje „ja”, moja osoba jest jednością substancjalną ciała i duszy – pisze prof. Jacek KORONACKI, profesor nauk technicznych, doktor habilitowany nauk matematycznych, były długoletni dyrektor Instytutu Podstaw Informatyki PAN.
Często przywołuję tę oto prostą, operacyjną definicję sztucznej inteligencji, zaproponowaną przez jednego z pionierów badań w tym obszarze, Nilsa J. Nilssona: „Sztuczna inteligencja jest efektem ludzkiego działania, zmierzającego do uczynienia maszyn inteligentnymi; inteligencja zaś jest tą jakością, która pozwala danemu bytowi działać właściwie i przewidująco w jego otoczeniu”. Wypada tu dodać, że działanie właściwe i przewidujące możliwe jest dlatego, że inteligencja uzdolnia człowieka do postrzegania, uczenia się, analizy i syntezy informacji przychodzących z tego wszystkiego, co dany byt otacza. Właściwy i przewidujący charakter działania oznacza tu sukces w aktywności prostej w tym sensie, że niezwiązanej z jej oceną moralną, lecz realizowaną w ramach a priori zadanych reguł tego działania (jak np. ominięcie przez człowieka albo robota nieoczekiwanej przeszkody).
Cały tekst dostępny na łamach „Wszystko co Najważniejsze” pod linkiem: Prof. Jacek KORONACKI: Sztuczna inteligencja jest w nas.
Agnieszka Kliks-Pudlik/PAP/WszystkocoNajważniejsze/rb