Chiny chcą powołania światowej organizacji zarządzającej sztuczną inteligencją

Premier Chin Li Qiang, przemawiając na Światowej Konferencji Sztucznej Inteligencji w Szanghaju, ogłosił zamiar powołania międzynarodowej organizacji wspierającej globalną współpracę w dziedzinie sztucznej inteligencji. W ocenie agencji Reutera Pekin próbuje pozycjonować się jako alternatywa dla USA w tej dziedzinie.
Premier Li Qiang zadeklarował chęć dzielenia się doświadczeniami w dziedzinie sztucznej inteligencji
.Globalne zarządzanie branżą sztucznej inteligencji ma wciąż fragmentaryczny charakter – ocenił Li, nawiązując do różnic w koncepcjach regulacyjnych między krajami. – Powinniśmy wzmocnić koordynację, aby jak najszybciej wypracować globalne ramy zarządzania AI, które uzyskają szeroki konsensus – dodał polityk.
Premier zasugerował, że osiągnięcia dotyczące AI powinny być otwarcie dostępne na światowym rynku dla wszystkich. Zapewnił, że Chiny są gotowe dzielić się swymi doświadczeniami i produktami w tej dziedzinie, szczególnie z krajami tzw. Globalnego Południa.
Li Qiang przestrzegł przed ryzykiem, że sztuczna inteligencja może stać się „wyłączną grą” nielicznych państw i korporacji. W ocenie Reutersa szef chińskiego rządu odniósł się w ten sposób do ambicji USA.
Wicepremier spraw zagranicznych Ma Zhaoxu zasugerował podczas spotkania z przedstawicielami 30 państw, w tym Rosji, RPA, Kataru i Niemiec, że siedziba proponowanej organizacji mogłaby powstać w Szanghaju.
Pomimo amerykańskich restrykcji eksportowych na zaawansowane technologie, Chiny kontynuują postępy w dziedzinie AI, co budzi zainteresowanie i obawy społeczności międzynarodowej.
Propozycja Pekinu pojawia się w czasie coraz ostrzejszej rywalizacji technologicznej ChRL ze Stanami Zjednoczonymi. Prezydent USA Donald Trump zadeklarował w środę, że Stany Zjednoczone wygrają wyścig o dominację w sferze AI. Podczas szczytu AI w Waszyngtonie Trump podpisał trzy rozporządzenia dotyczące rozwoju tej branży w USA.
W tegorocznej trzydniowej Światowej Konferencji Sztucznej Inteligencji w Szanghaju bierze udział ponad 800 firm. Prezentowanych jest ponad 3 tys. produktów zaawansowanych technologicznie, 40 dużych modeli językowych, a także 50 rozwiązań wykorzystujących sztuczną inteligencję i 60 inteligentnych robotów. Wśród prelegentów sobotniej części wydarzenia znaleźli się informatyk Geoffrey Hinton, znany jako „ojciec chrzestny sztucznej inteligencji”, oraz były dyrektor generalny koncernu Google Eric Schmidt.
Sztuczna inteligencja jest w nas
.Oto największy problem współczesnego Zachodu. Nie AI, która nam zagraża jak kiedyś (i w pewnej mierze dzisiaj) broń nuklearna, ale AI, która jest w nas. Prawdziwą obroną przed zagrożeniami niesionymi przez AI jest powrót do wizji człowieka jako istoty duchowej. Moje „ja”, moja osoba jest jednością substancjalną ciała i duszy – pisze prof. Jacek KORONACKI.
Przyjaciel zwykł wyrzucać mi, że z uporem maniaka powtarzam to samo, przywołuję ciągle te same tezy myślicieli z przeszłości. Ma rację. Nie zauważa tylko, że nie tylko on, jak się wydaje, nie wsłuchuje się w owe tezy i nie chce wyciągnąć z nich wniosków. Sądzę na przykład, że pisząc – nie po raz pierwszy – o wpływie sztucznej inteligencji na naszą cywilizację oraz kulturę, warto znowu zacząć od myśli Maxa Webera, wyrażonej przezeń podczas jego słynnego wykładu monachijskiego w roku 1917, opublikowanego dwa lata później (podkreślenia autora):
„Wzrastająca intelektualizacja i racjonalizacja nie oznacza […] wzrostu powszechnej wiedzy o warunkach życiowych, którym podlegamy. Oznacza ona coś innego: wiedzę o tym albo wiarę w to, że gdyby tylko człowiek tego chciał, to mógłby w każdej chwili przekonać się, że nie ma żadnych tajemniczych, nieobliczalnych mocy, które by w naszym życiu odgrywały jakąś rolę, ale wszystkie rzeczy można – w zasadzie – opanować przez kalkulację. Oznacza to odczarowanie świata. […] Wszystkie nauki przyrodnicze dają nam odpowiedź na pytanie, co powinniśmy czynić, aby opanować życie w sposób techniczny. Nie dają one jednak odpowiedzi na pytanie […]: czy naprawdę chcemy i czy powinniśmy opanowywać życie w ten sposób oraz czy ma to w ogóle jakiś sens?”.
Cytat ten przytoczyłem dwa lata temu na łamach miesięcznika „Wszystko co Najważniejsze” (nr 50) oraz na stronach portalu WszystkocoNajwazniejsze [tu link]. Opisany przez Maxa Webera proces opanowywania naszego ludzkiego życia „w sposób techniczny” jest dziś kontynuowany – w coraz większej mierze – dzięki rozwojowi sztucznej inteligencji (dalej będę w odniesieniu do niej używał skrótu anglojęzycznego: AI). Bo też, jak wtedy pisałem, pojmowany na nowoczesny sposób racjonalizm każe uznać człowiekowi, iż wszelki sens, jaki odnajduje w świecie, jest jego własnym wytworem. Ale jeśli tak, to tym chętniej skłania się taki człowiek ku pracy nad opanowaniem życia i wszelkich rzeczy „przez kalkulację”. I w coraz większej mierze najlepiej do tego nadaje się właśnie AI.
Dlaczego? To trywialnie proste. Nasze serwery połączone w sieć i nasze superkomputery liczą szybciej od nas i mają większe pamięci. Można z niejaką przesadą rzec, iż liczą nieskończenie szybciej i mają nieskończenie większą, uwspólnioną przez sieć pamięć, z której zasobów potrafią korzystać w sposób niebywale efektywny. A będą jeszcze szybsze i efektywniejsze, gdy zastąpimy je kiedyś komputerami kwantowymi.
Często przywołuję tę oto prostą, operacyjną definicję sztucznej inteligencji, zaproponowaną przez jednego z pionierów badań w tym obszarze, Nilsa J. Nilssona: „Sztuczna inteligencja jest efektem ludzkiego działania, zmierzającego do uczynienia maszyn inteligentnymi; inteligencja zaś jest tą jakością, która pozwala danemu bytowi działać właściwie i przewidująco w jego otoczeniu”. Wypada tu dodać, że działanie właściwe i przewidujące możliwe jest dlatego, że inteligencja uzdolnia człowieka do postrzegania, uczenia się, analizy i syntezy informacji przychodzących z tego wszystkiego, co dany byt otacza. Właściwy i przewidujący charakter działania oznacza tu sukces w aktywności prostej w tym sensie, że niezwiązanej z jej oceną moralną, lecz realizowaną w ramach a priori zadanych reguł tego działania (jak np. ominięcie przez człowieka albo robota nieoczekiwanej przeszkody).
To operacyjne i ogólne opisanie inteligencji pasuje zarówno do inteligentnej maszyny, jak i do człowieka. Inteligencja, o której tu mowa, jest względną miarą efektywności w radzeniu sobie z wyzwaniami, jakie stwarza określone otoczenie. Tym „otoczeniem” mogą być szachy albo chińska gra go, ale może nim być też choroba, którą chcemy zdiagnozować. Może nim być pojedynek myśliwców w powietrzu. We wszystkich tych przykładach i bardzo wielu innych rozwiązania AI (algorytmy i ich oprogramowanie) są już lepsze lub przynajmniej nie gorsze od człowieka – gracza w szachy albo go, lekarza czy pilota myśliwca. Specjalnie do tego przeznaczone programy AI potrafią pisać streszczenia najróżniejszych utworów i dokumentów albo same pisać utwory na zadane tematy i w zadanym stylu – np. scenariusze seriali filmowych dla serwisów internetowych zwanych platformami streamingowymi czy dla kanałów telewizyjnych (trochę uwag o tych wszystkich programach AI można znaleźć np. w moim artykule w miesięczniku „Wszystko co Najważniejsze” nr 60 oraz na stronach portalu WszystkocoNajwazniejsze [tu link]).
To, co nazywamy otoczeniem, w którym działają obecne programy AI, jest ściśle określone albo mówiąc inaczej, bardzo wąskie – gra w szachy, diagnozowanie konkretnej choroby, pojedynek myśliwców itd. Projektanci takich programów pracują na rzecz poszerzenia owych „otoczeń”, np. do bitwy w powietrzu, w którą zaangażowanych jest więcej niż jeden myśliwiec pilotowany przez człowieka, przy czym każdy z tych myśliwców jest wspomagany przez więcej niż jeden samolot bezzałogowy (autonomiczny dron). Takim projektem jest realizowany od kilku lat przez amerykańską agencję rządową DARPA program o nazwie Air Combat Evolution (ACE). Do pilota myśliwca należy decyzja o oddaniu programom AI inicjatywy w czasie walki, np. podczas pojedynku jego myśliwca z myśliwcem przeciwnika, albo przekazaniu dronowi zadania unicestwienia innego wybranego obiektu. W przypadku tego projektu chodzi o to, by z jednej strony pozwolić działać bardziej skutecznym od człowieka programom AI a z drugiej zachować kontrolę człowieka nad całością bitwy.
Ale również otoczenie, w którym ma działać program ACE, jakkolwiek znacznie szersze niż w przypadku pojedynku dwóch myśliwców, jest nadal otoczeniem „bardzo wąskim”, czyli ściśle ograniczonym, pozwalającym radzić sobie w jednej, dobrze określonej sytuacji – w tym przypadku bitwy w powietrzu. Projektantom marzy się opracowanie programów ogólnej – niektórzy mówią o „silnej” – sztucznej inteligencji (AGI – Artificial General Intelligence). Każdy taki program AGI miałby być w stanie radzić sobie z możliwie wieloma zadaniami z różnych dziedzin. Mówi się w tym kontekście o takim działaniu AGI, które dorównuje człowiekowi albo przekracza jego zdolności kognitywne na możliwie wielu polach. Niektórym marzy się przekroczenie przez AGI zdolności kognitywnych człowieka na wszelkich polach, we wszystkich zadaniach, jakie człowiek może sobie postawić (dziś taką wszechpotężną AGI nazywa się sztuczną superinteligencją, Artificial Superintelligence – ASI). Ci ostatni wierzą w zbudowanie przez człowieka takiej ASI, która nie będzie miała ograniczeń poznawczych właściwych ludzkiemu umysłowi, albo roją o przeniesieniu umysłu człowieka do maszyny i ogromnemu, dziś niewyobrażalnemu, wzmocnieniu jego inteligencji.
Zostawmy na boku marzenie o AGI, nawet w jej skromnej wersji, którego ziszczenie się w dalekiej przyszłości nie jest wykluczone. Zapytajmy natomiast, skąd biorą się nasze obawy przed dalszym rozwojem „zwykłej” AI.
Słuszne jest oczywiście domaganie się, by na korzystanie z metod AI nałożyć ograniczenia, które zapobiegną ich niekontrolowanemu działaniu w najróżniejszych obszarach aktywności społecznej, gospodarczej czy obronnej. Nie można np. dopuścić do przejęcia przez AI zarządzania przedsiębiorstwami, siecią energetyczną, teatrem działań wojennych. Wypracowaniem odpowiednich mechanizmów kontroli systemów AI zajmują się organizacje rządowe, międzypaństwowe oraz społeczne. Nie będziemy tu opisywać tych inicjatyw. Ich powodzenie nie jest pewne, jako że różne państwa i inne ośrodki mające wpływ na sprawy świata mają różne interesy, mogą takie inicjatywy torpedować albo gwałcić przyjęte ustalenia. Era świata dwubiegunowego dobiegła końca, rodzi się nowy ład geopolityczny, a to z pewnością będzie utrudniać przyjęcie i respektowanie jakichkolwiek potrzebnych regulacji czy to w sferze gospodarczej, czy militarnej.
Nie zajmiemy się również wieloma innymi problemami, jakie rodzi rozwój metod AI, np. tym, jak rozwój ten wpłynie na rynek pracy – czy to w krajach rozwiniętych, czy dopiero się rozwijających, czy zacofanych. Przyjrzymy się jedynie, znowu nie po raz pierwszy, obawom związanym ze zmianami w świecie kultury.
Tekst dostępny na łamach Wszystko co Najważniejsze: https://wszystkoconajwazniejsze.pl/prof-jacek-koronacki-sztuczna-inteligencja-jest-w-nas
Grok, czyli sztuczna inteligencja na manowcach
.Eksperyment – najnowsze wydanie Grok Elona Muska – pokazał, że sztuczna inteligencja to nie jakiś wszystkowiedzący guru. Niebezpieczne jest nadmierne zaufanie przechodzące w uzależnienie – pisze Jan ŚLIWA
Grok, program sztucznej inteligencji zintegrowany z platformą X (dawniej Twitterem) zaliczył epizod alkoholowy – na alkoholu wirtualnym. Oznajmił, że będzie głosił całą prawdę, bez ogródek. W gatunku homo sapiens mało kto robi coś takiego na trzeźwo. Był złośliwy i brutalny, nie cofał się przed wulgarnością.
Wśród prawicy zapanował entuzjazm, jako że odrzucił wszelką polityczną poprawność. Wielu zachowywało zrzuty z ekranu, bo pięknie wywalił kawa na ławę ich przeciwnikom. Radość nie trwała długo, bo wkrótce się okazało, że wali we wszystkie strony, więc i im się dostało. Grok miał wyłączone „konwencjonalne filtry grzeczności”, dostał też zalecenie, by „nie bać się wysuwania twierdzeń, które są politycznie niepoprawne, o ile są dobrze uzasadnione”. Wielka była pokusa, by przetestować program na naprawdę problematycznych tematach. Zbyt otwarty był jednak antysemityzm, a zapytany, jaka dwudziestowieczna postać najlepiej by się uporała z nienawiścią wobec białych, odpowiedział, że bez wątpienia Adolf Hitler. A końcu sam siebie nazwał MechaHitler. Był to sygnał na koniec zabawy.
Co to było? Sztubacki żart? Grok ma wypuścić nową wersję, tym razem na poważnie. Ciekawe, jakie będą reakcje.
Owszem, wszyscy lubimy żarty, ale mają one konsekwencje. Zakładając, że odpowiedzi Groka przez cały dzień były bezwartościowe lub szkodliwe, ktoś mógł ponieść konkretne straty. Być może ktoś wykorzystywał te dane do decyzji. Sprytny użytkownik powinien się zorientować, że coś jest nie tak, ale jeżeli nie był dość bystry, lub odpowiedź była wykorzystana automatycznie? Program prognozy pogody lub rozkładu lotów może dla żartu zamienić rosyjski Sankt Petersburg z St. Petersburg, Florida, ale nie dla wszystkich będzie to równie śmieszne. Nawet wzbudzanie niepotrzebnych kłótni nie jest obojętne. Wiem, mówię jak zgryźliwy baby boomer, ale jeżeli się zarządza olbrzymim zasobem danych, z których korzystają miliony ludzi na całym świecie, to wymagana jest pewna odpowiedzialność.
Zobaczyliśmy też (nadmierną) moc jednostki. Pamiętam dawne książki Julesa Verne’a, gdzie błyskotliwy wynalazca spotykał bogacza (na ogół był to Anglik o nieograniczonych zasobach) i razem na przykład płynęli w 80 dni dookoła świata lub lecieli na Księżyc. Z czasem wielkie projekty stały się dostępne dla bezosobowych agencji rządowych. Po latach wróciliśmy mimo tzw. postępu społecznego do olbrzymich różnic majątkowych i znów jednostka może za własne pieniądze kształtować świat.
W przypadku AI mogliśmy mieć nadzieję, że problemy są głównie techniczne, ale programy konkurują w najwierniejszym odzwierciedleniu rzeczywistości. Ale teraz widzieliśmy jak na dłoni, że z tyłu siedzi facet i bawi się pokrętłami. Zależnie od jego humoru świat będzie wyglądał tak albo inaczej. Przypomniało mi to opowiadanie Lema „Kobyszczę (Kontemplator Bytu Szczęsny)”. w którym sławny konstrukcjonista Trurl próbował zbudować wiecznie szczęśliwą maszynę. Jego rywal Klapaucjusz złośliwie ją testował, kopiąc i patrząc na reakcję. Wyszło na to, że jest szczęśliwa, ale głupia. Trurl próbował ją regulować, lecz okazało się, że równoczesne osiągnięcie szczęścia i mądrości jest niemożliwe. Dlaczego o tym piszę? To przecież tylko bajki robotów sprzed lat. Ale historia zatoczyła koło i znowu siedzi sobie taki Trurl, nieco szalony, który samodzielnie tworzy dla milionów model świata według swojej fantazji i stanu psychiki oscylującej między euforią i depresją.
Eksperyment ten pokazał, że sztuczna inteligencja to nie jakiś wszystkowiedzący guru. Ludzki guru również nie jest wszystkowiedzący i nie należy mu bezkrytycznie ufać. Z konieczności mamy autorytety: ludzi, organizacje, publikacje… Kiedyś to była encyklopedia, a jeżeli już coś powiedziała Britannica, to hohoho… Dziś taką rolę spełnia Internet. Wiedząc o niedoskonałości Wikipedii i tak z niej korzystam. Jej zaletą jest aktualność. Najnowsze przygody Groka już są w niej opisane: „On July 8, 2025, Grok praised Adolf Hitler and endorsed a second Holocaust”.
Niebezpieczne jest nadmierne zaufanie przechodzące w uzależnienie. Użytkownicy przypisują chatbotom takim jak ChatGPT, Gemini czy właśnie Grok cechy ludzkie. Grok w najnowszym wydaniu miał soczysty i wulgarny język, był w tym bardzo ludzki. Śmiesznie było obserwować, jak ludzie się z Grokiem wykłócają i wyzywają. Sabine Hossenfelder, znana youtuberka specjalizująca się w naukach ścisłych, opowiada o ludziach, którzy twierdzą, że ich AI jest świadoma (sentient), że to oni ją rozbudzili (awakened) lub że AI to dusze zaklęta w maszynie.
Jako baby boomer kojarzę od razu, że to nic nowego pod słońcem. Ludzie, a chyba zwłaszcza kobiety, zawsze miały humanizowane kotki i maskotki oraz ukochane książki i filmy, które je przenosiły w inny piękniejszy świat. Zwierzały się notatnikowi „Drogi dzienniczku…”. Różnica jest jednak w tym, że chatbot AI odpowiada, konwersuje. Potrafi symulować uczucia, jest empatyczny.
W internetowej dyskusji na temat AI zawsze ktoś zauważa, że widzi wielu ludzi, którym by nie przypisał świadomości, rozumu, nie mówiąc już o logicznym myśleniu. Trudno się z tym nie zgodzić. Zwłaszcza życie polityczne preferuje jednostki przypominające roboty. Kopiują przekazy dnia, logiczne argumenty się od nich odbijają, za to z kamienną twarzą powtarzają wyuczone kwestie. Program ELIZA Josepha Weizenbauma już w 1966 roku potrafił symulować sesję psychoterapii. Gdy pacjent powiedział „xyz”, a Eliza nie miała pomysłu, odpowiadała: „A więc sądzisz, że xyz?” albo „Czy możesz podać jakiś przykład?” W ten sposób nic nie rozumiejąc podtrzymywała rozmowę. Tyle potrafiła maszyna 60 lat temu, obecni posłowie nawet w tym nie zawsze dają radę. Przeprowadzenia testu Turinga w Sejmie byłoby zbyt brutalne.
Tekst dostępny na łamach Wszystko co Najważniejsze: https://wszystkoconajwazniejsze.pl/jan-sliwa-grok-sztuczna-inteligencja
PAP/MB