Sztuczna Inteligencja napisała książki o zdrowiu króla Karola III, Amazon sprzedaje, Buckingham protestuje
Na platformie Amazon pojawiło się w sprzedaży siedem książek zawierających fałszywe informacje na temat stanu zdrowia króla Karola III, które zostały napisane przez sztuczną inteligencję (AI) – ujawnił „Mail on Sunday”. Pałac Buckingham zapowiedział podjęcie kroków prawnych.
AI potrafi pisać książki
.Dziennikarze „Mail on Sunday” odkryli, że na Amazonie pomiędzy szeregiem książek na temat brytyjskiej monarchii napisanych przez uznanych autorów, są sprzedawane książki stworzone przez AI, które zawierają kłamstwa i rzekomo ekskluzywne informacje na temat stanu zdrowia monarchy.
Znajdują się w nich m.in. żywe opisy momentu, w którym król dowiedział się, że ma raka, gdy jakoby czuł „strach, złość i rozpacz”; szczegóły operacji usunięcia „guza” i „zmęczenia” Karola III przebytą chemioterapią i radioterapią; informacja, jakoby u króla zdiagnozowano raka skóry; twierdzenia informatora z dworu królewskiego, że Karol ma raka prostaty z „umiarkowanym ryzykiem” rozprzestrzeniania się, twierdzenia, jakoby król zaledwie kilka miesięcy po rozpoczęciu panowania miał „niewyjaśniony wypadek”, który wymagał hospitalizacji.
Wszystkie zidentyfikowane tytuły mają nieznanych wcześniej autorów i opublikowane zostały przez istniejącą na Amazonie platformę dla autorów do samodzielnej publikacji książek. Gazeta wyjaśnia, że nie ma możliwości zweryfikowania nazwisk osób, które podają się za autorów, a Amazon odmówił wczoraj ujawnienia ich tożsamości. Podkreśla też, że te ustalenia pokazują łatwość, z jaką można wykorzystać sztuczną inteligencję do rozpowszechniania w Internecie fałszywych twierdzeń i dezinformacji na temat osób publicznych.
Sztuczna inteligencja i nieprawdziwe informacje, które potrafi rozpowszechnić
.W odpowiedzi na informacje „Mail on Sunday” rzecznik Pałacu Buckingham oświadczył: „Wszelkie takie tytuły spekulujące na temat diagnozy i leczenia Jego Królewskiej Mości są naruszające prywatność, pozbawione wrażliwe i pełne nieścisłości. Nasz zespół prawny będzie uważnie przyglądał się tej sprawie. Wzywamy wszelkie osoby lub organizacje ułatwiające ich sprzedaż do natychmiastowego ich wycofania”.
„Mail on Sunday” zaznacza, że Amazon usunął część napisanych przez sztuczną inteligencję książek o zdrowiu króla, ale w sobotę wieczorem niektóre z nich, w tym ta mówiąca o raku prostaty, były nadal w sprzedaży.
Tymczasem Karol III wydał w niedzielę oświadczenie, w którym podziękował za otrzymane wyrazy wsparcia. „Chciałbym wyrazić moje najszczersze podziękowania za wiele wiadomości wsparcia i dobrych życzeń, które otrzymałem w ostatnich dniach. Jak wiedzą wszyscy ci, którzy zostali dotknięci rakiem, takie miłe myśli są największym pocieszeniem i dodaniem wiary” – napisał.
Oprócz podziękowań za życzenia, 75-letni monarcha odniósł się również do swojej decyzji o publicznym ujawnieniu choroby, pisząc: „Równie pokrzepiające jest usłyszeć, jak podzielenie się moją własną diagnozą pomogło promować publiczne zrozumienie i rzucić światło na pracę wszystkich organizacji, które wspierają pacjentów chorych na raka i ich rodziny w Wielkiej Brytanii i na całym świecie”.
Czy sztuczna inteligencja myśli?
.”Niezwykłe możliwości programu ChatGPT wznowiły po raz kolejny dyskusję o zagrożeniach dla ludzkości ze strony sztucznej inteligencji” – pisze prof. Andrzej Kisielewicz we „Wszystko co Najważniejsze„. – „Dyskusję tę w oczywisty sposób zaburzają zjawiska z jednej strony związane z pogonią za sensacją w mediach, a z drugiej troska badaczy i szefów firm AI o zapewnienie funduszy na dalsze badania. W rezultacie większość informacji na temat GPT i możliwości sztucznej inteligencji, jakie można znaleźć w mediach, w bardzo małym stopniu opiera się na prawdzie.”
„Żeby uzmysłowić sobie jak mało wspólnego GPT ma z naturalną inteligencją, można powiedzieć, że w czacie GPT jest tyle samo myślenia co w teoretycznym programie, który szuka zadanego fragmentu tekstu w olbrzymim zbiorze danych i gdy znajdzie, to po prostu przepisuje jego kontynuację; gdy zaś nie znajdzie, to stara się znaleźć tekst najbardziej podobny i przepisując kontynuację, stosuje odpowiednie modyfikacje. Taki program jest tylko teoretyczny, bo każdorazowe przeszukiwanie całego zbioru danych wielkości 570 GB przy obecnej wydajności komputerów trwałoby tygodniami. A my potrzebujemy prawie natychmiastowej reakcji programu na każde zapytanie. Stąd pośrednia realizacja powyższego pomysłu: najpierw 》trenujemy《 sieć, żeby 》zapamiętała《 w swoich miliardach parametrów najistotniejsze cechy zbioru danych tekstowych, a odpowiedzi dostatecznie bliskie oryginalnym przykładom generuje sieć i robi to dostatecznie szybko.”
„Są inżynierowie AI, którzy na poważnie twierdzą, że ChatGPT jednak myśli, że podobny jest (ich zdaniem) mechanizm myślenia w mózgu ludzkim, gdzie rzecz polega również na wykonywaniu w sposób prawie deterministyczny, z elementami losowości, pewnego algorytmu. Sprzyja temu niezwykły efekt programu GPT, którego liczne reakcje na nasze zapytania zdają się w ewidentny sposób przekraczać zdolności intelektualne pojedynczych ludzi”.
„Najsłabszą stroną programu ChatGPT i innych specjalistycznych systemów AI jest brak zdolności do wyciągania logicznych wniosków, brak mechanizmów logicznego myślenia w tych systemach. (Dobitnie ilustruje to przykład załączony powyżej). Po klęsce próby zastosowania logiki formalnej w badaniach nad sztuczną inteligencją musimy dojść do wniosku, że nie wiemy nawet, na czym właściwie polega praktyczne, logiczne myślenie, praktyczne rozumowanie (nie uczymy tego w szkołach!), więc niby jak chcemy skonstruować myślące maszyny? Na ślepo?”
„Wizja sztucznej inteligencji współegzystującej z powszechną ludzką głupotą, znakomitych osiągnięć technologicznych z degeneracją więzi społecznych, internet jako narzędzie do szerzenia i utrzymywania dezinformacji w ludzkich społecznościach – takiej wizji wykluczyć się nie da” – przestrzega profesor.
„Żeby zapobiec czarnym scenariuszom, pilna wydaje się nie tylko reforma edukacji uwzględniająca postęp technologiczny, szczególnie w sferze technologii informacyjnych, oraz dbająca o właściwe wyważenie proporcji między czasem spędzanym przez młodzież w świecie wirtualnym i w świecie fizycznym. […] O tym, jak rozpoznawać prawdę, jak ją wyszukiwać w internecie, trzeba zacząć uczyć w szkołach. Mnie osobiście niezbędny wydaje się powrót do edukacji przedmiotu pod nazwą 》logika praktyczna《 – z naciskiem na 》praktyczna《 i z uwzględnieniem doświadczeń z nieudanych prób zbudowania sztucznej inteligencji. Chociaż obawiam się, że moje osobiste zabiegi w tym kierunku to niestety głos wołającego na puszczy.”
PAP/ Bartłomiej Niedziński/ Wszystko co Najważniejsze/ LW