Margaret Atwood, Dan Brown, Nora Roberts i Gildia Autorów oskarżają systemy sztucznej inteligencji

Ponad 9 tys. autorów i znanych osób – w tym m.in. Margaret Atwood, Dan Brown czy Nora Roberts – podpisało się pod listem wzywającym firmy oferujące systemy AI do uzyskiwania zgody autorów na korzystanie z ich twórczości – poinformowała w środę amerykańska organizacja twórców literatury Authors Guild.

Ponad 9 tys. autorów i znanych osób – w tym m.in. Margaret Atwood, Dan Brown czy Nora Roberts – podpisało się pod listem wzywającym firmy oferujące systemy AI do uzyskiwania zgody autorów na korzystanie z ich twórczości – poinformowała w środę amerykańska organizacja twórców literatury Authors Guild.

Margaret Atwood, Dan Brown, Nora Robers, Jodi Picoult i Michael Pollan sygnatariuszami listu Authors Guild

.Wśród sygnatariuszy listu Authors Guild, najważniejszego stowarzyszenia autorów w USA, jest też najbardziej znana kanadyjska autorka – Margaret Atwood. Atwood, a także autorzy tacy jak m.in. Dan Brown, Nora Robers, Jodi Picoult, Michael Pollan, zwrócili się do firm: Open AI, Meta, Alphabet, Stability AI, IBM, Microsoft i innych podmiotów oferujących usługi bazujące na sztucznej inteligencji, wskazując, że AI posługuje się istniejącymi książkami, ale autorzy nie otrzymują z tego tytułu żadnych wynagrodzeń.

„Technologie AI w olbrzymim stopniu bazują na języku autorów, opowiadanych historiach, stylu i pomysłach. Miliony chronionych prawami autorskimi książek, artykułów, esejów i poezji służą jako baza systemów AI, ale autorzy nie otrzymują żadnego wynagrodzenia z tego tytułu” – napisano w liście.

„Potencjał zalania rynku przez mierne, maszynowo tworzone książki, opowieści i dziennikarstwo, bazujące na oryginalnej twórczości autorów, stanowi istotne zagrożenie dla zawodów związanych z pisaniem” – przekazano w liście, podkreślając, że większość książek użytych do „treningu” AI pochodzi z pirackich stron internetowych.

Postulaty Authors Guild

.Authors Guild domaga się, by firmy korzystające z AI musiały uzyskać zezwolenie autorów przed użyciem ich pracy i wypłacać wynagrodzenie, w tym za wykorzystane już książki. W czerwcu br. szefowie organizacji autorów spotkali się z przedstawicielami amerykańskiego Kongresu, omawiając m.in. sprawę ochrony praw autorskich, a także możliwości oznaczania tekstów jako wygenerowanych przez AI.

Przewodnicząca Authors Guild Mary Rasenberger mówiła w programie kanadyjskiego publicznego nadawcy CBC, że w razie braku porozumienia organizacja rozważa wytoczenie sprawy w sądzie firmom rozwijającym AI. Wskazała też, że istnieje zagrożenie utraty kultury literackiej, wymiany idei „wszystkich tych rzeczy, które są tak istotne dla demokracji”.

Bajki o sztucznej inteligencji i prawdziwe zagrożenia

.„Niezwykłe możliwości programu ChatGPT wznowiły po raz kolejny dyskusję o zagrożeniach dla ludzkości ze strony sztucznej inteligencji. Dyskusję tę w oczywisty sposób zaburzają zjawiska z jednej strony związane z pogonią za sensacją w mediach, a z drugiej troska badaczy i szefów firm AI o zapewnienie funduszy na dalsze badania. W rezultacie większość informacji na temat GPT i możliwości sztucznej inteligencji, jakie można znaleźć w mediach, w bardzo małym stopniu opiera się na prawdzie” – pisze prof. Andrzej KISIELEWICZ, autor publikacji naukowych z zakresu matematyki, logiki i informatyki, b. działacz Solidarności Walczącej i redaktor tygodnika „Solidarność Walcząca”. 

Jak podkreśla, „żeby uzmysłowić sobie jak mało wspólnego GPT ma z naturalną inteligencją, można powiedzieć, że w czacie GPT jest tyle samo myślenia co w teoretycznym programie, który szuka zadanego fragmentu tekstu w olbrzymim zbiorze danych i gdy znajdzie, to po prostu przepisuje jego kontynuację; gdy zaś nie znajdzie, to stara się znaleźć tekst najbardziej podobny i przepisując kontynuację, stosuje odpowiednie modyfikacje. Taki program jest tylko teoretyczny, bo każdorazowe przeszukiwanie całego zbioru danych wielkości 570 GB przy obecnej wydajności komputerów trwałoby tygodniami. A my potrzebujemy prawie natychmiastowej reakcji programu na każde zapytanie. Stąd pośrednia realizacja powyższego pomysłu: najpierw trenujemy sieć, żeby zapamiętała w swoich miliardach parametrów najistotniejsze cechy zbioru danych tekstowych, a odpowiedzi dostatecznie bliskie oryginalnym przykładom generuje sieć i robi to dostatecznie szybko”.

„Z powyższego opisu wynika, że ChatGPT nie myśli, nie wnioskuje, niczego nie rozumie i nie jest żadną sztuczną inteligencją, o ile termin ten rozumiemy zgodnie z ideami ojców dziedziny artificial intelligence jako autonomiczny program myślący na podobieństwo człowieka. Chciałoby się rzec, że GPT nic nie rozumie, bo generuje kontynuację tekstu wyłącznie na podstawie cech zewnętrznych tekstu, ponieważ ma charakter czysto syntaktyczny, bez żadnej semantyki. Ale nie jest to całkiem prawdą. W procesie uczenia deep learning zawarta jest też pewna wiedza na temat znaczeń słów, ich bliskoznaczności itp. Brak jest natomiast wiedzy na temat znaczeń zdań (i ciągów zdań), bo my, ludzie, ciągle nie wiemy, na czym polega ten fenomen, jak zdanie języka naturalnego uzyskuje znacznie (model formalno-logiczny okazał się nieadekwatny, a filozoficzne rozprawy na ten temat nie dają nam niestety takiego zrozumienia problemu, które można by wykorzystać w programowaniu)” – pisze prof. Andrzej KISIELEWICZ.

Poszczególne wątki badacz rozwija w tekście opublikowanym na łamach „Wszystko co Najważniejsze”.

PAP/Anna Lach/WszystkoCoNajważniejsze/PP

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 20 lipca 2023