Głos lektora wykorzystany przez AI. Pierwszy taki proces w Polsce

W Sądzie Okręgowym w Warszawie odbędzie się pierwsza rozprawa w precedensowym procesie, który dotyczy bezprawnie wykorzystanie głosu, a dokładniej głos lektora przy użyciu sztucznej inteligencji. Pełnomocnik lektora podkreśla, że to, iż nie ma aktu prawnego dotyczącego bezpośrednio AI, nie oznacza, że jest to sfera nieuregulowana.
Głos lektora wykorzystany przez sztuczną inteligencję
.Sprawa będzie precedensowa, ponieważ co prawda oczywiście już sprawy dotyczące naruszenia dobra osobistego, jakim jest wizerunek czy głos, były rozstrzygane, natomiast pierwszy raz mamy do czynienia ze sprawą, w której głos został stworzony i przekształcony przez AI (deepfake) i do tego wykorzystany komercyjnie – powiedziała pełnomocnik lektora Jarosława Łukomskiego mec. Wiktoria Stasiewicz. Mecenas zaznaczyła, że obecnie w przestrzeni publicznej coraz częściej mówi się o deepfake’ach i ryzykach związanych z powszechnym wykorzystywaniem sztucznej inteligencji, jednak sprawy dotyczące dokonanych przez AI naruszeń rzadko trafiają do sądu.
– Wierzymy, że to rozstrzygnięcie może mieć wpływ na kierunek orzecznictwa w przyszłości, jako że na ten moment zasoby wiedzy są dosyć ograniczone, bo takich procesów sądowych po prostu nie było – dodała.
Mecenas Tomasz Ejtminowicz, który również reprezentuje lektora, powiedział, że stanowisko firmy, w reklamie której pojawił się głos Jarosława Łukomskiego, opiera się na stwierdzeniu, że sztuczna inteligencja nie jest w polskim prawie uregulowana. W związku z tym w ocenie strony przeciwnej proces pozbawiony jest podstaw. Ale – podkreślił mec. Ejtminowicz – dla pełnomocników lektora takie twierdzenie jest absurdalne.
– Nie ma czegoś takiego jak brak uregulowania jakiegoś wycinka rzeczywistości – powiedział. – Zawsze, nawet jeżeli nie ma szczególnego aktu przypisanego bezpośrednio do sztucznej inteligencji, ochronę prawną można wyprowadzać z norm wyższego rzędu – na przykład z Kodeksu cywilnego, Kodeksu karnego, Prawa autorskiego czy z przepisów o zwalczaniu nieuczciwej konkurencji – podkreślił Ejtminowicz. Dodał, że nie każdy element życia musi być „ometkowany” własną ustawą. Jarosław Łukomski powiedział, że o tym, iż jego głos pojawił się w internetowej reklamie szamb, w nagraniu której nie brał udziału, dowiedział się od znajomego.
– Otworzyłem link i ku swojemu zdumieniu odkryłem, że rzeczywiście to brzmi jak ja, ale to nie są słowa, które kiedykolwiek wypowiedziałem, ani nie przypomina mi to zlecenia, jakie bym kiedyś od kogokolwiek otrzymał – mówił.
Łukomski zaznaczył, że wraz z grupą innych lektorów około dwa lata temu podpisał z prowadzącą internetowy bank głosów firmą Mikrofonika, z którą współpracuje, umowę dotyczącą próby stworzenia cyfrowego modelu jego głosu. – Wiedzieliśmy, że takie zjawisko kiedyś wystąpi i jeżeli wystąpi, to należy być pierwszym (…) i mieć kontrolę nad tym, w jaki sposób mój głos (…) może zostać w przyszłości użyty, przez kogo i na jakich zasadach – dodał. Zaznaczył jednak, że prace nad tym projektem zostały przerwane.
– W międzyczasie ktoś, nie przejmując się specjalnie jakością (…), nie zapytawszy mnie, czy chciałbym wziąć udział w zleceniu, (…), nie zapytawszy nikogo o to, czy może istnieje gdzieś umowa na wyłączność na mój głos w wersji cyfrowej, po prostu stworzył cyfrowy model mojego głosu i użył go w celach komercyjnych – powiedział Łukomski.
Zapowiedział, że w sądzie będzie domagać się od pozwanej firmy zapłaty kwoty, którą uzyskałby, pracując nad reklamą, w której wykorzystany został stworzony przez AI model jego głosu, oraz finansowego zadośćuczynienia z tytułu naruszenia jego dóbr osobistych.
Pierwsza rozprawa w procesie o wykorzystanie cyfrowego modelu głosu Jarosława Łukomskiego przez sztuczną inteligencję odbędzie się w piątek, 23 stycznia, w Wydziale Własności Intelektualnej warszawskiego Sądu Okręgowego.
Pełnomocnicy lektora zaznaczyli, że zasadniczym naruszeniem, na jakie będą zwracać uwagę w trakcie procesu, jest naruszenie prawa do głosu. Mecenas Stasiewicz wyjaśniła, że w doktrynie można spotkać się z dwoma poglądami dotyczącymi traktowania głosu jako dobra osobistego. Według pierwszego z nich głos podlega ochronie jako element wizerunku człowieka i jest on wtedy traktowany jako tzw. dźwięczny wizerunek. Dodała, że niekiedy głos bywa także traktowany jako odrębne dobro osobiste. – Natomiast wnioski ostatecznie są takie same: zarówno głos, jak i wizerunek podlegają ochronie na analogicznych zasadach – podkreśliła. Z pojęciem „dźwięcznego wizerunku” spotkać się można choćby w orzeczeniu Sądu Najwyższego z 3 października 2007 r. SN stwierdził wtedy, że głos „powinien być chroniony w ramach prawa do wizerunku, stanowi bowiem jego element nie jako obraz fizyczny (wizualny) danej osoby, lecz jako jej obraz odbierany za pomocą słuchu”. W wyroku podkreślono jednak, że prawo osobiste do ludzkiego głosu należy traktować jako „dźwięczny wizerunek” „pod warunkiem, że jest rozpoznawalny dla osób trzecich”, czyli – jak wyjaśniono – jest on na tyle charakterystyczny, że pozwala na rozpoznanie i wskazanie osoby, od której pochodzi.
W wyroku z 7 marca 2023 r. SN stwierdził z kolei, że „głos, podobnie jak np. wizerunek, jest dobrem obejmującym określony element tożsamości fizycznej człowieka i jednocześnie zindywidualizowanym z uwagi na niemal niepowtarzalną barwę i skalę”. W orzeczeniu wskazano także, że istnienie odrębnego dobra osobistego, jakim jest głos, a także konieczność jego ochrony nie stoją w sprzeczności z faktem, że nie został on wymieniony w katalogu dóbr osobistych znajdującym się w art. 23 Kodeksu cywilnego. Przepis ten zawiera bowiem jedynie zbiór przykładowych dóbr osobistych i nie stanowi katalogu zamkniętego.
W orzeczeniu SN z 2023 r. zaznaczono także, że „typowym przykładem ingerencji” w głos jako samodzielne dobro osobiste jest „jego przekształcenie za pomocą narzędzi cyfrowych w taki sposób, iż barwa dźwięku pozwala odbiorcy na identyfikację głosu innej osoby, zaś z wykorzystaniem tak utrwalonego dźwięku dochodzi do fałszywego przypisania tej osobie wypowiadania przez nią określonych treści – zjawisko tzw. deep fake”.
Nieunikniona rewolucja AI
.Na temat tego jakie szanse i zagrożenia niesie coraz bardziej postępujący rozwój sztucznej inteligencji, na łamach „Wszystko Co Najważniejsze” pisze David LISNARD w tekście „ChatGPT. Problem jest w innym miejscu”.
„Radykalna innowacja z natury niesie ze sobą wielkie ryzyko, proporcjonalne do możliwości, jakie stwarza. U zarania pojawienia się sztucznej inteligencji uczelnia Sciences Po – podobnie jak uczelnie w Nowym Jorku – zabroniła korzystania z niej. Jeśli w świetle ogromu czekających nas wstrząsów obawy są uzasadnione, rozwiązań nie znajdziemy w odrzuceniu, przejawiającym się w skrajnym przypadku ideą spowolnienia gospodarczego, które nie oferuje żadnej wiarygodnej alternatywy i proponuje świat bez innowacji, naznaczony strachem i wycofaniem, społeczeństwo, w którym każdy powinien zredukować swój byt: mniej podróżować, mniej pracować, mniej działać, mniej tworzyć. Mniej żyć”.
„To śmiercionośny projekt polityczny. Musimy pozostać wierni naszym zasadom, które jako jedyne mogą kierować naszymi wyborami w burzliwych czasach: wolność jako nadrzędna wartość, odpowiedzialność jako nieuchronne następstwo wolności, kultura i krytyczne myślenie jako źródła indywidualnej emancypacji i zbiorowej więzi, godność ludzka jako ostateczny i ontologiczny cel”.
„Innowacyjność jest nierozerwalnie związana z życiem, z ludzkością, a teraz z jej przetrwaniem w obliczu wyzwania ekologicznego. Sprzeciw wobec rewolucji AI byłby daremny. Możemy aspirować do rozwijania nauki i świadomości. Taka jest rola polityki. W kwestii sztucznej inteligencji tą świadomością jest wiedza o pochodzeniu treści, o przejrzystości informacji dotyczących narzędzia i jego ograniczeń” – pisze David LISNARD.
LINK DO TEKSTU: https://wszystkoconajwazniejsze.pl/david-lisnard-chatgpt-we-francji/
PAP/ Ewa Fiutka/ LW







