Sora 2, czyli jak sztuczna inteligencja wprowadza nas w błąd

Sora 2 oszukuje ludzi. Tak, tej aplikacji udało się oszukać ludzi, gdyż jej realistyczne filmy nie różnią się od prawdziwych nagrań.
.We wrześniu 2025 r. firma OpenAI zaprezentowała aplikację Sora 2, która zamienia polecenia słowne w hiperrealistyczne 10-sekundowe filmy, łącząc surrealistyczne scenariusze z realistycznym dźwiękiem i dialogami. Aplikacja osiągnęła ponad milion pobrań w niecały tydzień jedynie w Stanach Zjednoczonych. Zajęła wtedy pierwsze miejsce w rankingach App Store i wyprzedziła debiutancki wzrost popularności ChataGPT.
W świecie, w którym generowanie filmów przez sztuczną inteligencję przeżywa gwałtowny rozwój, aplikacja pojawia się w czasie bardzo gorących debat na temat deepfake’ów i autentyczności. Eksperci ostrzegają wręcz przed „mgłą wątpliwości” nad wszystkimi mediami (nie tylko video). I nie są to ostrzeżenia bezpodstawne: od momentu wprowadzenia na rynek aplikacji, liczba rejestracji w narzędziach do wykrywania fałszywych treści wzrosła trzydziestokrotnie.
W swej istocie Sora 2 demokratyzuje tworzenie filmów. Użytkownicy skanują swoją twarz i głos, odczytując trzy cyfry na ekranie, a następnie wpisują podpowiedzi, takie jak „Queen Elizabeth pub-diving”, aby stworzyć klipy z zsynchronizowanymi dźwiękami i zamienionymi twarzami za pomocą „Cameos”. Wyniki są oznaczane znakami wodnymi, ale istnieje wiele narzędzi innych firm do ich usuwania, co ułatwia udostępnianie na platformach społecznościowych.
Chociaż 10-sekundowy limit czasowy nagrania ogranicza jego złożoność, realizm już dziś oszukuje widzów. W Polsce niedawno mieliśmy wysyp filmów z dzikami wpadającymi przez okna do domów mieszkań w bardzo realistyczny sposób i dopiero po dłuższym zastanowieniu można było zrozumieć, że jest to materiał stworzony przez sztuczną inteligencję.
Hollywoodzkie związki zawodowe, takie jak SAG-AFTRA, potępiają twórców aplikacji, obawiając się redukcji miejsc pracy. Zwolennicy aplikacji uważają zaś, że „interaktywne fan fiction” wspiera niezależnych twórców, którzy będą mogli zaprezentować swoje ciekawe materiały, a wkrótce być może całe filmy, bez wielkich budżetów produkcyjnych, studiów i hal zdjęciowych.
Istotną kwestią, którą warto w tej dyskusji podnieść, jest oczywiście kwestia ryzyka globalnej dezinformacji. Sfabrykowane treści mogą wpływać choćby na wybory polityczne osób o niższym wykształceniu.
.Sora 2 udowadnia, że filmy oparte na sztucznej inteligencji mogą pobudzać kreatywność, ale kosztem autentyczności treści, czyli mówiąc wprost: jakości materiałów w internecie. Jeżeli bowiem treści, które tworzymy, mogą zostać upublicznione i wprowadzać ludzi w błąd, ponieważ są tak dobrze wykonane – to przynajmniej w mojej głowie zapala się czerwona lampka, czy powinniśmy mieć do tego typu narzędzi dostęp. Jeżeli te filmiki byłyby jedynie traktowane jako hobby i umilanie sobie czasu bez możliwości opuszczenia ich poza platformę, byłoby to jakimś kompromisem. Choć oczywiście, jak zwykle, zadecyduje kwestia monetyzacji proponowanych rozwiązań.
Oprac: SŚ





