Twarze ludzi stworzone przez sztuczną inteligencje „bardziej prawdziwe" niż rzeczywiste

Twarze ludzi stworzone przez sztuczną inteligencję, białe twarze wydają się ludziom bardziej realne niż twarze prawdziwych osób - wykazało badanie naukowców z Australijskiego Uniwersytetu Narodowego. Nie dotyczy to jednak wizerunków osób o innych kolorach skóry.

Twarze ludzi stworzone przez sztuczną inteligencję, białe twarze wydają się ludziom bardziej realne niż twarze prawdziwych osób – wykazało badanie naukowców z Australijskiego Uniwersytetu Narodowego. Nie dotyczy to jednak wizerunków osób o innych kolorach skóry.

Twarze ludzi stworzone przez sztuczną inteligencję

.Na łamach „Psychological Science” opisali oni zaskakujące wyniki swojego najnowszego eksperymentu: twarze generowane przez najnowsze modele sztucznej inteligencji wydają się oglądającym je osobom bardziej realistyczne niż twarze prawdziwych ludzi. Efekt ten dotyczy jednak wyłącznie twarzy białych, a przyczyną rozbieżności jest to, że algorytmy AI szkolone są w przeważającej większości właśnie na obrazach osób białych.

To duży problem i zagadnienie, nad którym należy się pochylić, ponieważ taka przewaga jednej grupy społecznej w uczeniu sztucznej inteligencji „może mieć poważne konsekwencje dla osób kolorowych, ostatecznie wzmacniając uprzedzenia rasowe w internecie” – uważa dr Amy Dawel, główna autorka artykułu.

„Ten problem jest już zauważalny w obecnych modelach sztucznej inteligencji, które są wykorzystywane do tworzenia profesjonalnie wyglądających zdjęć głowy. W przypadku osób kolorowych sztuczna inteligencja uparcie zmienia ich kolor skóry i oczu na barwy charakterystyczne dla ludzi białych” – wyjaśnia naukowczyni.

Twarze ludzi stworzone przez sztuczną inteligencję i zjawisko hiperrealizmu

.Poza tą kwestią badanie zespołu dr Dawel dotyka też innego ważnego zagadnienia: „hiperrealizm” sztucznej inteligencji sprawia, że ludzie często nie zdają sobie sprawy, że są oszukiwani. 

„Co ciekawe, osoby, które uznały, że twarze stworzone przez sztuczną inteligencję są prawdziwe, najczęściej – paradoksalnie – miały największą ze wszystkich uczestników pewność, że ich ocena jest prawidłowa – opowiada współautorka publikacji Elizabeth Miller. – Oznacza to, że dajemy się łatwo oszukiwać, ale wcale nie dopuszczamy do siebie myśli, że jesteśmy oszukiwani”.

Dalsza analiza pozwoliła badaczkom odkryć, dlaczego twarze wygenerowane przez AI tak łatwo mogą nas zmylić. „Nadal istnieją istotne fizyczne różnice między obrazami sztucznej inteligencji a prawdziwymi ludzkimi twarzami, ale ludzie mają tendencję do błędnego ich interpretowania. Na przykład wygenerowane białe twarze są zwykle bardziej proporcjonalne niż te realne, co większość z nas błędnie odczytuje za oznakę człowieczeństwa” – mówi dr Dawel.

„Zresztą w dłuższej perspektywie i tak nie moglibyśmy opierać się na tych różnicach, gdyż technologia sztucznej inteligencji rozwija się tak szybko, że one prawdopodobnie wkrótce znikną” – zaznacza.

Dezinformacja, kradzież tożsamości

.Badaczka argumentuje, że wszystko to może mieć poważne konsekwencje dla rozprzestrzeniania się dezinformacji i kradzieży tożsamości, w związku z czym należy już teraz podjąć odpowiednie działania.

„Technologii sztucznej inteligencji nie można zatajać; nie może być tak, że tylko firmy technologiczne wiedzą, jak dokładnie ona działa i powstaje. AI musi być bardziej przejrzysta, żeby badacze i społeczeństwo mogli zidentyfikować problematyczne kwestie, zanim staną się poważnym kłopotem” – twierdzi dr Dawel.

Jej zdaniem podnoszenie świadomości społecznej może odegrać znaczącą rolę w ograniczaniu zagrożeń stwarzanych przez AI. „Biorąc pod uwagę, że już teraz ludzie nie są w stanie wykryć, które twarze są prawdziwe, a które nie, społeczeństwo potrzebuje narzędzi, które umożliwią bezbłędne identyfikowanie oszustów korzystających z tego typu technologii” – podkreśla autorka artykułu. Dodaje, że kluczową rolę powinno odgrywać edukowania społeczeństwa w kwestii zachowania odpowiedniego sceptycyzmu wobec obrazów, które oglądają w internecie.

Chat GPT a kradzież wartości intelektualnych

.Programy takie jak ChatGPT to kolejne bezlitosne przejawy korupcji późnego kapitalizmu, w którym autorstwo nie ma żadnej wartości. Liczy się tylko treść – pisze Jim McDERMOTT na łamach „Wszystko co Najważniejsze”.

W ciągu ostatniego roku byliśmy świadkami erupcji mnóstwa materiałów wyprodukowanych przez tak zwaną sztuczną inteligencję. Najpierw były to niesamowite dzieła sztuki, a następnie wszelkiego rodzaju dokumenty tekstowe, od homilii po eseje akademickie. Jedną z kwestii podnoszonych w tym czasie jest sprzeciw wobec korzystania przez studia i sieci telewizyjne z programów takich jak ChatGPT w celu tworzenia konspektów lub całych scenariuszy, poddawanych już potem tylko obróbce przez scenarzystów. W pewnym sensie ChatGPT inne podobne programy są najwyższą formą oddzielania twórców od owoców ich pracy.

Programy te zostały nazwane „sztuczną inteligencją”. Na pierwszy rzut oka wydaje się, że tym właśnie są, ponieważ w kilka sekund generują kompletne i pozornie oryginalne dzieła. Mogą również komunikować się z człowiekiem w sposób przypominający prawdziwą rozmowę.

W rzeczywistości jednak, przynajmniej na razie, programy te nie mają świadomości – są jedynie bardzo złożoną formą predykcyjnych botów tekstowych, takich jak te używane choćby w Gmailu czy dokumentach Google. Na przykład ChatGPT-3 został „przeszkolony” przez 500 miliardów „tokenów” i z nich czerpie informacje. Tokeny to słowa lub frazy pochodzące z książek, artykułów i zasobów internetu, za pomocą których program odpowiada na wprowadzone komunikaty (określa się to też mianem uczenia maszynowego według „dużego modelu językowego”).

Podczas gdy oprogramowanie Dokumentów Google potrafi dokończyć frazę po wpisaniu przez użytkownika pierwszego słowa, ChatGPT ma do dyspozycji taką ilość danych, że może zasugerować cały akapit lub esej. Co więcej, na podstawie wprowadzanych przez nas danych i otrzymywanych odpowiedzi program wciąż się rozwija i uczy.

Nazywając te programy „sztuczną inteligencją”, przyznajemy jej status autora, a to jest po prostu nieprawda. Każdy z tokenów używanych przez programy takie jak ChatGPT – czyli „język” w „dużym modelu językowym” – to maleńki fragment materiału stworzonego przez kogoś innego. Twórcy tych materiałów nie są jednak oznaczani, nie otrzymują wynagrodzenia z tytułu użycia ich dzieł ani nie udzielają zgody na ich wykorzystanie. W pewnym sensie uczące się maszynowo boty są najbardziej zaawansowaną formą działalności w stylu dziupli samochodowych – kradną materiały od twórców (wykorzystują je bez pozwolenia), tną je na części tak małe, że nikt nie może ich namierzyć, a następnie zmieniają ich przeznaczenie, tworząc nowe produkty.

PAP/ Katarzyna Czechowicz/ Wszystko co Najważniejsze/ LW

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 15 listopada 2023