Międzynarodowa konferencja ETHER w Muzeum Polin

5 listopada w Muzeum Historii Żydów Polskich POLIN rozpoczęła się Międzynarodowa konferencja ETHER. Jej tematem przewodnim jest rola sztucznej inteligencji (AI) w muzeach, archiwach, uczelniach i instytucji kultury oraz jej wpływ na to, jak badamy i rozumiemy naszą przeszłość.

Dyskusje o przyszłości cyfrowego dziedzictwa na Konferencji Ether

.”Konferencja ETHER, na której się spotykamy, to przestrzeń dialogu między specjalistami, którzy mają wspólny cel: ochrona, rozwój i popularyzacja naszego dziedzictwa kulturowego” – powiedział w trakcie otwarcia Karol Zgódka, dyrektor Departamentu Mediów i Sektorów Kreatywnych w Ministerstwa Kultury i Dziedzictwa Narodowego.

W informacji prasowej, przekazanepodano, że wydarzenie organizowane przez Narodowy Instytut Dziedzictwa stawia na innowacje i współpracę pomiędzy środowiskami akademickimi, muzealniczymi i kreatywnymi, a tegoroczna konferencja ma na celu ukazanie, jak najnowsze osiągnięcia technologiczne rewolucjonizują digitalizację i ochronę dziedzictwa. Wśród gości specjalnych, obecnych na II edycji są m.in. prof. Robert Erdmann z Uniwersytetu Amsterdamskiego, który opowie o wdrażaniu systemów opartych na AI w m.in. Musée des Arts Decoratifs w Paryżu, prof. Eric Postman z Uniwersytetu w Tilburgu oraz doradca naukowy w Art Recognition, który w czasie wybranego panelu tematycznego zaprezentuje program Art Recognition, umożliwiający autentyfikację dzieł sztuki na podstawie zdjęć.

Organizowane wydarzenie ma podkreślić, że dialog między specjalistami od technologii i dziedzictwa jest odpowiedzią na współczesne wyzwania, jakie stawia przed ludźmi świat technologii. Jest także potrzebą dyskusji między środowiskami, które na co dzień zajmują się ochroną dziedzictwa kulturowego, ale w odmienny sposób. „Technologie cyfrowe oferują nam dziś narzędzia, które nie tylko wspomagają proces digitalizacji kultury, ale także umożliwiają ich ochronę i przekazywanie przyszłym pokoleniom w sposób dotąd niedostępny” – zauważył Zgódka.

„Precyzyjna dokumentacja zabytków wykonywana przy użyciu nowoczesnych narzędzi, takich jak skanowanie laserowe, fotogrametria, modelowanie w 3D czy od niedawna sztuczna inteligencja otwierają przed nami ogromne możliwości w zakresie szerokiego upowszechniania naszego dziedzictwa kulturowego” – zaznaczył Karol Zgódka. „Niezmiernie nas jako ministerstwo cieszy, że poza tradycyjnymi panelami, debatami, dyskusjami w ramach tego wydarzenia zaplanowane są warsztaty ze skanowania i dokumentacji zabytków. Edukacja w tym zakresie rozwija późniejsze profesjonalne podejście do dokumentacji zgodnie z wypracowanymi ogólnie standardami. To z kolei nie tylko gwarantuje wysoką jakość odwzorowań, ale także pozwala na wielokierunkowe wykorzystywanie zgromadzonych zasobów, co wzbogaca działania twórcze i wspiera popularyzację dziedzictwa” – dodał.

Konferencja ETHER – Eternal Heritage / Wieczne dziedzictwo została objęta honorowym patronatem sekretarz stanu w Ministerstwie Kultury i Dziedzictwa Narodowego, Generalnej Konserwator Zabytków Bożeny Żelazowskiej, Polskiego Komitetu do spraw UNESCO oraz Narodowego Centrum Kultury. Będzie trwała przez dwa dni – 5 i 6 listopada podczas których eksperci z Polski i zza granicy będą dyskutować o przyszłości cyfrowego dziedzictwa.

Generatywna sztuczna inteligencja szturmem podbiła świat

.Sporo rozważań dotyczących generatywnych systemów AI koncentruje się na tym, w jaki sposób powielają one patologie powszechnie stosowanych już systemów sztucznej inteligencji. Część krytyków twierdzi, że systemy te centralizują władzę i bogactwo, lekceważą prawa autorskie, bazują na praktykach wyzysku pracowników i wykorzystują zbyt wiele zasobów. Inni zaś podkreślają, że jest to zapowiedź znacznie potężniejszych systemów, które mogą zagrozić przetrwaniu ludzkości. Pierwsza grupa przekonuje, że nie dzieje się nic nowego, druga spogląda na, być może, odległy horyzont.

„Chcę zwrócić uwagę na to, co wyróżnia te systemy wśród innych osiągnięć technologicznych: ich niezwykłe osiągnięcia naukowe oraz zmiany społeczne, jakie zapewne dokonają się za ich sprawą w ciągu najbliższych pięciu-dziesięciu lat” – pisze na łamach Wszystko co Najważniejsze Prof. Seth LAZAR, profesor filozofii na Australijskim Uniwersytecie Narodowym, stypendysta (Future Fellow) Australijskiej Rady ds. Badań Naukowych.

W jego ocenie warto zacząć od omówienia sposobu działania LLM-ów i możliwości ich wykorzystania do tworzenia agentów generatywnych. LLM to duży model sztucznej inteligencji trenowany na olbrzymich ilościach danych i wykorzystujący ogromne zasoby obliczeniowe (liczne procesory graficzne) w celu przewidywania kolejnego słowa w danej sekwencji (określanej jako „prompt”). Proces rozpoczyna się od podziału danych treningowych na podobnej wielkości „tokeny” (słowa lub części słów), a następnie maskowanie niektórych z nich i próba przewidzenia tokenów, które zostały zamaskowane (tzw. self-supervised learning – uczenie się nienadzorowane/samonadzorujące się). Aby utworzyć model predykcyjny dla bazowej dystrybucji tokenów, przepuszcza się go przez wiele warstw sieci neuronowej, przy czym każda warstwa udoskonala model w takim czy innym wymiarze, aby uczynić go dokładniejszym.

Takie podejście do modelowania języka naturalnego istnieje już od kilku lat. Jedną z kluczowych najnowszych innowacji jest wykorzystanie „wstępnie wytrenowanych” modeli, które skutecznie przewidują tokeny na podstawie promptów i umieją dopasować wyniki do różnych zadań. Odbywa się to za pomocą nadzorowanego („supervised”) uczenia się na etykietowanych danych. Na przykład, do wstępnie wytrenowanego modelu można wprowadzić wiele różnych pomocnych odpowiedzi na określane pytania, aby przekształcić ten model w skuteczne narzędzie dialogowe. Takie dostrajanie pozwala budować modele, które potrafią przewidywać nie tylko najbardziej prawdopodobne, ale też najbardziej pomocne tokeny, co jest o wiele bardziej przydatne.

PAP/WszystkocoNajważniejsze/MB

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 5 listopada 2024