AI w dziennikarstwie - jak to wytłumaczyć?

ai w mediach

Rosnąca rola sztucznej inteligencji w dziennikarstwie niesie ze sobą wiele wyzwań dot. transparentności i komunikowania o sposobach użycia AI w mediach. Center for News, Technology and Innovation (CNTI) zorganizowało spotkanie w Brukseli, podczas którego eksperci rozmawiali o potencjalnych metodach informowania o korzystaniu z narzędzi sztucznej inteligencji przez redakcje.

Czy, kiedy i jak komunikować o korzystaniu z narzędzi AI w mediach

.W miarę jak dziennikarze coraz częściej wykorzystują narzędzia sztucznej inteligencji w swoich raportach, operacjach i dystrybucjach, kluczowe staje się również komunikowanie odbiorcom o tego typu rozwiązaniach i ich transparentność. Aby rozwiązać problem, kiedy i w jaki sposób informować opinię publiczną o wykorzystaniu AI w mediach, Center for News, Technology and Innovation zorganizowało wspólnie z Fundacją Thomsona spotkanie w Brukseli. Wzięli w nim udział dziennikarze, obecni i byli członkowie europejskich rządów, badacze, technolodzy, eksperci z organizacji społeczeństwa obywatelskiego oraz filantropi. Podczas dyskusji omówiono mi.in. ramy zastosowania AI w redakcjach, umiejętności techniczne dziennikarzy i sposoby wykorzystania narzędzi sztucznej inteligencji w innych branżach.

CNTI opublikowało szczegółowy raport podsumowujący spostrzeżenia uczestników spotkania w Brukseli. Raport omawia kluczowe wnioski z dyskusji oraz proponowane kolejne kroki w tej ważnej sprawie.

Sztuczna inteligencja ma potencjał, aby usprawnić przemysł medialny, ale komunikacja na jej temat musi być prowadzona w sposób, który buduje zaufanie publiczne – mówi Amy Mitchell, dyrektor wykonawcza CNTI. – Grupa liderów z różnych branż i zakątków świata wspólnie pracowała nad wskazaniem sposobów wyposażenia dziennikarzy w techniczne umiejętności i wiedzę, wyciągnięciem wniosków z wcześniejszych sukcesów i porażek w oznaczaniu treści dla odbiorców, czerpaniem z dotychczasowych badań oraz określeniem obszarów, w których musimy działać więcej – wszystko to z myślą o skutecznym dziennikarstwie, które służy społeczeństwu dzisiaj i w przyszłości.

Jesteśmy zachwyceni jakością spostrzeżeń i rozmów podczas tej współpracy CNTI/Thomson Talks na trudny temat ujawniania zastosowań AI odbiorcom – dodała Caro Kriel, dyrektor generalna Fundacji Thomsona. – Ekspertyza zgromadzona w jednym miejscu była ogromna, a debata niezwykle intensywna, co zaowocowało wartościowymi wnioskami zawartymi w raporcie CNTI. Liczymy na dalsze współprace, które będą rozwijać debatę na temat AI i mediów.

Kluczowe wnioski z raportu CNTI

  1. Zanim określone zostaną metody komunikacji, należy najpierw ustalić kategorie typów zastosowań AI.
  2. Skuteczna metoda komunikacji zależy od tego, czy dziennikarz są odpowiednio przygotowani i pewni w korzystaniu z technologii.
  3. O wykorzystaniu AI i oznaczaniu treści wiele można się nauczyć od innych branż.
  4. Sposób, w jaki dziennikarze relacjonują narzędzia AI – i technologię w ogóle – wpływa na postrzeganie i zrozumienie tych zagadnień przez społeczeństwo.
  5. Dotychczasowe badania wykazują, że społeczeństwo ma potrzebę transparentności mediów, jednak brak jest jasności, jak powinna ona wyglądać.
  6. Duże znaczenie mają szczegóły projektu (wizualizacja, dobór kolorów, i słów).
  7. Ogólnie rzecz biorąc, jest to czas głębokich zmian społecznych, nie tylko w dziennikarstwie.

Sztuczna inteligencja jest w nas

.”Słuszne jest oczywiście domaganie się, by na korzystanie z metod AI nałożyć ograniczenia, które zapobiegną ich niekontrolowanemu działaniu w najróżniejszych obszarach aktywności społecznej, gospodarczej czy obronnej. Nie można np. dopuścić do przejęcia przez AI zarządzania przedsiębiorstwami, siecią energetyczną, teatrem działań wojennych. Wypracowaniem odpowiednich mechanizmów kontroli systemów AI zajmują się organizacje rządowe, międzypaństwowe oraz społeczne. Nie będziemy tu opisywać tych inicjatyw. Ich powodzenie nie jest pewne, jako że różne państwa i inne ośrodki mające wpływ na sprawy świata mają różne interesy, mogą takie inicjatywy torpedować albo gwałcić przyjęte ustalenia. Era świata dwubiegunowego dobiegła końca, rodzi się nowy ład geopolityczny, a to z pewnością będzie utrudniać przyjęcie i respektowanie jakichkolwiek potrzebnych regulacji czy to w sferze gospodarczej, czy militarnej.

Nie zajmiemy się również wieloma innymi problemami, jakie rodzi rozwój metod AI, np. tym, jak rozwój ten wpłynie na rynek pracy – czy to w krajach rozwiniętych, czy dopiero się rozwijających, czy zacofanych. Przyjrzymy się jedynie, znowu nie po raz pierwszy, obawom związanym ze zmianami w świecie kultury” pisze prof. Jacek KORONACKI, dr hab. nauk matematycznych, były długoletni dyrektor Instytutu Podstaw Informatyki PAN.

Cały tekst dostępny na łamach „Wszystko co Najważniejsze” pod linkiem: Prof. Jacek KORONACKI: Sztuczna inteligencja jest w nas.

Oprac. RB

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 26 stycznia 2025