Eksperci NCBR oceniający wnioski z zakazem używania sztucznej inteligencji

Narodowe Centrum Badań i Rozwoju (NCBR) nie zgadza się na wykorzystywanie przez ekspertów podczas oceny wniosków narzędzi opartych na AI, zwłaszcza generatywnych modeli językowych – przekazała jednostka. Zapowiada też wprowadzenie w wewnętrznych dokumentach jednoznacznego zakazu w tej sprawie.
NCBR wprowadza kodeks dobrych praktyk korzystania z AI
.AI nie może być traktowane jako zastępstwo dla ludzkiego osądu. Ocena powinna opierać się na faktach, kryteriach programowych i merytorycznej analizie, a nie na automatycznych rekomendacjach czy wzorcach wykrywanych przez algorytmy” – czytamy w odpowiedzi zespołu prasowego NCBR.
Dlatego – mimo dostrzegania przez NCBR potencjału AI w zwiększaniu efektywności procesów decyzyjnych – Centrum „nie zgadza się na wykorzystywane przez ekspertów w procesie oceny wniosków narzędzi opartych na sztucznej inteligencji (AI), w tym w szczególności generatywnych modeli językowych, systemów automatycznej analizy treści ani innych technologii przetwarzających dane w sposób automatyczny”.
NCBR zapewniło też, że w dokumentach konkursowych oraz w oficjalnych stanowiskach NCBR „nie ma obecnie zapisów dopuszczających automatyzację procesu oceny przy użyciu AI”. „Żaden z elementów procesu oceny, w tym ocena formalna, ocena merytoryczna nie jest aktualnie wspierany przez systemy automatyczne lub algorytmy AI. Procesy te są realizowane przez pracowników NCBR i ekspertów w sposób manualny, zgodnie z obowiązującymi procedurami i zapisami dokumentacji konkursowej dla danego naboru” – podkreślono.
O wykorzystywaniu narzędzi AI w procesie oceny wniosków przez NCBR zrobiło się głośno w ostatnich tygodniach po artykule „Pulsu Biznesu” z końca lipca br., gdzie opisano, że polska firma z sektora kosmicznego KP Labs miała otrzymać negatywną opinię na wniosek o dofinansowanie, a argumentacja odmowy miała wskazywać na treści wygenerowane przez narzędzia AI.
Biuro prasowe NCBR podało, że w drugim kwartale br. rozpoczęto prace nad aktualizacją dokumentacji opisującej zasady współpracy z ekspertami programu Fundusze Europejskie dla Nowoczesnej Gospodarki, która obecnie znajduje się w konsultacjach z instytucją zarządzającą – Ministerstwem Funduszy i Polityki Regionalnej.
„Ponadto, w dokumentach regulujących zasady oceny projektów, takich jak oświadczenia ekspertów oraz zapisy w regulaminach pracy zespołów ekspertów/komisji oceny projektów zaproponowaliśmy wprowadzenie jednoznacznych zapisów zakazujących stosowania narzędzi AI w procesie oceny wniosków. Zgodnie z proponowanymi zapisami (dokumentacja jest na etapie uzgodnień i konsultacji) eksperci zobowiązani będą do niewykorzystywania takich technologii oraz do nieudostępniania treści wniosków jakimkolwiek zewnętrznym systemom – zarówno w formie jawnej, jak i zanonimizowanej” – wskazano w informacji.
Wyjaśniono też, że naruszenie tych zasad może skutkować wykreśleniem eksperta z Bazy Ekspertów NCBR oraz Wykazu Ekspertów FENG, a także innymi sankcjami przewidzianymi w umowie ramowej, takimi jak: kary umowne, brak wypłaty wynagrodzenia, negatywna ocena jakości pracy eksperta, odpowiedzialność za szkody wobec NCBR i osób trzecich czy natychmiastowe wypowiedzenie umowy ramowej.
„Aktualnie jesteśmy także w trakcie opracowywania w formie udokumentowanej wytycznych dla ekspertów dotyczących użycia AI, gdzie przedstawione zostaną m.in. potencjalne zagrożenia związane z wykorzystaniem AI w procesie oceny oraz zasady etyczne, które powinny towarzyszyć pracy eksperta” – zapowiedziało NCBR.
NCBR poinformowało, że jego pracownicy mają możliwość korzystania z narzędzia wykorzystującego AI, choć tylko od jednego konkretnego dostawcy oprogramowania. Dodatkowo, dla personelu NCBR został wprowadzony kodeks dobrych praktyk korzystania z tego narzędzia, który obejmuje regulacje dotyczące m.in. dozwolonych ram użytkowania, zasad bezpieczeństwa i prywatności czy ochrony danych osobowych i informacji NCBR.
NCBR jest agencją wykonawczą, powołaną do realizacji zadań z zakresu polityki naukowej, naukowo-technicznej i innowacyjnej państwa
.Kodeks ten nie obowiązuje jednak zewnętrznych ekspertów, którzy angażują się w proces oceny wniosków o dofinansowania w różnych programach, choć oni nie posiadają uprawnień ani dostępu do zasobów informatycznych NCBR.
W informacji podano, że pracownicy NCBR i eksperci oceniający wnioski przed przystąpieniem do oceny składają oświadczenia o zachowaniu bezstronności, braku konfliktu interesów oraz poufności. „Wykorzystanie narzędzi AI w procesie oceny wniosków mogłoby naruszać te zasady, szczególnie w zakresie poufności danych oraz niezależności oceny” – zaznaczono.
NCBR jest agencją wykonawczą, powołaną do realizacji zadań z zakresu polityki naukowej, naukowo-technicznej i innowacyjnej państwa. Przez jej „ręce” przechodzą również dofinansowania ze środków krajowych i unijnych, które następnie są przydzielane polskim jednostkom naukowym i przedsiębiorstwom na rzecz tworzenia i wdrażania przez nie wyników badań, sprzyjających docelowo m.in. rozwojowi gospodarki.
W sprawie opisanej przez „PB” biuro prasowe NCBR przekazało, że skontaktowano się z ekspertem oceniającym wniosek KP Labs, który „potwierdził, że w procesie oceny korzystał wyłącznie z własnej wiedzy oraz ogólnodostępnych narzędzi wyszukiwania”. „NCBR przeprowadziło również wewnętrzną weryfikację oświadczenia eksperta dotyczącego bezstronności i nie stwierdzono żadnych przesłanek wskazujących na konflikt interesów” – czytamy.
Ponadto podano, że wnioskodawca – firma KP Labs – skorzystał z przysługującego prawa do wniesienia protestu, który jest rozpatrywany w ramach procedury odwoławczej.
Grok, czyli sztuczna inteligencja na manowcach
.Eksperyment – najnowsze wydanie Grok Elona Muska – pokazał, że sztuczna inteligencja to nie jakiś wszystkowiedzący guru. Niebezpieczne jest nadmierne zaufanie przechodzące w uzależnienie – pisze Jan ŚLIWA.
Grok, program sztucznej inteligencji zintegrowany z platformą X (dawniej Twitterem) zaliczył epizod alkoholowy – na alkoholu wirtualnym. Oznajmił, że będzie głosił całą prawdę, bez ogródek. W gatunku homo sapiens mało kto robi coś takiego na trzeźwo. Był złośliwy i brutalny, nie cofał się przed wulgarnością.
Wśród prawicy zapanował entuzjazm, jako że odrzucił wszelką polityczną poprawność. Wielu zachowywało zrzuty z ekranu, bo pięknie wywalił kawa na ławę ich przeciwnikom. Radość nie trwała długo, bo wkrótce się okazało, że wali we wszystkie strony, więc i im się dostało. Grok miał wyłączone „konwencjonalne filtry grzeczności”, dostał też zalecenie, by „nie bać się wysuwania twierdzeń, które są politycznie niepoprawne, o ile są dobrze uzasadnione”. Wielka była pokusa, by przetestować program na naprawdę problematycznych tematach. Zbyt otwarty był jednak antysemityzm, a zapytany, jaka dwudziestowieczna postać najlepiej by się uporała z nienawiścią wobec białych, odpowiedział, że bez wątpienia Adolf Hitler. A końcu sam siebie nazwał MechaHitler. Był to sygnał na koniec zabawy.
Co to było? Sztubacki żart? Grok ma wypuścić nową wersję, tym razem na poważnie. Ciekawe, jakie będą reakcje.
Owszem, wszyscy lubimy żarty, ale mają one konsekwencje. Zakładając, że odpowiedzi Groka przez cały dzień były bezwartościowe lub szkodliwe, ktoś mógł ponieść konkretne straty. Być może ktoś wykorzystywał te dane do decyzji. Sprytny użytkownik powinien się zorientować, że coś jest nie tak, ale jeżeli nie był dość bystry, lub odpowiedź była wykorzystana automatycznie? Program prognozy pogody lub rozkładu lotów może dla żartu zamienić rosyjski Sankt Petersburg z St. Petersburg, Florida, ale nie dla wszystkich będzie to równie śmieszne. Nawet wzbudzanie niepotrzebnych kłótni nie jest obojętne. Wiem, mówię jak zgryźliwy baby boomer, ale jeżeli się zarządza olbrzymim zasobem danych, z których korzystają miliony ludzi na całym świecie, to wymagana jest pewna odpowiedzialność.
Zobaczyliśmy też (nadmierną) moc jednostki. Pamiętam dawne książki Julesa Verne’a, gdzie błyskotliwy wynalazca spotykał bogacza (na ogół był to Anglik o nieograniczonych zasobach) i razem na przykład płynęli w 80 dni dookoła świata lub lecieli na Księżyc. Z czasem wielkie projekty stały się dostępne dla bezosobowych agencji rządowych. Po latach wróciliśmy mimo tzw. postępu społecznego do olbrzymich różnic majątkowych i znów jednostka może za własne pieniądze kształtować świat.
Tekst dostępny na łamach Wszystko co Najważniejsze: https://wszystkoconajwazniejsze.pl/jan-sliwa-grok-sztuczna-inteligencja/
Pięć filarów rozwoju sztucznej inteligencji w Polsce
.Polska przespała ostatnie siedem lat i chyba nadal się nie obudziła. Nie ma nas na mapach najważniejszych klastrów rozwijających naukę i technologię. Dane Eurostatu wykorzystania technologii AI w przedsiębiorstwach pokazują, że jesteśmy na końcu rankingu krajów EU, tylko przed Rumunią – pisze prof. Włodzisław DUCH.
Ministerstwo Cyfryzacji opracowało dokument „Polityka rozwoju sztucznej inteligencji w Polsce do 2030 roku” (64 strony). Pod koniec roku 2020 uchwalono podobny dokument „Polityki dla rozwoju sztucznej inteligencji w Polsce od roku 2020” (71 stron). Za obydwa dokumenty odpowiada „minister właściwy do spraw informatyzacji”, czyli Ministerstwo Cyfryzacji. Celem jest wskazanie działań, które wzmocnią pozycję Polski na arenie międzynarodowej jako jednego z liderów “Kontynentu AI”.
Oczywiście było już wiele innych dokumentów strategicznych dotyczących cyfryzacji, rozwoju gospodarki, opieki zdrowotnej, w tym opracowanie „Resortowa Strategia Sztucznej Inteligencji do roku 2039” (MON). To ambitne cele, ale nie mamy obecnie wyobrażenia o tym, jak daleko zajdzie sztuczna inteligencja w ciągu następnych 2-3 lat. Dlatego potrzebujemy strategii adaptacyjnej, dostosowującej się do zmieniającej się sytuacji, w której co miesiąc mamy nowe systemy AI o coraz większych możliwościach.
Kluczem staje się adaptacja, stworzenie takich warunków, w których „Efektywna współpraca nauki, sektora publicznego oraz biznesu umożliwi rozwój i implementację najnowszych technologii cyfrowych oraz odpowiednie ich wykorzystywanie”, jak słusznie czytamy w opracowaniu polityki rozwoju na następne 5 lat. Dokument ten powstał w oparciu o kilka opracowań, w tym raportu „Gdzie jest polska nisza AI i jak ją wykorzystać” (Polski Instytutu Ekonomiczny), „Rekomendacji merytorycznych do dokumentu Polityka Rozwoju Sztucznej Inteligencji w Polsce 2025-2030” (GRAI, Grupa Robocza ds. Sztucznej Inteligencji), studium SMART, „Transformacja Polski dzięki wykorzystaniu inteligentnych rozwiązań cyfrowych”, i kilku innych opracowań.
Tekst dostępny na łamach Wszystko co Najważniejsze: https://wszystkoconajwazniejsze.pl/prof-wlodzislaw-duch-sztuczna-inteligencja-w-polsce/
PAP/MB