
Pięć filarów rozwoju sztucznej inteligencji w Polsce
Polska przespała ostatnie siedem lat i chyba nadal się nie obudziła. Nie ma nas na mapach najważniejszych klastrów rozwijających naukę i technologię. Dane Eurostatu wykorzystania technologii AI w przedsiębiorstwach pokazują, że jesteśmy na końcu rankingu krajów EU, tylko przed Rumunią – pisze prof. Włodzisław DUCH
.Ministerstwo Cyfryzacji opracowało dokument „Polityka rozwoju sztucznej inteligencji w Polsce do 2030 roku” (64 strony). Pod koniec roku 2020 uchwalono podobny dokument „Polityki dla rozwoju sztucznej inteligencji w Polsce od roku 2020” (71 stron). Za obydwa dokumenty odpowiada „minister właściwy do spraw informatyzacji”, czyli Ministerstwo Cyfryzacji. Celem jest wskazanie działań, które wzmocnią pozycję Polski na arenie międzynarodowej jako jednego z liderów “Kontynentu AI”.
Oczywiście było już wiele innych dokumentów strategicznych dotyczących cyfryzacji, rozwoju gospodarki, opieki zdrowotnej, w tym opracowanie „Resortowa Strategia Sztucznej Inteligencji do roku 2039” (MON). To ambitne cele, ale nie mamy obecnie wyobrażenia o tym, jak daleko zajdzie sztuczna inteligencja w ciągu następnych 2-3 lat. Dlatego potrzebujemy strategii adaptacyjnej, dostosowującej się do zmieniającej się sytuacji, w której co miesiąc mamy nowe systemy AI o coraz większych możliwościach.
Kluczem staje się adaptacja, stworzenie takich warunków, w których „Efektywna współpraca nauki, sektora publicznego oraz biznesu umożliwi rozwój i implementację najnowszych technologii cyfrowych oraz odpowiednie ich wykorzystywanie”, jak słusznie czytamy w opracowaniu polityki rozwoju na następne 5 lat. Dokument ten powstał w oparciu o kilka opracowań, w tym raportu „Gdzie jest polska nisza AI i jak ją wykorzystać” (Polski Instytutu Ekonomiczny), „Rekomendacji merytorycznych do dokumentu Polityka Rozwoju Sztucznej Inteligencji w Polsce 2025-2030” (GRAI, Grupa Robocza ds. Sztucznej Inteligencji), studium SMART, „Transformacja Polski dzięki wykorzystaniu inteligentnych rozwiązań cyfrowych”, i kilku innych opracowań.
Wiedząc, jak złożonym zagadnieniem jest cyfryzacja, a w szczególności jak szybko rozwija się sztuczna inteligencja, warto się zastanowić nad propozycją konkretnych działań. W 2008 roku Unia Europejska powołała Europejski Instytut Innowacji i Technologii (EIT), z siedzibą w Budapeszcie, którego zadaniem jest integracja badań naukowych, biznesu i sektora publicznego. To model znany jako “trójkąt wiedzy”, KIC, Knowledge and Innovation Communities. Powstało osiem takich wspólnot wiedzy, zajmujących się wielkimi wyzwaniami: klimatem, energią, materiałami, zdrowiem, żywnością, transportem, produkcją przemysłową i cyfryzacją. Polska bierze w nich udział, ale próżno szukać wzmianki o takich działaniach w dokumentach na temat polityki rozwoju AI. Wspomniano tylko, że „Efektywna współpraca nauki, sektora publicznego oraz biznesu umożliwi rozwój i implementację najnowszych technologii cyfrowych oraz odpowiednie ich wykorzystywanie.”
Po zmianie rządu – wszystko od początku
.W 2015 roku zostawiłem nowej ekipie MNiSW 13 stron uwag na temat najważniejszych spraw dotyczących nauki, innowacji, współpracy międzynarodowej i informatyzacji. Niestety troska o rozwój naszego kraju nie jest zwykle priorytetem dla odchodzącej władzy, która stara się utrudnić nowej ekipie realizację toczących się działań. Nic dziwnego, że autorzy kolejnych strategii o działaniach toczących się od kilkunastu lat nie wspominają. W rozwój wspólnot wiedzy zainwestowano spore środki, zarówno z programów EIT jak i krajowych, warto więc zrobić przegląd wyników i wykorzystać je w obecnej polityce rozwoju.
Obecne propozycje są nakierowane przede wszystkim na wdrażanie istniejących systemów AI w firmach. Jednak szerokie zastosowania AI w konkretnych obszarach będą wymagać dalszego rozwoju, a nie tylko implementacji znanych algorytmów. Bez tego znowu zajmiemy się zakupem licencji od dużych firm i budową traktorów w systemie miar imperialnych.
Bez zabawy Faradaya z cewkami i magnesami nie mielibyśmy dzisiaj prądu. Bez teorii Heisenberga i Schrödingera nie byłoby mechaniki kwantowej, na której oparta jest cała technologia półprzewodników. Bez matematyki nie byłoby podatków (no, może tym byśmy się nie martwili). Nie powinniśmy zapominać o naukach podstawowych, tworzących fundamenty dla nowych technologii. Rozwój sztucznej inteligencji to przede wszystkim nowe algorytmy, które umożliwiły analizę obrazów i innych sygnałów (sieci konwolucyjne), zrozumienie i generację tekstów (GPT, generatywne transformery), tworzenie obrazów i muzyki (modele dyfuzyjne), głębokie rozumowanie (grafy wiedzy). Obecne postępy tylko w niewielkiej części związane są z nowym sprzętem i budową centrów danych, w większym stopniu to coraz lepsze algorytmy. Warto inwestować w informatykę, nie tylko w technologie obliczeniowe.
Miejsce Polski na światowej mapie rozwoju sztucznej inteligencji
.Wdrażanie technologii, która dobrze wypada w testach, ale nie jest jeszcze dojrzała do rzeczywistych zastosowań, np. takich systemów jak ChatGPT, które wiedzą wszystko o wszystkim, często kończy się rozczarowaniem. W lipcu 2025 roku po raz pierwszy Grok 4 poradził sobie w rzeczywistym świecie z zarządzaniem automatem sprzedającym różne rzeczy (automatem vendingowym). Długoterminowy scenariusz biznesowy wymaga śledzenia zapasów, składania zamówień, ustalania cen, przelewania opłat, spójności decyzji w długim okresie. Dotychczas dość szybko systemy AI w takich zastosowaniach zaczynały robić błędy. Zarządzanie nawet takim małym biznesem wymaga szerokiej wiedzy i zrozumienia sytuacji. Za miesiąc wszystkie duże systemy sobie z tym poradzą, a za dwa miesiące małe wyspecjalizowane lokalne systemy będą działały równie dobrze. Za rok wszyscy właściciele takich automatów pozostawią zarządzanie systemom AI. Kto się zbytnio pospieszył będzie miał kłopoty. To, że chwilowo nie wszystko działa dobrze nie oznacza, że za rok tak będzie.
Teraz każdy czuje się specjalistą od AI. Wiele osób uważa, że duże modele językowe to tylko statystyka, taki rozbudowany kalkulator. Równie dobrze można twierdzić, że mózg to kalkulator zliczający impulsy neuronów. Niestety eksperci od mózgu niewiele wiedzą o sztucznej inteligencji a eksperci od AI o mózgu.
Demis Hassabis, zanim w 2010 roku założył DeepMind, zrobił doktorat z kognitywnych neuronauk, jest autorem kilku szeroko znanych publikacji w tej dziedzinie. Polska Wikipedia nawet o tym nie wspomina. Badania nad mózgiem są nadal inspiracją dla rozwoju sztucznej inteligencji. Nie słuchajmy ludzi, którzy nie mają pojęcia o tym, jak działa telefon, potrafią tylko naciskać guziki. Elektronika i biologia to dwa różne światy, ale na poziomie funkcjonalnym procesy zachodzące w mózgach i w sztucznych sieciach neuronowych wykazują bardzo wiele podobieństw. Sieci neuronowe uczą się i kojarzą, ale nie można ich sprowadzić do programu, wykonywania kolejnych instrukcji. Sztuczne sieci potrafimy tworzyć, napełnić wiedzą z tekstów, obrazów i wideo, ale nie możemy dokładnie przewidzieć ich odpowiedzi. Następne dwa lata będą okresem jeszcze szybszego postępu, nadchodzi nowa fala algorytmów zdolnych nie tylko do kojarzenia, ale i głębokiego rozumowania w sposób podobny do nieświadomych procesów zachodzących w mózgu. Programowanie nie zastąpi nauki w odkrywaniu algorytmów umożliwiających kreatywne, inteligentne myślenie.
Media wysławiają naszych genialnych programistów, pracujących w Googlu, OpenAI, Microsofcie czy innych zagranicznych firmach. Czy ma to jakiś większy wpływ na sytuację w Polsce, gdzie brakuje informatyków, zwłaszcza orientujących się w najnowszych trendach rozwoju AI?
Nasza megalomania stwarza fałszywe wrażenie, że jesteśmy jakąś informatyczną potęgą, bo jest grupka wybitnych młodych Polaków pracujących za granicą. Nie ma nas jednak na mapach najważniejszych klastrów rozwijających naukę i technologię. Dane Eurostatu wykorzystania technologii AI w przedsiębiorstwach pokazują, że jesteśmy na końcu rankingu krajów EU, tylko przed Rumunią. Z tych technologii korzystają aż czterokrotnie częściej firmy z Danii czy Szwecji niż z Polski. Globalny indeks innowacji (Global Innovation Index, 2024), oparty na publikacjach i patentach, plasuje Warszawę na 90 pozycji na świecie, głównie dzięki patentom Samsunga. Moskwa była na 31 pozycji, też z powodu Samsunga, ale ta współpraca się już skończyła. Największe centra badawcze są w Japonii, Chinach i Korei.
Pięć filarów polskiej strategii rozwoju sztucznej inteligencji
.Jest więc naprawdę dużo do zrobienia i rząd zdaje sobie z tego sprawę. Ministerstwo Cyfryzacji poczyniło w ciągu ostatniego roku naprawdę duże postępy. Toczące się rozmowy grupy polskich informatyków, znajdujących się na liście Stanfordu najlepszych naukowców na świecie, z władzami na najwyższym szczeblu, pozwalają żywić nadzieję, że „polityka AI do 2030 roku” nie skończy się na startupach i zakupie gotowych systemów od amerykańskich gigantów. Nasza polityka ma być oparta na pięciu filarach.
1. Tworzenie Fabryk AI wokół superkomputerów
To poważne inwestycje, ale nie można stawiać wozu przed koniem. W większości krajów rozwiniętych najpierw inwestuje się w ludzi, a potem oni decydują jaki sprzęt jest im potrzebny. Oprócz skromnego programu inżynierii obliczeniowej na Uniwersytecie Warszawskim chyba nikt nie uczy wykorzystania takich maszyn. Pisałem o potrzebie rozwoju edukacji i nauk obliczeniowych w książce z 1997 roku. W 1994 roku zaproszono mnie na konferencję w Albuquerque, Nowy Meksyk, na temat nauk obliczeniowych (byłem na niej jedyną osobą spoza USA). Organizatorzy dostali 3 mln dolarów by stworzyć podręcznik i szkolenia dla użytkowników superkomputerów. Czy jesteśmy przygotowani by w pełni wykorzystać fabryki AI? Potrzebujemy konkursów na wsparcie nowych kierunków studiów przygotowujących do wykorzystania superkomputerów, fabryk AI i komputerów kwantowych. Warto zrobić analizę wykorzystania naszej sieci superkomputerów w ramach PL-Grid (robiłem taką w 2014 roku, organizując konferencję w Cyfronecie na AGH). Superkomputery realizują bardzo wiele różnorodnych projektów naukowych i biznesowych, ale trudno jest znaleźć nowsze statystyki czy też oceny korzyści z tych projektów.
Sprzęt do obliczeń rozwija się niezwykle szybko. Inwestycje w komputery kwantowe prawie na pewno okażą się chybione, bo nadchodzą radykalnie nowe technologie. Czy są jakieś opracowania do jakich konkretnie zadań te komputery mają służyć i jakich zysków należy się spodziewać? Szef Nvidii Jensen Huang, powiedział ostatnio, że gdyby dziś miał 20 lat, studiowałby nie informatykę, tylko nauki fizyczne, bo fizyczne systemy AI (Physical AI) to następna technologiczna gorączka złota. Z pewnością warto się nauczyć jak tworzyć nowe technologie, a jest ich wiele, opartych na fotonice, spintronice, urządzenia neuromorficzne są już w telefonach, mamy koherentne maszyny Isinga (CIM), wiele wersji urządzeń wykorzystujących procesy kwantowe, interfejsy mózg-komputer, a także wykorzystanie biologicznych neuronów skupionych w organoidach. Fizyka i nanotechnologie to kluczowe dziedziny w które warto inwestować, bo dzięki nim zniknie potrzeba budowy nowych elektrowni do zasilania centrów danych.
2. Dostęp do wysokiej jakości danych
Krąży takie hasło: dane to nowa ropa naftowa. Powstał już Krajowy Magazyn Danych (KMD) i w planach jest jego rozszerzenie, ale na razie to pusta struktura. Dane powinny być przydatne do budowy modeli predykcyjnych, rozwijania zaawansowanych systemów transportowych, inteligentnych miast lub usługi z zakresu ochrony zdrowia i środowiska. Według raportu Open Data Maturity, przygotowanego przez Komisję Europejską, jesteśmy na czele, jeśli chodzi o udostępnianie otwartych danych (dane.gov.pl). Jednak nasze dane są mało przydatne do budowy modeli AI, serwis „otwarte dane” takiego zadania na razie nie spełnia.
W kategorii „Zdrowie” mamy rejestry placówek i osób oferujących usługi medyczne, produktów leczniczych, oraz licznych danych zbieranych przez placówki ochrony zdrowia. Można się z nich dowiedzieć o liczbie pacjentów i wykonanych badań, ale nie o ich wynikach, przydatnych do budowy modeli AI. Mamy Krajowy Rejestr Nowotworów, łączących wszystkie rejestry w Polsce w jeden spójny system, zawierający wiele szczegółowych informacji o nowotworach, przydatny do analiz epidemiologicznych. To ważne dane, ale nie zbudujemy na tym diagnostycznych modeli AI.
Nie widać naszego wkładu do wielkich międzynarodowych projektów badania demencji, Alzheimera, autyzmu czy padaczki. Największe badania rozwoju mózgów dzieci w wieku 9-10 lat, znane jako studium ABCD, zebrało skany mózgów i inne informacje 10 tysięcy dzieci. Badanie NAKO to zakrojony na szeroką skalę epidemiologiczny projekt badawczy obejmujący ponad 200 000 uczestników z całych Niemiec. Podsumowanie tych badań liczy około 6000 stron i wiele mówi o stanie zdrowia Niemców. Na takich danych można budować modele AI. To bardzo przydatne dane, ale też nieco inna populacja niż w Polsce. Nie mamy naszych danych pozwalających choćby ocenić liczbę osób z autyzmem czy chorobą Alzheimera, bo nie prowadziliśmy badań naszej populacji na szerszą skalę. Jedyne duże repozytorium w Polsce to „Digital Brain – cyfrowe zasoby Instytutu Psychiatrii i Neurologii w Warszawie”, kolekcja cyfrowych skanów fragmentów mózgów, zajmująca około 3640 GB, około 5316 przekrojów mózgów.
W kategorii „Nauka i technologia” jest jeszcze gorzej. Mamy 109 pozycji firmy Fusioncopter na temat łopat wirnika, wykazy konferencji, projektów, publikacji, raportów i zatrudnienia w placówkach PAN i instytutów badawczych, dane statystyczne urzędów kilku miast. W pozostałych kategoriach też nie widać danych przydatnych do uczenia modeli AI. Sposób gromadzenia tych danych szybko zmierza w stronę chaosu, będzie ich dużo, ale mało przydatnych. Zebrane informacje mogą się przydać do ocen statystycznych, ale nie do uczenia modelów sztucznej inteligencji.
Kto, jak, w jakich obszarach ma systematycznie zbierać dane? W wielu krajach istnieją wielkie repozytoria danych przydatnych do badań naukowych utrzymywanych przez rządy, np. Health Data (https://healthdata.gov) to ponad 10.000 zbiorów danych, NIH (Amerykańskie Ministerstwo Zdrowia) utrzymuje około 150 dużych baz. Mamy dostęp do danych satelitarnych z programu Copernicus. Nie zbudowaliśmy jednak sami żadnego większego repozytorium takich danych. Infrastrukturę repozytoriów da się zrobić, ale kluczem jest zbieranie danych przydatnych do trenowania modeli AI w różnych dziedzinach. Mamy za to 52 biobanki, przechowujące ponad poł miliona próbek materiałów biologicznych, zrzeszone w Polskiej Sieci Biobanków w oparciu o działania Europejskiego Konsorcjum Badawczego (BBMRI-ERIC). Dane dostępne są przez platformę informatyczną, umożliwiając prowadzenie wielu projektów badawczych. Repozytoria danych powinny dać się łatwiej zorganizować niż biobanki.
3. Rozwój algorytmów i wdrażanie AI w sektorach strategicznych
Sztuczna inteligencja to zbiór coraz doskonalszych algorytmów, zmieniających się co miesiąc. ChatGPT dzisiaj jest zupełnie inny niż rok temu. Rozwiązania użyte w modelach otwartych, dających pełny dostęp do ich kodu, lub w modelach częściowo otwartych, które udostępniają parametry swoich modeli by je samemu dostroić do swoich potrzeb, konkurują z wielkimi bardzo kosztownymi modelami, których szczegóły nie są dostępne.
Jest wiele nowych pomysłów, które mogą zastąpić dominującą obecnie architekturę transformerów (GPT to skrót oznaczający generatywne wstępie wytrenowane transformery). Nowe modele AI działają szybciej, wymagają mniej obliczeń, mogą mieć nawet 100 razy mniej parametrów, a mimo tego osiągać w wybranych zadaniach podobny poziom dokładności jak najlepsze istniejące modele. W tym roku w testach porównujących możliwości dużych modeli językowych, jak i modeli wspomagających programowanie, chińskie modele DeepSeek, Qwen, Kimi, GLM-4, ChatGLM, WuDao, odnoszą wielkie sukcesy. Na liście lmarena.ai/leaderboard, porównującej ponad 200 modeli AI (15.08.2025) w pierwszej dziesiątce rankingu różnice liczby punktów są poniżej 5%, a wśród nich są cztery otwarte modele chińskie (Qwen, Kimi, DeepSeek, GLM). Modele OpenaI (GPT-5, o3, GPT-4o), Claude firmy Anthropic, Gemini Googla, oraz Grok-4 xAI to modele zamknięte, do których parametrów ani kodu nie mamy dostępu.
Wdrażanie takich „wszechwiedzących” systemów do zadań biznesowych czy celów badawczych jest błędem. Potrzebujemy wyspecjalizowanych systemów, które nie będą dyskutować na tematy polityczne czy prowadzić głębokie dyskusje egzystencjalne, ale systemów skupionych na diagnozach medycznych (w tym psychoterapii), analizie obrazów, spersonalizowanej edukacji, czy analizie dokumentów wszelkiego rodzaju. Już mamy przykłady dużych konsorcjów, w których grupa ludzi współpracuje z grupą wyspecjalizowanych agentów AI nad złożonymi problemami, próbując stworzyć lepsze baterie czy nowe szczepionki. Systemy doradzające w życiowych problemach, pełniące rolę psychoterapeutów lub rozmawiające z dziećmi, nie mogą się opierać na wielkich modelach językowych ogólnego przeznaczenia.
Po komunikacie Komisji Europejskiej z kwietnia 2018 roku większość krajów Europy podjęło szereg działań, ustanawiając nowe centra badawcze, związane z AI: 13 powstało w Belgii, 11 w Finlandii, 9 we Francji, 12 w Hiszpanii, 11 w Holandii, 9 w RFN, 14 w Rosji, 11 w Szwecji, 14 we Włoszech. W Stanach Zjednoczonych powstało 29 Narodowych Instytutów Badawczych AI. Chiny i kraje arabskie przeznaczą na rozwój AI po 100 mld dolarów. Zjednoczone Emiraty Arabskie utworzyły rządową radę ds. rozwoju AI i technologii blockchain, której przewodniczący jest w randze ministra, a ministerstwa finansów, gospodarki, zdrowia, energii, edukacji, nauki, technologii, są reprezentowane przez wiceministrów. W efekcie takich działań tysiące naukowców pomaga wdrażać technologie sztucznej inteligencji w różnych dziedzinach.
Polska przespała ostatnie siedem lat i chyba nadal się nie obudziła. W 2018 roku powołaliśmy Polskie Porozumienie na Rzecz Rozwoju Sztucznej Inteligencji (PP-RAI), mające na celu koordynację działań pięciu polskich towarzystw: PTSN –Towarzystwa Sieci Neuronowych, PSSI –Towarzystwa Sztucznej Inteligencji, Grupy ds. Uczenia Maszynowego, Oddziału Towarzystwa Systemów, Człowieka i Cybernetyki IEEE, oraz Oddziału Towarzystwa Inteligencji Obliczeniowej IEEE. Niestety nie uzyskaliśmy realnego wsparcia, więc działalność PP-RAI ograniczyła się do organizacji międzynarodowych konferencji. Nasz system ewaluacji nie zachęca jednak do udziału w konferencjach, które nie przynoszą punktów za publikacje, więc trudno znaleźć fundusze na udział w takich konferencjach.
Polska przespała ostatnie siedem lat i dopiero się budzi. Pod koniec roku 2020 uchwalono co prawda „Politykę dla rozwoju sztucznej inteligencji w Polsce od roku 2020” (71 stron), ale nie utworzono żadnych nowych centrów naukowych (IDEAS była spółką z.o.o, którą na początku 2025 roku przekształcono w Instytut Badawczy). Potrzebujemy centrów kompetencji w wielu dziedzinach, a na razie mamy tylko NASK (Naukowa i Akademicka Sieć Komputerowa), zajmujący się cyberbezpieczeństwem. Pomimo wielkich trudności rozwijanych jest kilka dużych modeli językowych: PLLUM, Bielik, Qra. Część informatyków wyjechała za granicę, część zatrudniła się w różnych firmach. To trudne do odrobienia straty. Porównajmy naszą sytuację z innymi krajami Unii Europejskiej, z inwestycjami w ostatnich latach w nowe jednostki badawcze pracujące nad sztuczną inteligencją. Z technologii AI korzystają aż czterokrotnie częściej firmy z Danii czy Szwecji niż z Polski. Globalny indeks innowacji (Global Innovation Index, 2024), oparty na publikacjach i patentach, plasuje nas na 90 pozycji na świecie, głównie dzięki patentom Samsunga. Dane Eurostatu wykorzystania technologii AI w przedsiębiorstwach pokazują, że jesteśmy na końcu rankingu krajów EU, tylko przed Rumunią.
4. Wzmacnianie kompetencji i przyciąganie talentów, edukacja i szkolenia w dziedzinie AI
Opieka nad utalentowaną młodzieżą jest niezwykle ważnym zadaniem i mamy tu sporo sukcesów, co widać po wynikach międzynarodowych olimpiad w różnych dziedzinach. W Singapurze nauczycieli, którzy odnosili sukcesy, wysyłano do szkół w których poziom nie był najlepszy by wyrównać ich poziom. W testach PISA 2022 (Międzynarodowy Program ocen 15-latków) średni poziom uczniów tego kraju we wszystkich kategoriach był zdecydowania najwyższy i wzrósł w porównaniu z poprzednimi latami, podczas gdy wyniki polskich uczniów wyraźnie spadły. Ministerstwo Edukacji Narodowej przekazało 16 tys. pracowni sztucznej inteligencji oraz pracowni nauk przyrodniczych, technologii, inżynierii i matematyki (STEM) w ramach Krajowego Planu Odbudowy i Zwiększania Odporności (KPO). Nie mamy jednak powszechnego programu edukacji nauczycieli, który by im pokazał, jak wykorzystać AI do nauki w szkole. Zakupy sprzętu tego nie rozwiążą. Mamy bardzo sprzeczne wyniki badań nad wpływem AI na edukację: część uczniów rezygnuje z krytycznego myślenia, a część rozwija swoją ciekawość i kreatywnie wykorzystuje możliwości AI.
Od marca tego roku 200 ekspertów pracuje nad nowymi podstawami programowymi dla szkół podstawowych. Czy wiedzą, jak wykorzystać AI dla wspomagania nauczania różnych przedmiotów? OpenAI wprowadziło w sierpniu 2025 roku tryb nauki (study mode) w ChatGPT, który ma pokazywać jak rozwiązywać zadania krok po kroku. Wkrótce ten tryb będzie dostępny dla użytkowników ChatGPT Edu. Na razie działa to głównie dla problemów matematycznych, ale potrzebujemy takiego podejścia do wszystkich przedmiotów.
Czy powinniśmy ten system dostosować do naszych programów nauczania, czy tworzyć własne rozwiązania? Rozbudować znacznie nasze modele PLLUM i Bielik, dodając tryb nauk. Instytut Badań Edukacyjnych (IBE) wspomniany jest jako instytucja, która powinna prowadzić badania wpływu na edukację, dopracowanie podstawy programowej i opracowanie ćwiczeń, z wykorzystaniem AI, które będą rozbudzać ciekawość, uczyć jak stawiać dobre pytania i kreować wyzwania zachęcające uczniów do kreatywnego wykorzystania możliwości AI. Na poziomie szkół wyższych i instytutów badawczych warto postawić na współpracę z międzynarodowymi stowarzyszeniami, takimi jak ACM, IEEE, INNS, które definiują standardy, skupiają ekspertów od licznych dyscyplin, organizują największe konferencje. Wśród doradców ministerstw próżno szukać ludzi, którzy są członkami z wyboru (Fellows) takich organizacji.
5. Ostatni obszar to uruchomienie AI Act Service Desk
Musimy to zrobić, ale konieczna jest tu ostrożność, by regulacje nie stały się hamulcem rozwoju. UODO (Urząd Ochrony Danych Obywatela) powołał grupę ekspertów od ochrony danych osobowych w związku z Europejskimi regulacjami. Systemów wysokiego ryzyka, mających wpływ na infrastrukturę krytyczną, będzie znacznie mniej niż niezliczonych zastosowań w biznesie, wyszukiwaniu informacji, pisaniu sprawozdań czy monitorowania procesów przemysłowych.
Potrzebujemy dokładnej analizy barier biurokratycznych, obciążeń wynikających z administracyjnych wymogów, nie wystarczy wspomnieć o “nadmiernej biurokracji”. Jeśli nakłada się jakieś nowe zobowiązania na firmy czy uczelnie to należy udostępniać narzędzia, które ułatwią ich realizację, w czym AI może nam pomóc. Umowy i rachunki można już od dawna wypełniać w sposób automatyczny własnymi danymi, ale tego nie robimy, brakuje standardów i traci się wiele czasu na podawanie tych samych danych w nieco innej formie. Idea elektronicznego obrotu dokumentów daleka jest od pełnej realizacji. Takich prostych rzeczy, które mogą oszczędzić dużo czasu, nie znajdziemy w polityce rozwoju AI.
Jeśli AI ma mieć wpływ na gospodarkę to potrzebujemy na uczelniach informacji, czego chce od nas przemysł, jakich absolwentów powinniśmy wykształcić, jakie kompetencje są potrzebne. Absolwenci informatyki powinni coś wiedzieć o specyfice pracy prawników, ekonomistów, farmaceutów, medyków by się dobrze porozumieć z ludźmi, znającymi specyfikę danej dziedziny. Krokiem w tym kierunku byłoby publikowanie co roku informacji o rynku pracy, firmach planujących zatrudnienie informatyków, wymaganiach dotyczących ich kompetencji. Tu mogą pomóc stowarzyszenia przedsiębiorców. Ze strony szkół wyższych MNiSW może wprowadzić certyfikaty kompetencji oparte na zebraniu punktów ECTS (to europejski system punktów przypisywanych zajęciom) w określonych dyscyplinach. Informatyk może się douczyć podstaw prawa, ekonomii, zarządzania, chemii, mikrobiologii czy opieki zdrowotnej zanim podejmie pracę. To system stosowany w USA (major/minor), który nic nie kosztuje, a może bardzo przyspieszyć dostosowanie absolwentów uczelni do potrzeb pracodawców.
.Media żywią się strachem przed sztuczną inteligencją, każdą pomyłkę przypisując AI, a nie ludziom, którzy zadają mało precyzyjne pytania i nie potrafią poprosić o źródło informacji by ją zweryfikować. Fidji Simo, nowa dyrektorka generalna ds. aplikacji w OpenAI, napisała „Wierzę, że AI stworzy więcej możliwości dla większej liczby osób niż jakakolwiek inna technologia w historii. Jeśli wykonamy swoją pracę dobrze, AI może upodmiotowić wszystkich ludzi w stopniu większym niż było to dotąd możliwe”. Jeśli tylko zrobimy to dobrze.
Włodzisław Duch