Automatyzacja i robotyzacja coraz bardziej powszechne na polskim rynku pracy

automatyzacja i robotyzacja

Z rozwiązaniami opartymi na sztucznej inteligencji zetknęło się w pracy 30 proc. polskich pracowników, a 55 proc. osób przyznaje, że AI, w tym automatyzacja i robotyzacja, ułatwia im wykonywanie zadań – stwierdzono w raporcie Monitor Rynku Pracy, przygotowanym przez Instytut Badawczy Randstad.

Raport – automatyzacja i robotyzacja

.Z danych zawartych w 53. edycji raportu Monitor Rynku Pracy, przygotowanego przez Instytut Badawczy Randstad we współpracy z Instytutem Badań Pollster wynika, że 30 proc. polskich pracowników twierdzi, że spotkało się w miejscu zatrudnienia z rozwiązaniami opartymi na sztucznej inteligencji, robotyzacji i automatyzacji.

W grupie, która potwierdza obecność w firmie takich rozwiązań, zdecydowana większość ocenia je przychylnie: dla 55 proc. stanowią użyteczne wsparcie – podano. „Co dziesiąty pracownik deklaruje, że AI zastąpiło go w wykonywaniu określonych zadań. 35 proc. podkreśla, że te narzędzia funkcjonują w firmie, ale nie wpływają w żaden sposób na zakres ich pracy” – stwierdzono.

Autorzy opracowania zwrócili uwagę, że im większa firma, tym styczność z automatyzacją i robotyzacją jest częstsza – w mikroprzedsiębiorstwach (od 2-9 osób) deklaruje to 19 proc. ankietowanych, natomiast w największych firmach (od 250 osób) odsetek ten jest ponad dwukrotnie wyższy (40 proc.). „Najczęściej mają z nią do czynienia inżynierowie (52 proc.) oraz przedstawiciele kadry zarządzającej (49 proc.), a patrząc przez pryzmat branż: pracownicy telekomunikacji i IT (60 proc.), przemysłu (44 proc.) oraz finansów i ubezpieczeń (42 proc.)” – dodano.

W raporcie podano, że najczęściej wymienianymi przez pracowników narzędziami AI są: aplikacje generujące treści i grafiki (39 proc.) oraz czatboty i automatyczne systemy obsługi klienta (38 proc.). Trzecie miejsce zajmują w tym zestawieniu translatory z języków obcych (35 proc.), a czwarte – roboty przemysłowe (34 proc.).

Sztuczna inteligencja a miejsca pracy

.„Duże obawy o utratę stanowiska z powodu sztucznej inteligencji żywi 21 proc. badanych. Zdecydowana większość (49 proc.) deklaruje jednak, że nie czuje takiego zagrożenia” – podkreślili autorzy opracowania. Zaznaczyli, że stosunkowo liczna jest też grupa pracowników, którzy nie umieją jeszcze jednoznacznie ocenić sytuacji: 24 proc. na pytanie, czy w związku z rozwojem AI boją o swoje bezpieczeństwo zawodowe w przyszłości, odpowiedziało, że „ani tak, ani nie”, a 6 proc. „nie ma zdania”.

„Automatyzacji i robotyzacji pracy obawiają się raczej młodzi pracownicy niż starsi, oraz raczej kobiety niż mężczyźni”- wskazał ekspert ds. rynku pracy w Fundacji Inicjatyw Społeczno-Ekonomicznych i współautor podcastu „Ekonomia i cała reszta Łukasz Komuda”. Dodał, że najbardziej zagrożeni czują się kasjerzy i sprzedawcy (31 proc.), pracownicy biurowi i administracyjni (24 proc.), a także robotnicy niewykwalifikowani (23 proc.).

Według autorów raportu w ujęciu branżowym „największy niepokój” towarzyszy sektorom: hotelarstwa i gastronomii, finansów i ubezpieczeń (po 27 proc.) oraz handlowi (26 proc.). Najpewniej czują się natomiast pracownicy edukacji – 59 proc. nie obawia się utraty posady z powodu rozwoju AI.

Zwrócono uwagę, że 66 proc. ogółu zatrudnionych przyznaje, że ich pracodawca nie proponuje żadnych działań, które rozwijałyby ich umiejętności pracy z AI – najliczniejszą grupę stanowią wśród nich pracownicy opieki zdrowotnej i pomocy społecznej (79 proc.).

Mniej niż 1/3 (27 proc.) wszystkich respondentów uważa, że są przygotowani do pracy z rozwiązaniami bazującymi na sztucznej inteligencji. Jednocześnie 37 proc. z własnej inicjatywy stara się poszerzać swoją wiedzę w zakresie automatyzacji i robotyzacji. Nieco częściej deklarują to mężczyźni (38 proc.) niż kobiety (35 proc.).

„Przed pracownikami stoi więc wyzwanie zawodowej adaptacji, a przed pracodawcami wdrażanie narzędzi AI jednocześnie ze skutecznymi szkoleniami dla zatrudnionych. Tylko tak przedsiębiorstwa będą mogły w pełni wykorzystać szanse, jakie idą za nową technologią” – zaznaczyła Monika Hryniszyn z Randstad.

Dlaczego sztuczna inteligencja powinna być demokratyczna?

Jak piszą Josh SIMONS i Eli FRANKEL z Uniwersytetu Harvarda, „w 2022 roku w świecie literatury i sztuki miały miejsce nowe, dość niekonwencjonalne debiuty. Pewien obiecujący literat z niespotykaną dotąd szybkością pisał wiersze, opowiadania i eseje, a kilku młodych artystów stworzyło wspaniałe obrazy i portrety. Twórcami tymi nie są ludzie, lecz systemy sztucznej inteligencji, które, przynajmniej z pozoru wydają się rzeczywiście inteligentne”.

Pozory mogą mylić. Za finansowaniem typu venture capital, błyskotliwymi hasłami i oknami wieżowców w San Francisco, w których powstają systemy takie jak ChatGPT, kryje się coś prostszego: przewidywanie. Wystarczy wpisać coś do okna dialogowego. To, co pojawia się na ekranie, nie jest przejawem systemu, który rozumie naszą prośbę. Odpowiedź jest generowana przez sieć neuronową, czyli algorytmy nauczone przewidywania, które wyniki z całych zasobów sieci będą w danym przypadku użyteczne.

„Może się wydawać, że stoi za tym rozumienie, a my oglądamy rezultaty działań prawdziwego autora – tak jednak nie jest. To jedynie przewidywanie i naśladowanie. Nawet najbardziej skomplikowane systemy sztucznej inteligencji to w rzeczywistości zaawansowane formy uczenia się maszyn, w których algorytmy nabywają umiejętności przewidywania konkretnych wyników na podstawie wzorców i struktur w ogromnych zbiorach danych”.

Dodają: „to istotne, ponieważ większość realnych szkód, które te systemy mogą wyrządzić – jak również większość możliwości, które oferują – nie ma nic wspólnego z robotami przejmującymi władzę nad światem lub z samogenerującymi się systemami SI. Ma za to znaczenie to, jak, kiedy i dlaczego powinniśmy stosować potężne narzędzia predykcyjne w systemach decyzyjnych naszych organizacji politycznych, społecznych i gospodarczych. W jaki sposób, jeśli w ogóle, powinniśmy używać predykcji do decydowania o tym, kto dostanie pożyczkę lub kredyt hipoteczny, do których dzielnic wysłać policjantów, które zgłoszenia o znęcaniu się nad dziećmi i ich zaniedbywaniu należy zbadać czy też które posty usunąć z Facebooka lub które z nich zaproponować użytkownikowi? Nie ma niestety jednej odpowiedzi na takie pytania. Dylematy prawne i moralne związane z wykorzystaniem przez policję predykcji opartej na danych są często skrajnie różne od dylematów dotyczących wykorzystania tej metody do przydzielania kredytów. Z kolei całkiem odmienny od obu tych zagadnień jest temat wykorzystania SI do kształtowania i moderowania sfery publicznej. Oznacza to, że przepisy, których celem jest regulacja działań organizacji wykorzystujących dane do podejmowania decyzji, powinny być inne dla policji, inne dla sektora finansowego i jeszcze inne dla mediów społecznościowych”.

PAP/WszystkocoNajważniejsze/AB

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 11 października 2023