68 proc. pracowników obawia się, że AI spowoduje redukcje zatrudnienia
68 proc. pracowników uważa, że wprowadzenie narzędzi bazujących na sztucznej inteligencji może przełożyć się na redukcję zatrudnienia – wynika z badania EY. 73 proc. badanych deklaruje, że miało styczność z AI, jednak tylko 44 proc. podnosi swoje kwalifikacje w tym zakresie.
Implementacja technologii AI w sferze biznesowej napotyka na wiele problemów
.Według badania, 73 proc. respondentów miała już do czynienia z technologią AI. 38 proc. zetknęło się z nią w życiu prywatnym, 12 proc. wyłącznie na gruncie zawodowym, a 23 proc. miało doświadczenia w obu tych obszarach. Dodatkowo, jak podano, narzędzia bazujące na AI są dużo popularniejsze wśród osób na stanowiskach menadżerskich (84 proc.) niż wśród pracowników na niższych szczeblach (67 proc.).
W informacji stwierdzono, że implementacja technologii AI w sferze biznesowej napotyka na wiele problemów. Barierą jest wysoka złożoność procesu implementacji – 67 proc. badanych wskazuje to jako problem wdrożenia AI w przedsiębiorstwie.
45 proc. przedsiębiorców, którzy wdrożyli AI w swojej firmie, deklaruje, że po implementacji zauważalny jest wzrost przychodów, ograniczenie kosztów bądź oba z tych zjawisk. Ponadto przedsiębiorstwa zauważają poprawę w obszarach takich jak IT (35 proc.), marketing (30 proc.) i cyberbezpieczeństwo (27 proc.).
Jak poinformowano, 68 proc. pracowników twierdzi, że użycie AI może wpłynąć na redukcję zatrudnienia. 53 proc. uważa, że rozwój AI ma wpływ na wykonywaną przez nich pracę, a według 65 proc. wykonywane przez nich zadania zostaną kiedyś przejęte przez sztuczną inteligencję (wśród kadry menedżerskiej uznało tak blisko trzy czwarte osób – 72 proc.).
68 proc. pracowników obawia się zwolnień – 56 proc. nie szkoli się używaniu narzędzi AI
.Zgodnie z wynikami badania, 42 proc. badanych przedsiębiorców twierdzi, że ich firma ma odpowiednią wiedzę, by wdrożyć AI i efektywnie jej używać. „Jedynymi krajami, w których większość ankietowanych odpowiedziała na to pytanie twierdząco, były Szwajcaria (58 proc.) i Włochy (52 proc.)” – podkreślono.
Ponad połowa badanych pracowników (56 proc.) odpowiedziała, że nie podnosi swoich kompetencji w zakresie AI. Jednak 16 proc. doszkala się prywatnie, 16 proc. – zawodowo, a 12 proc. korzysta z obu sposobów. Częściej swoje kompetencje w tym zakresie podnosi kadra menedżerska (62 proc.) niż pracownicy na niższych szczeblach (36 proc.).
Badanie zostało przeprowadzone w marcu 2024 r. na grupie 4 741 osób w dziewięciu europejskich krajach: Niemczech, Francji, Włoszech, Austrii, Hiszpanii, Holandii, Belgii, Portugalii i Szwajcarii.
EY świadczy usługi audytorskie, doradztwa podatkowego, biznesowego, strategicznego i transakcyjnego. W Polsce zatrudnia 4 tys. specjalistów pracujących w biurach w Warszawie, Gdańsku, Katowicach, Krakowie, Łodzi, Poznaniu i Wrocławiu.
Sztuczna inteligencja szturmem podbiła świat
.„Sporo rozważań dotyczących generatywnych systemów AI koncentruje się na tym, w jaki sposób powielają one patologie powszechnie stosowanych już systemów sztucznej inteligencji. Część krytyków twierdzi, że systemy te centralizują władzę i bogactwo, lekceważą prawa autorskie, bazują na praktykach wyzysku pracowników i wykorzystują zbyt wiele zasobów. Inni zaś podkreślają, że jest to zapowiedź znacznie potężniejszych systemów, które mogą zagrozić przetrwaniu ludzkości. Pierwsza grupa przekonuje, że nie dzieje się nic nowego, druga spogląda na, być może, odległy horyzont” – pisze na łamach Wszystko co Najważniejsze Seth LAZAR, profesor filozofii na Australijskim Uniwersytecie Narodowym, stypendysta (Future Fellow) Australijskiej Rady ds. Badań Naukowych
W jego ocenie warto zacząć od omówienia sposobu działania LLM-ów i możliwości ich wykorzystania do tworzenia agentów generatywnych. LLM to duży model sztucznej inteligencji trenowany na olbrzymich ilościach danych i wykorzystujący ogromne zasoby obliczeniowe (liczne procesory graficzne) w celu przewidywania kolejnego słowa w danej sekwencji (określanej jako „prompt”). Proces rozpoczyna się od podziału danych treningowych na podobnej wielkości „tokeny” (słowa lub części słów), a następnie maskowanie niektórych z nich i próba przewidzenia tokenów, które zostały zamaskowane (tzw. self-supervised learning – uczenie się nienadzorowane/samonadzorujące się). Aby utworzyć model predykcyjny dla bazowej dystrybucji tokenów, przepuszcza się go przez wiele warstw sieci neuronowej, przy czym każda warstwa udoskonala model w takim czy innym wymiarze, aby uczynić go dokładniejszym.
„Takie podejście do modelowania języka naturalnego istnieje już od kilku lat. Jedną z kluczowych najnowszych innowacji jest wykorzystanie „wstępnie wytrenowanych” modeli, które skutecznie przewidują tokeny na podstawie promptów i umieją dopasować wyniki do różnych zadań. Odbywa się to za pomocą nadzorowanego („supervised”) uczenia się na etykietowanych danych. Na przykład, do wstępnie wytrenowanego modelu można wprowadzić wiele różnych pomocnych odpowiedzi na określane pytania, aby przekształcić ten model w skuteczne narzędzie dialogowe. Takie dostrajanie pozwala budować modele, które potrafią przewidywać nie tylko najbardziej prawdopodobne, ale też najbardziej pomocne tokeny, co jest o wiele bardziej przydatne” – podkreśla profesor.
PAP/WszystkocoNajważniejsze/MB