Ilu studentów używa sztucznej inteligencji w czasie nauki?

Ilu studentów używa sztucznej inteligencji w czasie nauki ?

68 proc. studentów podczas nauki będzie używać narzędzi sztucznej inteligencji – wynika z badania „Technologia okiem studenta”. Jako możliwe zastosowania AI wymieniono m.in. tłumaczenia językowe, organizację pracy, tworzenie prezentacji i pisanie prac zaliczeniowych.

Ilu studentów używa urządzeń elektronicznych w nauce?

.Z badania „Technologia okiem studenta” firmy Digital Care wynika, że 97 proc. studentów w Polsce używa urządzeń elektronicznych do nauki. Wśród wykorzystywanych urządzeń wymieniono: laptop (94 proc.), smartfon (90 proc.), tablet (32 proc.), komputer stacjonarny (25 proc.) i czytnik ebook (10 proc.).

Jak wynika z raportu, 32 proc. studentów korzysta ze smartfonu powyżej 5 godzin dziennie, 44 proc. 3-5 godzin dziennie, 23 proc. od 1 do 3 godzin dziennie, a 2 proc. do 1 godziny dziennie.

Cytowana w badaniu Anna Kozłowska-Pietraszko zauważyła, iż blisko 60 proc. studentów jest zainteresowanych skorzystaniem z wynajmu urządzeń mobilnych na uczelniach, głównie tabletów i laptopów, w modelu semestralnym lub rocznym. „Możliwość wypożyczenia sprzętu mobilnego poprzez uczelnię pozytywnie ocenia aż 75 proc. ankietowanych” – wskazała ekspertka.

Ilu studentów wykorzystuje sztuczną inteligencję do nauki?

.Według raportu, 68 proc. studentów będzie używać narzędzi wykorzystujących sztuczną inteligencję podczas nauki w tym roku akademickim. Jako możliwe zastosowania wymieniono m.in.: tłumaczenia językowe (52 proc.), organizację pracy (52 proc.), tworzenie prezentacji (50 proc.) oraz pisanie prac zaliczeniowych (34 proc.). Co piąty student planuje przy wsparciu sztucznej inteligencji napisać pracę dyplomową: licencjacką, inżynierską bądź magisterską – dodano.

Zgodnie z badaniem, 20 proc. studentów zdecydowanie pozytywnie ocenia wykorzystanie sztucznej inteligencji w procesie kształcenia podczas studiów, 40 proc. raczej pozytywnie, 30 proc. ani pozytywnie, ani negatywnie, 8 proc. raczej negatywnie, a 2 proc. – zdecydowanie negatywnie. Na pytanie o chęć rozwijania kompetencji w zakresie korzystania ze sztucznej inteligencji w ramach zajęć na uczelni, 31 proc. respondentów odpowiedziało „zdecydowanie tak”, 43 proc. „raczej tak”, 15 proc. „ani tak, ani nie”, 8 proc. „raczej nie”, a 2 proc. „zdecydowanie nie”.

Badanie zostało zrealizowane w dniach 28-30 września br. za pośrednictwem platformy Omnisurv IQS, na próbie 500 studentów w wieku 19-35 lat.

ChatGPT nie jest sztuczną inteligencją. To zwykłe złodziejstwo

.„Programy takie jak ChatGPT to kolejne bezlitosne przejawy korupcji późnego kapitalizmu, w którym autorstwo nie ma żadnej wartości. Liczy się tylko treść” – pisze Jim McDERMOTT, amerykański polityk i Izby Reprezentantów Stanów Zjednoczonych na łamach miesięcznika „Wszystko Co Najważniejsze”.

„W pewnym sensie ChatGPT i inne podobne programy są najwyższą formą oddzielania twórców od owoców ich pracy. Odpowiedź lub dzieło sztuki wygenerowane przez predykcyjnego bota tekstowego mają tak niewiele wspólnego z wykorzystanymi w tym celu oryginalnymi artykułami lub pomysłami, że nawet sami ich twórcy nie zdają sobie sprawy, że zostali okradzeni. Ba, mogą nawet popierać tych, którzy uważają ten argument za absurdalny. To trochę tak, jakby podziwiać czyjeś podrasowane auto, którego maska lub projekt silnika częściowo składają się z elementów skradzionych z naszego samochodu” – mówi polityk.

„Należy pamiętać, że algorytmy programowe są predykcyjne, to znaczy, że mają myśleć o swoich tokenach w odniesieniu do siebie nawzajem. Jest więc logiczne, że po otrzymaniu tysiąca tokenów od wielkich pisarzy, jak Toni Morrison czy Stephen King, tego rodzaju programy są w stanie odtworzyć lub przekształcić styl pisania tych autorów. Programy takie jak ChatGPT to kolejne bezlitosne przejawy korupcji późnego kapitalizmu, w którym autorstwo nie ma żadnej wartości. Liczy się tylko treść” – zaznacza Jim McDERMOTT w tekście „ChatGPT nie jest sztuczną inteligencją. To zwykłe złodziejstwo„.

Bajki o sztucznej inteligencji

.„Rozwój nowych technologii informacyjnych niesie ze sobą również specyficzne zagrożenia, których nie ma w przypadku na przykład broni masowej zagłady. Jedno z nich to fakt, że rozwój ten zdaje się wymykać spod naszej kontroli, a jednocześnie zmieniać rewolucyjnie nasze życie społeczne, w kierunku, który bynajmniej nie wydaje się ani dobry, ani pożądany. Wizja, gdzie ludzie większość życia spędzają w świecie wirtualnym, przylepieni do laptopów i smartfonów czy z czymś w głowie, co zastąpi w przyszłości te urządzenia, ma charakter raczej przerażający. Dążymy w tym kierunku jakby wbrew naszej woli” – uważa prof. nauk matematycznych Andrzej KISIELEWICZ.

„Realne jest zagrożenie, że wielkie korporacje czy quasi-totalitarne reżimy użyją zaawansowanych narzędzi informatycznych do manipulacji społeczeństwami i ich kontrolowania. Nie żadna sztuczna inteligencja, ale olbrzymia moc obliczeniowa współczesnych komputerów i algorytmy przetwarzania olbrzymich baz danych umożliwiają pełną kontrolę nad całymi społeczeństwami i każdym obywatelem z osobna. (To, że algorytmy te rozwijane są w ramach badań sygnowanych etykietą AI, nie ma tu znaczenia)” – dodaje prof. Andrzej KISIELEWICZ w tekście „Bajki o sztucznej inteligencji i prawdziwe zagrożenia„.

PAP/WszystkoCoNajważniejsze/MB
Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 12 października 2023