Im bardziej ufamy sztucznej inteligencji, tym gorzej się uczymy

Badanie opublikowane na łamach

Badanie opublikowane na łamach „The Conversation” przedstawia paradoks korzystania ze sztucznej inteligencji. Im silniejsza wiara w poprawność jej odpowiedzi, tym mniejsze zaangażowanie w ich weryfikację, a to bezpośrednio osłabia proces uczenia się.

Proces uczenia się a sztuczna inteligencja

.Generatywna sztuczna inteligencja coraz mocniej wchodzi do edukacji, zmieniając proces uczenia się wśród studentów. Narzędzia oparte na AI potrafią się mylić, nawet jeśli działają prawidłowo. To oznacza, że użytkownik musi samodzielnie oceniać i sprawdzać otrzymywane odpowiedzi. W praktyce jednak stopień zaufania do technologii ma kluczowe znaczenie dla tego, jak studenci z niej korzystają i jak się uczą.

Badanie przeprowadzone wśród 132 hiszpańskich studentów pokazuje, że niemal 80% z nich korzysta z AI często lub bardzo często w celach akademickich. Jednocześnie ponad trzy czwarte ankietowanych stosuje mało wiarygodne metody weryfikowania informacji, a około 40% nie wykonuje nawet podstawowych działań, takich jak sprawdzanie źródeł odpowiedzi. Jest to szczególnie istotne, ponieważ większość studentów przyznaje, że narzędzia AI czasami lub często podają nieprawidłowe treści. Mimo tego ponad 90% badanych uważa, że potrafi rozpoznać błędne odpowiedzi. Ta wysoka wiara we własne kompetencje idzie w parze z przekonaniem, że nauczyciele mają z tym większy problem. Wyniki badania wskazują jednak na rozbieżność między deklarowaną pewnością a rzeczywistymi praktykami weryfikacji informacji.

Nadmierne zaufanie do sztucznej inteligencji wpływa bezpośrednio na sposób uczenia się. Gdy studenci przyjmują odpowiedzi AI bez sprawdzania ich poprawności, ograniczają uruchamianie myślenia krytycznego i procesów metapoznawczych, kluczowych podczas rozwiązywania problemów. W efekcie narzędzie, które może wspierać naukę, staje się sposobem na szybkie wykonanie zadania, a nie na rzeczywiste zrozumienie materiału.

Badanie pokazuje także, że część studentów obawia się korzystania z uczelnianych narzędzi AI ze względu na kwestie prywatności. Jednocześnie wielu z nich nie dostrzega, że niewłaściwe użycie technologii może osłabiać proces uczenia się. Obserwacje dydaktyczne potwierdzają, że studenci często nie są świadomi błędów w sposobie wykorzystywania AI.

Choć sztuczna inteligencja może być cennym wsparciem w pracy akademickiej, jej skuteczność jako narzędzia edukacyjnego zależy od sposobu użycia. Wyniki badania wskazują jasno, im większe, bezkrytyczne zaufanie do AI, tym mniejsze zaangażowanie w weryfikację informacji, a to przekłada się na słabsze efekty nauki.

Nieunikniona rewolucja AI

.Na temat tego jakie szanse i zagrożenia niesie coraz bardziej postępujący rozwój sztucznej inteligencji, na łamach „Wszystko Co Najważniejsze” pisze David LISNARD w tekście „ChatGPT. Problem jest w innym miejscu”.

„Radykalna innowacja z natury niesie ze sobą wielkie ryzyko, proporcjonalne do możliwości, jakie stwarza. U zarania pojawienia się sztucznej inteligencji uczelnia Sciences Po – podobnie jak uczelnie w Nowym Jorku – zabroniła korzystania z niej. Jeśli w świetle ogromu czekających nas wstrząsów obawy są uzasadnione, rozwiązań nie znajdziemy w odrzuceniu, przejawiającym się w skrajnym przypadku ideą spowolnienia gospodarczego, które nie oferuje żadnej wiarygodnej alternatywy i proponuje świat bez innowacji, naznaczony strachem i wycofaniem, społeczeństwo, w którym każdy powinien zredukować swój byt: mniej podróżować, mniej pracować, mniej działać, mniej tworzyć. Mniej żyć”.

„To śmiercionośny projekt polityczny. Musimy pozostać wierni naszym zasadom, które jako jedyne mogą kierować naszymi wyborami w burzliwych czasach: wolność jako nadrzędna wartość, odpowiedzialność jako nieuchronne następstwo wolności, kultura i krytyczne myślenie jako źródła indywidualnej emancypacji i zbiorowej więzi, godność ludzka jako ostateczny i ontologiczny cel”.

„Innowacyjność jest nierozerwalnie związana z życiem, z ludzkością, a teraz z jej przetrwaniem w obliczu wyzwania ekologicznego. Sprzeciw wobec rewolucji AI byłby daremny. Możemy aspirować do rozwijania nauki i świadomości. Taka jest rola polityki. W kwestii sztucznej inteligencji tą świadomością jest wiedza o pochodzeniu treści, o przejrzystości informacji dotyczących narzędzia i jego ograniczeń” – pisze David LISNARD.

Laura Wieczorek

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 9 lutego 2026