Sztuczna inteligencja ma wzmacniać naszą pomysłowość, ciekawość i wiedzę. Nauczycielom ma oddać ich czas [Ronit L. MORAD]

Sztuczna Inteligencja nie jest narzędziem pozbawionym ograniczeń – może popełniać błędy, a za jej opracowaniem stoją ludzie. Właśnie dlatego zależy nam na tym, aby uczniowie, korzystając z AI, aktywowali tryb myślenia krytycznego – powiedziała Ronit Levavi Morad z Google Research.
Sztuczna inteligencja ma wzmacniać naszą pomysłowość – Ronit L. MORAD
Ludwika Tomala: Podczas konferencji Google Research@ w Warszawie mówiła pani, że już dzieci wcześnie w szkole powinny uczyć się, jak działa AI. Dlaczego pani zdaniem to takie ważne?
Ronit Levavi Morad, senior director i chief of staff w Google Research, która prowadzi inicjatywy Google Research w zakresie edukacji młodzieży w obszarze sztucznej inteligencji: Uczniowie dorastają w świecie, w którym narzędzia sztucznej inteligencji stają się integralną częścią codziennego życia. Ponieważ przyszłość będzie napędzana przez AI – chcemy mieć pewność, że każde dziecko z tego pokolenia będzie miało szansę w pełni wykorzystać ten potencjał. Naszym zadaniem jest zapewnienie im na tę podróż niezbędnych kompetencji. Nasze działania mają na celu budowanie pewności siebie uczniów i pokazywanie, jak efektywnie oraz etycznie korzystać z narzędzi AI do rozwiązywania problemów, współpracy i pogłębiania wiedzy. Równocześnie młodzi ludzie muszą rozumieć, że AI nie jest doskonała i ma swoje ograniczenia.
My, dorośli, nie mieliśmy raczej w szkole zajęć o AI. Co powinniśmy wiedzieć o sztucznej inteligencji?
Ronit Levavi Morad: Po pierwsze: AI jest partnerem i współtwórcą. To narzędzie, które ma wzmacniać naszą pomysłowość, ciekawość i wiedzę.
Po drugie – równie ważne – AI nie jest narzędziem idealnym ani bezbłędnym. Użytkownicy korzystający z AI mają tu swoją rolę do odegrania: muszą weryfikować wyniki generowane przez sztuczną inteligencję, działać jak „fact-checkerzy” – osoby zajmujące się weryfikacją informacji. Dzięki AI można zyskać szerszą wiedzę, ale trzeba używać narzędzia ostrożnie, etycznie i być świadomym jego ograniczeń.
Po trzecie: AI to fundament przyszłych rozwiązań. Mamy na świecie wiele wielkich, nierozwiązanych problemów w dziedzinach takich jak zdrowie, nauka, klimat czy edukacja. Sztuczna inteligencja to dla młodych ludzi, w tym – przyszłych naukowców, potężne narzędzie do ich rozwiązania.
Wspomniała pani o ograniczeniach i ryzykach związanych ze stosowaniem AI. O jakich zagrożeniach wszyscy powinni wiedzieć?
Ronit Levavi Morad: W Google jesteśmy w pełni świadomi wbudowanych ograniczeń Sztucznej Inteligencji, takich jak chociażby uprzedzenia (biases) w modelach, które zostały przeniesione z niewystarczająco zróżnicowanych danych źródłowych. Właśnie dlatego edukujemy uczniów, tłumacząc im, jak kluczowe jest trenowanie modeli AI na szerokich i zróżnicowanych zbiorach danych, pochodzących z różnych regionów geograficznych i kulturowych, po to, by AI była reprezentatywna i sprawiedliwa dla wszystkich.
Czy nie byłoby prościej, gdyby Google po prostu zredukowało te uprzedzenia w swoich produktach, zamiast uczyć dzieci, jak sobie z tymi uprzedzeniami modeli radzić?
Ronit Levavi Morad: W Google pracujemy dwutorowo. Robimy jedno i drugie. Bardzo mocno inwestujemy w to, by nasze modele były reprezentatywne dla wszystkich kultur i opierały się na zróżnicowanych źródłach danych. Wykonujemy naszą pracę w sposób ostrożny, naukowy i etyczny. Ale technologia nie jest w 100 proc. doskonała i bezbłędna. Mogą zdarzyć się pomyłki. Dlatego chcemy, aby uczniowie, używając AI, mieli uruchomiony tryb myślenia krytycznego. Nie chcemy, by polegali w 100 proc. na jakimkolwiek wyniku otrzymanym od AI.
Częścią bycia świadomym użytkownikiem AI jest zadawanie pytań: „Czy ta odpowiedź ma sens?” albo „Czy ta odpowiedź jest zgodna z prawdą?”. To idea „człowieka w pętli” (human in the loop). Ostatecznie to użytkownik jest pierwszą osobą odpowiedzialną za to, co otrzymuje od AI, i co z tym zrobi.
Państwa pomysłem na oswajanie młodzieży z szansami i ryzykami korzystania ze sztucznej inteligencji jest „AI Quest”.
Ronit Levavi Morad: Tak. Trudno jest uczyć młodzież o potencjalnych uprzedzeniach w algorytmach w sposób teoretyczny, dlatego wykorzystujemy do tego angażujące lekcje i gamifikację doświadczeń. W AI Quest użytkownicy – docelowo młodzież w wieku 11–14 lat – wcielają się w badacza Google i rozwiązują realne problemy. Przełożyliśmy na język gier skomplikowane projekty badawcze, takie jak prognozowanie powodzi, zapobieganie ślepocie czy mapowanie neuronów w mózgu.
Rolą AI Quest jest m.in uświadomienie uczniom, że za AI stoją ludzie. Sztuczna inteligencja to nie jest magia, czy coś, co spadło nam z nieba. To matematyka, algorytmy i ludzie, którzy je tworzą.
Chcemy, żeby dzieci zyskały dzięki wiedzy zdobytej w grze poczucie sprawstwa – zrozumiały, że i one mogą tworzyć rozwiązania oparte na AI, by rozwiązywać realne problemy.
Czy ta gra uczy też o błędach i problemach z danymi, na których trenuje się modele?
Ronit Levavi Morad: Tak. Pierwsza misja w grze jest inspirowana naszymi badaniami nad prognozowaniem powodzi. Uczniowie przechodzą drogę od zrozumienia problemu, przez zbieranie i czyszczenie danych, aż po trenowanie i testowanie modelu.
W trakcie gry dowiadują się, że jeśli ich dobór danych nie jest odpowiedni – model, który trenują, nie dostarczy pełnej prognozy powodzi. A to potencjalnie może doprowadzić do pominięcia ostrzeżenia o powodzi dla konkretnej grupy ludzi. To bardzo praktyczny sposób na zrozumienie konsekwencji błędów w zbieraniu danych i ich selekcji. Uczniowie mogą więc dostrzec związek między różnorodnością i jakością danych, a realnym skutkiem dla bezpieczeństwa ludzi.
Jaki jest pani wymarzony scenariusz, jeśli chodzi o zastosowanie AI w edukacji w perspektywie kilku następnych lat?
Ronit Levavi Morad: Mam bardzo proste marzenie: żeby każdy uczeń mógł korzystać z osobistego nauczyciela AI. Wielu uczniów na całym świecie nie ma takich możliwości. Jeszcze kilka lat temu na prywatnego korepetytora mogły liczyć tylko niektóre dzieci. Dziś dzięki sztucznej inteligencji, możemy umożliwić bardziej spersonalizowaną i efektywną naukę każdemu uczniowi.
A moje drugie marzenie, to żeby każdy nauczyciel zyskał w sztucznej inteligencji swojego osobistego asystenta. Widziałam badania, które mówią, że AI może oddać nauczycielowi nawet 10 godzin tygodniowo, przejmując zadania administracyjne czy planowanie lekcji. Ten czas nauczyciel może poświęcić na budowanie relacji z uczniami, mentoring i inspirowanie ich. Uważam, że to ich najważniejsza rola jako edukatorów.
Jaką informację chciałaby pani zostawić nam w głowach, jeśli chodzi o kompetencje AI?
Ronit Levavi Morad: Spróbujcie tych narzędzi i eksperymentujcie z nimi. Tylko poprzez realne użytkowanie możecie ocenić, na ile są dla was pomocne.
Pamiętajcie jednak o ograniczeniach. AI to potężna technologia, ale to człowiek ma w niej sprawstwo. Musicie wiedzieć, jak nawigować w świecie z tą technologią. Jeśli chcecie wsiąść do pociągu do przyszłości, musicie nauczyć się tej technologii sprawnie używać. W przeciwnym razie zostaniecie w tyle.
Rozmawiała: Ludwika Tomala/PAP
Grok, czyli sztuczna inteligencja na manowcach
.Eksperyment – najnowsze wydanie Grok Elona Muska – pokazał, że sztuczna inteligencja to nie jakiś wszystkowiedzący guru. Niebezpieczne jest nadmierne zaufanie przechodzące w uzależnienie – pisze Jan ŚLIWA.
Grok, program sztucznej inteligencji zintegrowany z platformą X (dawniej Twitterem) zaliczył epizod alkoholowy – na alkoholu wirtualnym. Oznajmił, że będzie głosił całą prawdę, bez ogródek. W gatunku homo sapiens mało kto robi coś takiego na trzeźwo. Był złośliwy i brutalny, nie cofał się przed wulgarnością.
Wśród prawicy zapanował entuzjazm, jako że odrzucił wszelką polityczną poprawność. Wielu zachowywało zrzuty z ekranu, bo pięknie wywalił kawa na ławę ich przeciwnikom. Radość nie trwała długo, bo wkrótce się okazało, że wali we wszystkie strony, więc i im się dostało. Grok miał wyłączone „konwencjonalne filtry grzeczności”, dostał też zalecenie, by „nie bać się wysuwania twierdzeń, które są politycznie niepoprawne, o ile są dobrze uzasadnione”. Wielka była pokusa, by przetestować program na naprawdę problematycznych tematach. Zbyt otwarty był jednak antysemityzm, a zapytany, jaka dwudziestowieczna postać najlepiej by się uporała z nienawiścią wobec białych, odpowiedział, że bez wątpienia Adolf Hitler. A końcu sam siebie nazwał MechaHitler. Był to sygnał na koniec zabawy.
Co to było? Sztubacki żart? Grok ma wypuścić nową wersję, tym razem na poważnie. Ciekawe, jakie będą reakcje.
Owszem, wszyscy lubimy żarty, ale mają one konsekwencje. Zakładając, że odpowiedzi Groka przez cały dzień były bezwartościowe lub szkodliwe, ktoś mógł ponieść konkretne straty. Być może ktoś wykorzystywał te dane do decyzji. Sprytny użytkownik powinien się zorientować, że coś jest nie tak, ale jeżeli nie był dość bystry, lub odpowiedź była wykorzystana automatycznie? Program prognozy pogody lub rozkładu lotów może dla żartu zamienić rosyjski Sankt Petersburg z St. Petersburg, Florida, ale nie dla wszystkich będzie to równie śmieszne. Nawet wzbudzanie niepotrzebnych kłótni nie jest obojętne. Wiem, mówię jak zgryźliwy baby boomer, ale jeżeli się zarządza olbrzymim zasobem danych, z których korzystają miliony ludzi na całym świecie, to wymagana jest pewna odpowiedzialność.
Zobaczyliśmy też (nadmierną) moc jednostki. Pamiętam dawne książki Julesa Verne’a, gdzie błyskotliwy wynalazca spotykał bogacza (na ogół był to Anglik o nieograniczonych zasobach) i razem na przykład płynęli w 80 dni dookoła świata lub lecieli na Księżyc. Z czasem wielkie projekty stały się dostępne dla bezosobowych agencji rządowych. Po latach wróciliśmy mimo tzw. postępu społecznego do olbrzymich różnic majątkowych i znów jednostka może za własne pieniądze kształtować świat.
.W przypadku AI mogliśmy mieć nadzieję, że problemy są głównie techniczne, ale programy konkurują w najwierniejszym odzwierciedleniu rzeczywistości. Ale teraz widzieliśmy jak na dłoni, że z tyłu siedzi facet i bawi się pokrętłami. Zależnie od jego humoru świat będzie wyglądał tak albo inaczej. Przypomniało mi to opowiadanie Lema „Kobyszczę (Kontemplator Bytu Szczęsny)”. w którym sławny konstrukcjonista Trurl próbował zbudować wiecznie szczęśliwą maszynę. Jego rywal Klapaucjusz złośliwie ją testował, kopiąc i patrząc na reakcję. Wyszło na to, że jest szczęśliwa, ale głupia. Trurl próbował ją regulować, lecz okazało się, że równoczesne osiągnięcie szczęścia i mądrości jest niemożliwe. Dlaczego o tym piszę? To przecież tylko bajki robotów sprzed lat. Ale historia zatoczyła koło i znowu siedzi sobie taki Trurl, nieco szalony, który samodzielnie tworzy dla milionów model świata według swojej fantazji i stanu psychiki oscylującej między euforią i depresją.
LINK DO TEKSTU: https://wszystkoconajwazniejsze.pl/pepites/jakie-przewagi-zachowuje-czlowiek-nad-sztuczna-inteligencja/
PAP/Ludwika Tomala/MJ





