Sztuczna Inteligencja zaoferuje rozwiązania, o których człowiek by nie pomyślał

Sztuczna inteligencja nie jest obecnie w stanie rozwiązać złożonych kwestii, ale staje się w tym coraz lepsza i należy zacząć się martwić, jeśli pokona i tę przeszkodę – ocenił Geoffrey Hinton z Uniwersytetu w Toronto, laureat Nagrody Nobla w dziedzinie fizyki i jeden z ojców chrzestnych AI. Przyszłość AI niewątpliwie obejmie tym samym rozwiązywanie złożonych problemów.
Przyszłość AI. Złożone problemy nie będą dla niej wyzwaniem
.Jaka będzie przyszłość AI? W wystąpieniu podczas Toronto Tech Week, cytowanym przez agencję The Canadian Press, Geoffrey Hinton podkreślił, że AI radzi sobie z prostymi problemami, a także z nieco bardziej złożonymi, choć wówczas zabiera to jej więcej czasu. „Jeśli przedstawiasz trudniejszy problem (…) i (AI) tego nie rozumie, ludzie używają tego argumentu, by powiedzieć, że «to w istocie nie potrafi w ogóle rozumować»” – zauważył.
Ludzie powinni zacząć się martwić, gdy AI przekroczy swoje obecne ograniczenia – zaznaczył w rozmowie z Nickiem Frosstem, swoim byłym studentem i współtwórcą firmy Cohere, zajmującej się AI. „Wszyscy będziemy mieli bardzo sprytnych pomocników AI (…) Jest też jednak kwestia tego, czy kiedy te rzeczy staną się sprytniejsze od nas, będą nas potrzebować” – dodał. Według Geoffrey’a Hintona ten etap pojawi się, gdy sztuczna inteligencja będzie w stanie oferować rozwiązania, o których człowiek by nie pomyślał, i będzie wygrywać każdą dyskusję.
W ocenie Geoffrey’a Hintona duże modele językowe (LLM), na których opiera się technologia AI, doprowadzą do zautomatyzowania nawet 80 proc. pracy wykonywanej przy komputerze; Frost uważa, że automatyzacja będzie dotyczyć 20-30 proc. pracy. W ubiegłym tygodniu prezes Amazon Andy Jassy przekazał pracownikom, że firma będzie zwalniać pracowników w miarę poszerzania wykorzystania narzędzi AI. Jednocześnie zapewnił, że będą potrzebni pracownicy wykonujący inne rodzaje pracy.
Sztuczna inteligencja podniesie stopę bezrobocia do 20 proc.?
.Wcześniej prezes firmy Anthropic Dario Amodei mówił, że w ciągu pięciu lat AI może wyeliminować nawet połowę prostych prac biurowych, wykonywanych obecnie przez najmłodszych pracowników, i podnieść stopę bezrobocia do 20 proc. Anthropic to firma, która opracowała model językowy Claude, konkurencyjny wobec ChatGPT oferowanego przez OpenAI, Gemini autorstwa Google i Llama opracowanego przez Meta.
Geoffrey Hinton, który często wskazuje na zagrożenia związane z AI, podkreślił, że AI już przekroczyła poziom umiejętności, które spodziewano się, że osiągnie w 2025 roku. Kiedy AI osiągnie etap pozwalający na rozwiązywanie złożonych problemów, technologia ta może wiązać się z zagrożeniami takimi jak bezrobocie, dyskryminacja, błędy poznawcze, bańki informacyjne, fałszywe informacje, a nawet tworzenie broni, w tym biologicznej – ostrzegł.
W jego ocenie właśnie dlatego konieczny będzie nacisk opinii publicznej na tworzenie skutecznych regulacji, które powstrzymają zapędy firm technologicznych. W jednym z podcastów Geoffrey Hinton powiedział, że jeszcze dużo czasu minie, nim AI stanie się wystarczająco sprawna np. w posługiwaniu się przedmiotami. Jego rada dla szukających miejsca pracy, któremu AI nie zagrozi, brzmi: „ucz się na hydraulika”. Przyszłość AI tym samym jego zdaniem będzie wiązała się tylko z dalszym wzrostem znaczenia tej technologii.
Jakie błędy popełnia AI?
.Wśród błędów popełnianych przez AI jest np. niepoprawne interpretowanie informacji i pomijanie informacji. W czerwcu badacze z Massachusetts Institute of Technology (MIT) opublikowali pracę, w której wyjaśnili, jak powstają błędy AI w rozumieniu dłuższych dokumentów. Podali przykład wirtualnego asystenta prawnika, który ma przeanalizować 30-stronicowy dokument i znaleźć konkretne sformułowanie. LLM znajdzie żądane sformułowanie, jeśli znajduje się ono na jednej z pierwszych lub jednej z ostatnich stron dokumentu. Badacze odkryli, że do takich błędów może prowadzić istniejąca architektura modeli językowych w części dotyczącej przetwarzania danych. Problem ten może się nasilać za sprawą danych dostarczanych asystentowi w ramach szkolenia. W efekcie AI może dostrzegać pewne dane w analizowanych dokumentach, a innych – nie.
LLM bazują na typowych dla danego języka połączeniach, częstości występowania słów i strukturze zdań. Komunikat MIT cytował współautorkę badania, doktorantkę Xinyi Wu, która wyjaśniła, że często początkowe końcowe słowa są w zdaniu najważniejsze, jednak zastosowanie LLM do innego typu analiz, w których chodzi np. o wyszukanie informacji, sprawia, że pojawiają się błędy.
Nieunikniona rewolucja AI
.Na temat tego jakie szanse i zagrożenia niesie coraz bardziej postępujący rozwój sztucznej inteligencji, na łamach „Wszystko Co Najważniejsze” pisze David LISNARD w tekście „ChatGPT. Problem jest w innym miejscu”.
„Radykalna innowacja z natury niesie ze sobą wielkie ryzyko, proporcjonalne do możliwości, jakie stwarza. U zarania pojawienia się sztucznej inteligencji uczelnia Sciences Po – podobnie jak uczelnie w Nowym Jorku – zabroniła korzystania z niej. Jeśli w świetle ogromu czekających nas wstrząsów obawy są uzasadnione, rozwiązań nie znajdziemy w odrzuceniu, przejawiającym się w skrajnym przypadku ideą spowolnienia gospodarczego, które nie oferuje żadnej wiarygodnej alternatywy i proponuje świat bez innowacji, naznaczony strachem i wycofaniem, społeczeństwo, w którym każdy powinien zredukować swój byt: mniej podróżować, mniej pracować, mniej działać, mniej tworzyć. Mniej żyć”.
„To śmiercionośny projekt polityczny. Musimy pozostać wierni naszym zasadom, które jako jedyne mogą kierować naszymi wyborami w burzliwych czasach: wolność jako nadrzędna wartość, odpowiedzialność jako nieuchronne następstwo wolności, kultura i krytyczne myślenie jako źródła indywidualnej emancypacji i zbiorowej więzi, godność ludzka jako ostateczny i ontologiczny cel”.
.„Innowacyjność jest nierozerwalnie związana z życiem, z ludzkością, a teraz z jej przetrwaniem w obliczu wyzwania ekologicznego. Sprzeciw wobec rewolucji AI byłby daremny. Możemy aspirować do rozwijania nauki i świadomości. Taka jest rola polityki. W kwestii sztucznej inteligencji tą świadomością jest wiedza o pochodzeniu treści, o przejrzystości informacji dotyczących narzędzia i jego ograniczeń” – pisze David LISNARD.
LINK DO TEKSTU: https://wszystkoconajwazniejsze.pl/david-lisnard-chatgpt-we-francji/
PAP/Anna Lach/MJ