Sztuczna inteligencja to nie tylko ChatGPT

Sztuczna inteligencja kojarzy się ze wspieranym przez Microsoft ChatemGPT firmy OpenAI. Jednak to nie jedyne dostępne narzędzie bazujące na AI. Sztuczna inteligencja to zróżnicowana i szybko rozwijająca się dziedzina. Jest już wykorzystywana w nauce, edukacji, medycynie, finansach czy ochronie środowiska.

Sztuczna inteligencja kojarzy się ze wspieranym przez Microsoft ChatemGPT firmy OpenAI. Jednak to nie jedyne dostępne narzędzie bazujące na AI. Sztuczna inteligencja to zróżnicowana i szybko rozwijająca się dziedzina. Jest już wykorzystywana w nauce, edukacji, medycynie, finansach czy ochronie środowiska.

Sztuczna inteligencja i jej wykorzystanie

.Uczenie maszynowe (machine learning), kluczowy element AI, wykorzystuje algorytmy, aby umożliwić systemom naukę oraz doskonalenie na podstawie danych bez konieczności programowania bezpośrednich instrukcji. Z kolei uczenie głębokie (deep learning), podzbiór uczenia maszynowego, wykorzystuje sieci neuronowe inspirowane ludzkim mózgiem.

Uczenie maszynowe i uczenie głębokie to główne motory rozwoju sztucznej inteligencji. Narzędzia takie jak TensorFlow i PyTorch umożliwiają programistom tworzenie i trenowanie złożonych sieci neuronowych do zadań takich jak rozpoznawanie obrazów, przetwarzanie mowy i tłumaczenie języków.

AI to także narzędzia służące do przetwarzania języka naturalnego (NLP), które umożliwiają maszynom rozumienie, interpretowanie i generowanie tekstu podobnego do ludzkiego. Chatboty i wirtualni asystenci NLP, usprawniają obsługę klienta i automatyzują komunikację.

Sztuczna inteligencja i zastosowanie w widzeniu komputerowym

.Sztuczna inteligencja ma również zastosowanie w tzw. widzeniu komputerowym – jest wykorzystywana do analizy obrazów i wideo, wykrywania obiektów i rozpoznawania twarzy. Narzędzia tego rodzaju znalazły zastosowanie m.in. w medycynie, motoryzacji czy systemach bezpieczeństwa.

Natomiast modele generatywne, takie jak GPT (Generative Pre-trained Transformer), są w stanie generować tekst i treść przypominającą wytworzoną przez człowieka. Wykorzystuje się je przy tworzeniu i pisaniu treści, a także przy opracowywaniu programów konwersacyjnych.

AI to również programy wykorzystujące algorytmy uczenia się przez wzmacnianie. Mają one zastosowanie w systemach autonomicznych, robotyce i grach. Narzędzia te potrafią uczyć się metodą prób i błędów, usprawniając procesy decyzyjne w dynamicznych środowiskach.

Kolejnym rozwiązaniem ze sfery sztucznej inteligencji jest edge AI, w którym algorytmy AI implementuje się bezpośrednio na urządzeniu zbierającym dane (np. kamerze czy okularach rozszerzonej rzeczywistości).

AI w medycynie, biznesie i ochronie bezpieczeństwa

.Narzędzia AI są coraz częściej wykorzystywane w opiece zdrowotnej do zadań takich jak analiza obrazowania medycznego, diagnozowanie chorób i tworzenie leków. Naukowcy wykorzystują sztuczną inteligencję również do walki z utratą bioróżnorodności – za pomocą AI analizują dane, monitorują ekosystemy oraz wskazują tendencje na przestrzeni czasu. AI ma też zastosowanie w biznesie i finansach: narzędzia AI są wykorzystywane do analizy danych, wykrywania oszustw, oceny ryzyka i zarządzania relacjami z klientami.

Najnowszym narzędziem AI stworzonym przez firmę Google, która rywalizuje z Microsoftem, jest Gemini, stworzony w ramach DeepMind AI.

Google określiło Gemini jako swoje największe i najpotężniejsze jak dotąd narzędzie oraz pierwszy model sztucznej inteligencji, który przewyższył ludzkich ekspertów w teście porównawczym Massive Multitask Language Understanding (MMLU). Google twierdzi, że Gemini przeszło szeroko zakrojone testy bezpieczeństwa sztucznej inteligencji, korzystając z narzędzi obejmujących zestaw „wskaźników rzeczywistej toksyczności” opracowanych przez Allen Institute for AI z siedzibą w Seattle w celu oceny jego zdolności do identyfikowania, oznaczania i filtrowania toksycznych treści.

Sztuczna inteligencja – szanse i zagrożenia

.AI to jednak nie tylko szanse, ale też zagrożenia. Zwrócili na to uwagę biznesmeni, inwestorzy i eksperci AI, w tym m.in. Elon Musk, którzy w maju br. apelowali o co najmniej sześć miesięcy przerwy w rozwoju systemów sztucznej inteligencji. Była to reakcja na pojawienie się GPT-4, a także wyraz obaw o nieprzewidywalne skutki coraz potężniejszych narzędzi AI.

OpenAI i Microsoft zostały pozwane przez grupy właścicieli praw autorskich, w tym pisarzy Johna Grishama, George’a R.R. Martina i Jonathana Franzena, w związku z rzekomym niewłaściwym wykorzystaniem ich dzieł do szkolenia systemów sztucznej inteligencji. To kolejny problem związany z tymi narzędziami.

Wątpliwości budzi także brak prawnych uregulowań dotyczących AI. Gwałtowne postępy w dziedzinie AI komplikują wysiłki rządów mające na celu uzgodnienie przepisów regulujących korzystanie z tej technologii. Projekty ustaw są nadal tworzone, a rola AI stanowi przedmiot dyskusji.

Bajki o sztucznej inteligencji i prawdziwe zagrożenia

.Sztuczna inteligencja to jeden z najbardziej gorących tematów na świecie. Oczy wszystkich skierowane są na ten wielki wynalazek w nadziei na osiągnięcie zysków. Na drugiej stronie medalu widnieją jednak zagrożenia, które niesie za sobą AI. Na ten temat wypowiada się profesor nauk matematycznych, Andrzej KISIELEWICZ.

„Obawa, że myślące maszyny czy też jakaś egzystująca w sieci sztuczna inteligencja zaatakują ludzi, opanują ludzką cywilizację, to na dzisiaj „bajki dla robotów”, żeby odwołać się do tytułu książki Lema; kompletna fantasmagoria. Jednym z „apostołów” tej fantasmagorii na polskim gruncie jest prof. Andrzej Zybertowicz (moje dyskusje z nim stały się zaczynem tego artykułu). Pomysł, żeby umożliwić programom takim jak GPT automatyczne uruchamianie jakichś procesów fizycznych, bez nadzoru człowieka, jest tak samo mądry, jak uzależnienie uruchomienia rakiet z głowicami atomowymi od rzutu monetą. Oczywiście nie da się wykluczyć, że ktoś gdzieś na taki pomysł wpadnie, ale zagrożeniem jest tu ludzka głupota, a nie sztuczna inteligencja. Realnie można mówić o zagrożeniach rozwojem specjalistycznych systemów AI, ale mieszanie do tego nazwy „sztuczna inteligencja” tworzy fałszywe wyobrażenia i odwraca uwagę od istoty zagrożenia. Należy więc mówić precyzyjniej o zagrożeniu dalszym rozwojem technologii informacyjnych. Jest ono realne, na tyle, na ile realne zagrożenia niesie ze sobą rozwój każdej nowej technologii – może być ona użyta w złych celach” – wyjaśnia profesor.

„Jednak (jak słusznie zwraca uwagę prof. Zybertowicz) rozwój nowych technologii informacyjnych niesie ze sobą również specyficzne zagrożenia, których nie ma w przypadku na przykład broni masowej zagłady. Jedno z nich to fakt, że rozwój ten zdaje się wymykać spod naszej kontroli, a jednocześnie zmieniać rewolucyjnie nasze życie społeczne, w kierunku, który bynajmniej nie wydaje się ani dobry, ani pożądany. Wizja, gdzie ludzie większość życia spędzają w świecie wirtualnym, przylepieni do laptopów i smartfonów czy z czymś w głowie, co zastąpi w przyszłości te urządzenia, ma charakter raczej przerażający. Dążymy w tym kierunku jakby wbrew naszej woli. Na potencjalnie katastrofalne zastosowanie programów typu GPT zwrócił z kolei uwagę mój kolega prof. Jerzy Surma” – dodaje profesor Andrzej Kisielewicz.

PAP/ Wszystko co Najważniejsza/ LW

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 14 grudnia 2023