Szef Google nie może spać w nocy z obawy przed kierunkiem rozwoju Sztucznej Inteligencji

Google

Szef firmy Google Sundar Pichai przyznał, że obawy związane ze sztuczną inteligencją nie dają mu spać w nocy, a technologia ta może być „bardzo szkodliwa”, jeśli zostanie źle wdrożona.

Szef Google

.W rozmowie z programem „60 Minutes” w amerykańskiej stacji CBS Pichai wezwał również do stworzenia globalnych ram regulacyjnych dla sztucznej inteligencji (AI), podobnych do traktatów zawartych w sprawie bron jądrowej, ponieważ – jak ostrzegł – rywalizacja o wyprodukowanie bardziej zaawansowanej technologii może prowadzić do odsuwania na bok obaw związanych z bezpieczeństwem.

„Może być bardzo szkodliwa, jeśli zostanie źle wdrożona i nie mamy jeszcze wszystkich odpowiedzi – a technologia porusza się szybko. Więc czy to nie pozwala mi spać w nocy? Absolutnie” – powiedział.

Będący właścicielem Google’a, konglomerat Alphabet Inc. w marcu uruchomił chatbota Bard, odpowiadając na globalną popularność ChatGPT, opracowanego przez amerykańską firmę technologiczną OpenAI, który został zaprezentowany w listopadzie zeszłego roku.

Pichai powiedział, że w miarę rozwoju AI rządy będą musiały wymyślić globalne ramy dla jej regulacji. W marcu tysiące ekspertów od sztucznej inteligencji, badaczy i jej zwolenników, w tym właściciel Twittera Elon Musk, podpisało list wzywający do wstrzymania tworzenia „gigantycznych” sztucznych inteligencji na co najmniej sześć miesięcy w związku z obawami, że rozwój technologii może wymknąć się spod kontroli.

Możliwe zagrożenie

.Zapytany, czy uregulowania jakie dotyczą broni jądrowej mogłyby być potrzebne, Pichai powiedział: „Potrzebowalibyśmy tego”.

Technologia AI użyta w ChatGPT i Bard, znana jako Large Language Model, jest szkolona na ogromnym zbiorze danych pobranych z internetu i na zadane przez użytkowników pytania jest w stanie wygenerować wiarygodne odpowiedzi w różnych formatach, od wierszy do esejów akademickich i kodów oprogramowania.

Pichai zauważył, że AI może wyrządzić szkody poprzez swoją zdolność do wytwarzania dezinformacji. „Z AI będzie możliwe łatwo stworzyć wideo, w którym Scott (Pelley, prowadzący wywiad w CBS) mówi coś, albo ja mówię coś, czego nigdy nie powiedzieliśmy. I mogłoby to wyglądać realistycznie. Ale wiesz, na skalę społeczną, wiesz, może to spowodować wiele szkód” – wyjaśnił.

Zapewnił, że wersja sztucznej inteligencji upubliczniona przez Google’a poprzez chatbota Bard jest bezpieczna, a firma wstrzymała bardziej zaawansowane wersje Barda do testów.

Jak działa sztuczna inteligencja Google?

.Pichai przyznał, że Google nie do końca rozumie, jak jego technologia AI produkuje pewne odpowiedzi. „Jest pewien aspekt tego, który nazywamy, wszyscy w tej dziedzinie nazywają, czarną skrzynką. Wiesz, nie rozumiesz w pełni. I nie możesz do końca powiedzieć, dlaczego ona powiedziała to, albo dlaczego się pomyliła” – mówił.

Zapytany, dlaczego Google upubliczniło Barda, skoro nie do końca rozumie jak działa, Pichai odpowiedział: „Pozwól mi to ująć w ten sposób. Nie sądzę, że my też w pełni rozumiemy, jak działa ludzki umysł”.

Pichai przyznał, że społeczeństwo nie wydaje się być gotowe na szybkie postępy w AI. Powiedział, że „wydaje się, że istnieje niedopasowanie” między tempem, w jakim społeczeństwo myśli i dostosowuje się do zmian, w porównaniu z tempem, w jakim AI się rozwijała.

Dodał jednak, że przynajmniej ludzie szybciej stali się czujni na jej potencjalne zagrożenia. „W porównaniu z każdą inną technologią, widziałem więcej ludzi zaniepokojonych nią na wcześniejszym etapie jej cyklu życia. Czuję się więc optymistycznie” – przekonywał.

Czy roboty mogą zagrozić człowiekowi?

.Doktor nauk politycznych, Elisabeth de CASTEX, na łamach „Wszystko co Najważniejsze” twierdzi, że: „Wielu zastanawia się, czy jest zgodne z naszym wyobrażeniem godności ludzkiej to, że pewnego dnia jakiś robot będzie na tyle autonomiczny, by przyjąć odpowiedzialność za decyzję o strzale czy odpaleniu ładunku wybuchowego. Zasada, że ostateczna decyzja zawsze ma należeć do człowieka, wciąż jednak jest w tym zakresie dominantą w dyskursie publicznym. To oczywiste, że człowiek kontroluje maszynę, ale pozostaje pytanie, jak dzieli się z nią tą kontrolą, na jakim etapie, z jakiej odległości. Oprócz problemów natury moralnej związanych z upowszechnianiem tego typu broni pojawiają się również inne kwestie: ryzyko błędów związanych z rzeczywistymi zdolnościami algorytmów do odróżniania żołnierza od żołnierza oraz żołnierza od cywila, problemy bezpieczeństwa, na które te maszyny mogą być narażone, tj. hacking, przypadkowe lub celowe wyłączenie, konieczność zapewnienia „czerwonego przycisku” w nagłych wypadkach…”.

„Jaki zatem jest główny dylemat moralny związany z robotami-zabójcami? Robot, nawet autonomiczny, podobnie zresztą jak wszystkie inne maszyny, nigdy nie będzie moralny, tzn. nigdy nie będzie potrafił odróżnić dobra od zła i nadawać sensu swojemu działaniu. Siła robota ogranicza się jedynie do tego, co policzalne. Wszystko ponad wyliczenia jest ograniczeniem dla maszyny, niezdolnej do rozwiązania problemu moralnego czy do powzięcia intuicyjnego sądu przy braku pewności. Przymiotnik „moralny” w odniesieniu do robota określa nie sens działania wyznaczony przez wartości, ale praktyczne warunki, w których następuje podjęcie decyzji. Robot, który mógłby być akceptowalny dla wszystkich, to taka maszyna, która działa neutralnie na podstawie algorytmu i której decyzje są zawsze klarowne i zrozumiałe. Dziś jednak tak się nie dzieje” – pisze Elisabeth de CASTEX w tekście „Roboty-zabójcy a moralność i godność człowieka„.

PAP/Bartłomiej Niedziński/WszystkocoNajważniejsze/eg

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 18 kwietnia 2023