Nowe enzymy zaprojektuje IA - Stanford University

Sztuczna inteligencja może zastąpić wielomiesięczne, żmudne eksperymenty, w których poszukiwane są nowe enzymy. Cząsteczki tego typu wykorzystuje się w medycynie, gospodarstwach domowych i rozlicznych gałęziach przemysłu.

Sztuczna inteligencja może zastąpić wielomiesięczne, żmudne eksperymenty, w których poszukiwane są nowe enzymy. Cząsteczki tego typu wykorzystuje się w medycynie, gospodarstwach domowych i rozlicznych gałęziach przemysłu.

Nowe enzymy zaprojektowane przez komputerowy system

.Enzymy to naturalne, zwykle białkowe katalizatory, które w przyrodzie regulują przebieg różnorodnych reakcji, z których trawienie pokarmu to tylko jeden z niezliczonych przykładów. Od lat badane są przez naukowców i wykorzystywane przez przemysł. Mogą pomagać w medycznych terapiach, usuwaniu toksyn, przyspieszaniu różnorodnych reakcji chemicznych, wychwytywaniu dwutlenku węgla czy choćby usprawnianiu prania. Teraz poszukiwane są nowe enzymy do konkretnych zastosowań może stać się nieporównanie prostsze niż dotychczas.

Otóż zespół bioinżynierów z Stanford University (USA) opracował komputerowy system, który pozwala na projektowanie tysięcy nowych enzymów, przewidywanie ich zachowania w rzeczywistych warunkach oraz testowanie ich działania w różnych reakcjach chemicznych.

„Opracowaliśmy proces komputerowy, który pozwala nam projektować enzymy znacznie szybciej. Nie musimy już wykorzystywać żywych komórek do ich produkcji, jak ma to miejsce obecnie. Zamiast tego wykorzystujemy uczenie maszynowe do przewidywania wysoce aktywnych enzymów projektowanych na podstawie zmutowanych sekwencji DNA, które są modelowane w komputerze, a nie tworzone ręcznie w laboratorium. Dzięki temu możemy przeprowadzać te eksperymenty w ciągu kilku dni, zamiast tygodni czy – jak często bywa – miesięcy” – mówi prof. Michael Jewett, autor badania opisanego na łamach „Nature Communications”.

Prof. Jewett i jego współpracownicy zastosowali podejście znane jako kierowana ewolucja. Skracają oni proces, przez który natura przechodziła przez miliony lat, gdy DNA mutowało przypadkowo, prowadząc w niektórych przypadkach do powstania nowych enzymów.

„Ewolucja kierowana to dziedzina rozwijana od dziesięcioleci, która pozwala na zmienianie aminokwasów w celu modyfikacji funkcji białka. My jedynie przyspieszamy ten proces, wykorzystując uczenie maszynowe i komputery” – wyjaśnił. 

Nowe enzymy – przebieg tworzenia

.W procesorach dzieje się więc to, co do tej pory wymagało użycia żywych komórek. Aby udowodnić działanie swojej metody, badacze wykorzystali ją do syntezy małocząsteczkowego leku, osiągając 90 proc. wydajności. Wcześniej wydajność ta osiągała ok. 10 proc. 

Pokazali też, że nowe to zastosować do równoległego projektowania wielu wyspecjalizowanych enzymów, co umożliwiło produkcję ośmiu dodatkowych terapeutyków.  Obecnie poszukują partnera biznesowego, który pomógłby w dalszym rozwoju modelu.

„Możemy zbadać wiele możliwości wykorzystania tego podejścia w obszarze zrównoważonego rozwoju i bioekonomii. Można pomyśleć o klasach molekuł, które degradują toksyny w środowisku, zwiększają biodostępność żywności bogatej w białko lub takich, które usprawniają istniejące procesy wymagające wysokich ciśnień, kosztownych komponentów czy toksycznych reakcji, czyniąc je szybszymi, bezpieczniejszymi i tańszymi” – mówi prof. Jewett.

Na łasce kodu i sieci

.Cywilizacja naukowo-techniczna doszła do sytuacji, w której internet stał się dla całego systemu społecznego ludzkości głównym źródłem podatności na zagrożenia – pisze prof. Andrzej ZYBERTOWICZ na łamach „Wszystko co Najważniejsze”.

Dnia 19 lipca 2024 r. miała miejsce wielka awaria Microsoftu. Przerwane zostało normalne funkcjonowanie bankowości i usług finansowych, lotnictwa, kolei, służby zdrowia, mediów, handlu elektronicznego, logistyki, instytucji edukacyjnych, administracji publicznej i sektora non profit. Odwołano tysiące lotów, wiele pociągów, wstrzymano zaplanowane zabiegi medyczne, zawieszono transakcje finansowe i handlowe, przestały nadawać niektóre stacje telewizyjne, w niektórych stanach USA nie działały telefony alarmowe 911. Zaburzenia wystąpiły w wielu krajach Europy, Azji, obu Ameryk, Afryki i Australii. 

Zdaniem niektórych ekspertów jest to największa awaria, jaka kiedykolwiek nastąpiła w sektorze technik informatycznych. Firma CrowdStrike, dostarczająca systemy bezpieczeństwa dla systemu Windows, bezpośrednio odpowiedzialna za awarię, ogłosiła, że nie było ataku hakerskiego, lecz nastąpiła wadliwa aktualizacja oprogramowania. Błędny odcinek kodu w aktualizacji został – zapewne bez wcześniejszego testowania – wysłany do licznych klientów na całym świecie. Według danych Microsoftu awarii uległo ok. 8,5 mln komputerów, czyli poniżej 1 proc. wszystkich urządzeń z systemem Windows. Ponieważ jednak były to komputery obsługujące systemy infrastruktury, np. pracę lotnisk, to skutki dotyczyły ogromnej, trudnej do ustalenia liczby osób i instytucji.

Już 19 lipca dwóch amerykańskich znanych badaczy problematyki sztucznej inteligencji skomentowało tę awarię.

Gary Marcus, emerytowany profesor Uniwersytetu Nowojorskiego, napisał: „Przebudźcie się. Jeśli jeden błąd może sparaliżować linie lotnicze, banki, sprzedawców detalicznych, media i nie tylko, to dlaczego uważacie, że jesteśmy gotowi na AGI [ogólną sztuczną inteligencję]? (…) Nieuregulowana branża AI to przepis na katastrofę”. Profesor MIT, Max Tegmark zauważył sarkastycznie: „Dzięki nienagannej kulturze bezpieczeństwa, która nie pozwala, by coś wdrażać, zanim zostanie odpowiednio przetestowane, jestem pewien, że Microsoft jest gotowy, aby bezpiecznie zarządzać inteligentniejszą od człowieka sztuczną inteligencją, którą próbuje zbudować z OpenAI”.

Zróbmy mały eksperyment myślowy: jakie skutki przyniosłaby ta awaria, gdyby nastąpił taki oto przypadkowy zbieg wydarzeń. 

Przeprowadzony 13 lipca 2024 r. zamach na Donalda Trumpa kończy się jego śmiercią. Bardzo spolaryzowana amerykańska opinia publiczna staje na krawędzi histerii; obsesje spiskowe rozkręcają się do granic możliwości, a powszechny dostęp do broni przyczynia się do wybuchów przemocy. Z kolei gdy 19 lipca następuje awaria, zbiegają się z nią w czasie ataki terrorystyczne w Europie i agresywne posunięcia w wojnie hybrydowej Rosji z Zachodem. Do gry włączają się różnej maści hakerzy, np. próbując szantażem wyłudzić pieniądze od różnych instytucji, co jeszcze bardziej pogłębia zamieszanie.

Jaką skalę destabilizacji mielibyśmy wtedy? Jak zareagowałyby na kryzysową sytuację Zachodu niektóre autorytarne państwa spoza Europy? U progu jakiej wielkiej wojny świat mógłby się znaleźć? Kto wtedy byłby w stanie włączyć hamulec?

Co zatem awaria Microsoftu mówi nam o kondycji cywilizacji, do której technoentuzjaści tak ochoczo zapraszają sztuczną inteligencję? By na to pytanie odpowiedzieć, sięgam po pojęcie architektury rozumiane w kontekście inżynierskim, czyli jako sposób zaprojektowania jakiegoś działającego systemu. By w uproszczeniu uchwycić całościowy obraz, wyróżniam trzy poziomy owej architektury: 1. poszczególne komputery, 2. sieci, w których one pracują; na najwyższym poziomie jest to internet, 3. cała obecna cywilizacja.

W projektowaniu systemów inżynierskich obowiązuje zasada, że mają być one foolproof, czyli dosłownie: odporne na głupotę. Idzie o takie projektowanie urządzeń, by minimalizować ryzyko błędów lub niewłaściwego użycia przez osoby nietechniczne lub niedoświadczone. Niemniej komputery mają miejsca konstrukcyjnie wrażliwe, swoje pięty achillesowe, których uszkodzenie przynosi awarię całości. Chodzi o to, by takich punktów w konstrukcji było jak najmniej i aby dla zwykłego użytkownika były one trudno dostępne.

.Fachowcy posługują się określeniem „pojedynczy punkt awarii” (ang. Single Point of Failure, SPOF), który jest właśnie jakiegoś systemu piętą achillesową. To znaczy, że awaria w tym punkcie powoduje przerwanie działania całego systemu lub utratę podstawowych jego funkcjonalności. Konstruktorzy starają się uniknąć obecności takich punktów, m.in. stosując redundancję, tj. tworząc układy zapasowe, umożliwiające działanie całości w razie awarii wrażliwego ogniwa. Przykładem jest zdublowanie układu hamulcowego w samochodzie. Zarazem wiadomo, że nie można zbudować systemu w stu procentach odpornego na błędy. By obniżyć koszty, w praktyce często rezygnuje się z redundancji. Zyski lub szybkość działania przedkłada się nad bezpieczeństwo. To właśnie staje się jednym z przekleństw rewolucji cyfrowej – cały tekst [LINK].

PAP/ Marek Matacz/ WszystkocoNajważniejsze/ LW

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 24 stycznia 2025