
Wychowałem się w miłości do technologii
Gdy patrzę w przeszłość, wydaje mi się niezwykle dziwne, że był czas, kiedy myślałem, iż zagrożone są tylko pojedyncze istnienia ludzkie – pisze Eliezer YUDKOWSKY
.Mój ojciec mawiał, że gdyby obecny system obowiązywał sto lat temu, samochody zostałyby zdelegalizowane, aby chronić przemysł siodlarski.
„A Step Farther Out” Jerry’ego Pournelle’a, zbiór esejów, który przeczytałem w wieku dziewięciu lat, miał na mnie ogromny wpływ. Była to odpowiedź Pournelle’a na słowa Paula Ehrlicha i członków Klubu Rzymskiego, którzy w latach sześćdziesiątych i siedemdziesiątych twierdzili, że na Ziemi kończą się zasoby, a masowe klęski głodu czekają tuż za rogiem. Była to odpowiedź na tak zwane czwarte prawo termodynamiki Jeremy’ego Rifkina; odpowiedź na strach ludzi przed energią jądrową i próby poddania jej takim regulacjom, które doprowadziłyby do jej zapomnienia.
Dorastałem w świecie, w którym linie podziału między dobrymi i złymi były dość wyraźne. Nie był to czas apokaliptycznej, ostatecznej bitwy, ale bitwy, którą trzeba było toczyć wciąż na nowo, w której można było dostrzec historyczne echa sięgające rewolucji przemysłowej i w której można było zgromadzić historyczne dowody na rzeczywiste rezultaty.
Po jednej stronie stali naukowcy i inżynierowie, którzy przyczynili się do wzrostu poziomu życia od czasów średniowiecza i którzy swoją pracą wspierali takie „luksusowe” koncepcje, jak demokracja, wykształcone społeczeństwo, klasa średnia czy delegalizacja niewolnictwa. Po drugiej stronie stanęli ci, którzy niegdyś sprzeciwiali się szczepieniom przeciwko ospie, środkom znieczulającym podczas porodu, maszynom parowym i heliocentryzmowi: teologowie nawołujący do powrotu do doskonałej epoki, która nigdy nie istniała, starsi biali politycy zatwardziali w swoich przekonaniach, członkowie grup o szczególnych zainteresowaniach, którym groziła przegrana, oraz wielu, dla których nauka była zamkniętą księgą i którzy bali się tego, czego nie mogli zrozumieć.
Natomiast pośrodku starali się uplasować pretendenci do Głębokiej Mądrości, wypowiadający myśli o tym, że technologia jest korzystna dla ludzkości, ale tylko wtedy, gdy jest odpowiednio regulowana; twierdzący – wbrew brutalnym faktom historycznym – że nauka sama w sobie nie jest ani dobra, ani zła; powołujący uroczyście wyglądające komitety biurokratyczne mające ostentacyjnie zademonstrować ich ostrożność i czekający na aplauz. Jakby prawda zawsze była kompromisem. I jakby ktokolwiek mógł sięgnąć wzrokiem tak daleko w przyszłość. Czy ludzkość miałaby się lepiej, gdyby wykorzystanie ognia nastąpiło w wyniku szczerej, pełnej troski, publicznej debaty i gdyby powołano komisje, które nadzorowałyby jego użycie?
Kiedy zagłębiłem się w ten problem, zacząłem reagować alergicznie na wszystko, co pasowało do schematu: „Ale technologia niesie ze sobą zarówno ryzyko, jak i korzyści”. Domniemanie winy wiązało się albo z usiłowaniem zebrania odrobiny taniego poklasku, albo podejmowanymi ukradkiem próbami uregulowania technologii, tak aby popadła w zapomnienie. Tak czy inaczej ignorowanie historii jest ogromnie korzystne dla technologii, których ludzie kiedyś się obawiali.
Robin Hanson poruszył kiedyś temat powolnego zatwierdzania przez FDA leków dopuszczonych w innych krajach. Ktoś w zwrócił uwagę, że talidomid był sprzedawany w 50 krajach pod 40 nazwami, ale w USA rozprowadzono tylko niewielką jego ilość, dlatego choć na świecie 10 000 dzieci urodziło się z deformacjami [z powodu zażywania tego leku przez kobiety ciężarne – przyp. tłum.], to w USA było tylko 17 takich przypadków.
Lecz ilu ludzi zmarło z powodu powolnego zatwierdzania w USA leków, które zostały szybciej przyjęte w innych krajach, leków, których działanie nie było szkodliwe? Zadaję to pytanie, ponieważ właśnie w tej kwestii można próbować zbierać dane statystyczne, choć nie mówią one nic o lekach, które nigdy nie zostały stworzone z powodu zbyt długiego i kosztownego procesu zatwierdzania. Według niektórych źródeł dłuższy proces zatwierdzania leków przez FDA zapobiega 5000 poszkodowań rocznie, ponieważ w jego rezultacie odrzucane są leki uznane za szkodliwe. Jednocześnie proces ten powoduje w ciągu roku co najmniej 20 000 – 120 000 poszkodowań z powodu opóźnienia zatwierdzania leków korzystnych, które pozostają w opracowaniu i ostatecznie są dopuszczane do obrotu.
Zatem zasadna jest alergiczna reakcja na ludzi mówiących: „Ale technologia niesie ze sobą zarówno ryzyko, jak i korzyści”. Historia pokazuje, że nadmierny konserwatyzm często bierze górę – wiele cichych zgonów spowodowanych regulacjami przeważa nad kilkoma widocznymi zgonami wynikającymi z braku regulacji. Jeśli naprawdę grasz pośrodku, to dlaczego nie mówisz: „Ale technologia niesie ze sobą zarówno korzyści, jak i zagrożenia”?
Cóż, to i tak nie jest szczególnie negatywny opis złych bohaterów. (Choć należy nieco mocniej podkreślić, że nie są to źli mutanci, ale zwykłe istoty ludzkie działające w ramach innego światopoglądu, który stawia ich po słusznej stronie; niektórzy z nich z pewnością są bardziej kompetentni, inni mniej – a kompetencja ma duże znaczenie).
Nawet patrząc wstecz, nie sądzę, by moja dziecięca technofilia dawała mylny obraz złego bohatera czy kluczowego błędu. Ale zawsze o wiele łatwiej jest powiedzieć, czego nie należy robić, niż zrobić coś dobrze. Jednym z moich podstawowych błędów było przekonanie, że jeśli z całych sił starasz się unikać wszystkiego, co robią Źli, to znaczy, że jesteś Dobry.
Szczególnie szkodliwy, jak sądzę, był zły przykład dawany przez pretendentów do Głębokiej Mądrości, którzy próbowali znaleźć drogę pośrednią i uśmiechali się protekcjonalnie zarówno do technofilów, jak i technofobów, nazywając ich niedojrzałymi. W rzeczywistości jest to zła droga. W ogóle próby znalezienia drogi pośredniej są zazwyczaj błędne – Właściwa Droga nie jest kompromisem z czymkolwiek, lecz czystą manifestacją własnych kryteriów.
Ale przez to młodemu Eliezerowi trudniej było odejść od werdyktu, który był jednoznaczny z oskarżeniem, ponieważ każde odejście oznaczało dołączenie do pretendentów do Głębokiej Mądrości.
Pierwsza rysa na mojej dziecięcej technofilii pojawiła się chyba w 1997 lub 1998 roku, kiedy zauważyłem, że moi koledzy technofile niemądrze twierdzą, że nanotechnologia molekularna będzie łatwym do opanowania problemem. (Jak możecie ponownie zaobserwować, młodego Eliezera w ogromnym stopniu kształtowała umiejętność znajdowania wad – miałem nawet swoją osobistą filozofię, wyjaśniającą, dlaczego takie postępowanie było właściwe).
Sprawy związane z nanotechnologią to temat na osobny tekst. Toczyła się jednak wówczas debata na temat nanotechnologii molekularnej i tego, czy ofensywa byłaby łatwiejsza od obrony. Niektórzy twierdzili, że obrona byłaby łatwa. I to w dziedzinie nanotechnologii – tj. programowalnej materii, na miłość Boską – choć nie potrafimy nawet rozwiązać problemu bezpieczeństwa sieci komputerowych, w których możemy obserwować i kontrolować każdą jedynkę i każde zero. Ludzie mówili o ścianach z diamentu nie do obalenia. Zauważyłem, że diament nie powstrzyma broni jądrowej, że od 1945 r. środki ofensywne mają przewagę nad środkami obronnymi i nie wydawało się prawdopodobne, by nanotechnologia mogła to zmienić.
Zdaje się, że zanim debata dobiegła końca, młody Eliezer – pochłonięty gorączką sporu – zdołał po raz pierwszy spostrzec, że przetrwanie inteligentnego życia na Ziemi jest zagrożone.
Gdy patrzę w przeszłość, wydaje mi się niezwykle dziwne, że był czas, kiedy myślałem, iż zagrożone są tylko pojedyncze istnienia ludzkie. O ileż bardziej przyjazny był to świat… Choć wówczas tak tego nie postrzegałem. Nie tyle odrzucałem możliwość masowej zagłady, ile raczej udawało mi się jej w ogóle nie widzieć. Dostrzegłem ją dopiero, gdy jej temat pojawił się na wokandzie. Nie bardzo pamiętam, jak to było. Nie bez powodu mówię o swoim dawnym „ja” w trzeciej osobie.
Można by sądzić, że Eliezer1998 był kompletnym idiotą, ale w pewnym sensie byłoby to wygodne spojrzenie. Prawda jest straszniejsza. Eliezer1998 był zdecydowanym tradycyjnym racjonalistą w tych kwestiach. Wiedziałem, że hipotezy muszą być testowalne, wiedziałem, że racjonalizacja nie jest dozwoloną operacją umysłową, wiedziałem, jak grać w Tabu Racjonalisty, miałem obsesję na punkcie samoświadomości… Nie do końca rozumiałem pojęcie „tajemniczych odpowiedzi”… i w ogóle nie pojmowałem Bayesów czy Kahnemanów. Ale za to byłem zdecydowanym tradycyjnym racjonalistą, znacznie powyżej średniej… I co z tego? Natura nie ocenia nas według rozkładu normalnego. Jeden krok w stronę zejścia z Drogi, jedno tchnienie niewłaściwego wpływu na procesy myślowe – mogą znieść wszystkie zabezpieczenia.
Jedną z głównych lekcji, jakie wyciągam z mojej osobistej historii, jest świadomość, że nie ma nic dziwnego w tym, iż w prawdziwym świecie wiele osób uważa, że „inteligencja to nie wszystko” lub że racjonaliści nie radzą sobie lepiej w życiu. Odrobina racjonalizmu, a nawet duża jego porcja nie pokonuje astronomicznie wysokiej bariery, która jest konieczna, by rzeczy zaczęły działać.
Niech wina za moją błędną interpretację Właściwej Drogi nie spada na Jerry’ego Pournelle’a, mojego ojca czy ogólnie na science fiction. Sądzę, że osobowość młodego Eliezera dość mocno przesiała ich nauki. Pournelle przecież powiedział: Zasady zmieniają się, gdy opuścisz Ziemię, kołyskę; jeśli choć raz nieuważnie uszczelnisz swój kombinezon ciśnieniowy, zginiesz. Mówił to dość często. Ale te słowa nie wydawały się ważne, bo coś takiego przytrafiało się w powieściach postaciom trzecioplanowym – główny bohater z jakiegoś powodu nie umierał zazwyczaj w połowie powieści.
Co było soczewką, przez którą filtrowałem te nauki? Nadzieja. Optymizm. Wiara w lepszą przyszłość. Takie było dla mnie podstawowe znaczenie esejów zebranych w „A Step Farther Out”. Stanowiły one lekcję, którą odebrałem w kontraście do mroku i zagłady („doom-and-gloom”) głoszonych przez Sierra Club. Po jednej stronie były racjonalizm i nadzieja, po drugiej – ignorancja i rozpacz.
Niektórzy nastolatkowie myślą, że są nieśmiertelni i jeżdżą na motocyklach. Ja nie miałem takich złudzeń i niechętnie uczyłem się prowadzić, zważywszy na to, jak niebezpiecznie wyglądały te pędzące kawałki metalu. Ale było dla mnie coś ważniejszego niż moje własne życie: Przyszłość. Zachowywałem się, tak jakby to ona była nieśmiertelna. Można stracić życie, ale nie przyszłość. Co stało się, gdy zauważyłem, że nanotechnologia naprawdę stanie się wyzwaniem o potencjale masowej zagłady? Młody Eliezer pomyślał dokładnie tak: „Wielkie nieba, jak to możliwe, że nie dostrzegałem tego, co powinno być oczywiste? Najwyraźniej byłem zbyt emocjonalnie przywiązany do korzyści, których spodziewałem się po technologii; najwyraźniej obawiałem się myśli o wyginięciu ludzi i odwracałem od niej wzrok”.
A potem…
Nie wydałem komendy „Halt and Catch Fire” (komenda stosowana we wczesnych komputerach, która wprawiała maszynę w tryb testowania fabrycznego i zmuszała do zakończenia wszystkich czynności naraz. Kontrola nad komputerem mogła być już na zawsze utracona – przyp. tłum.). Nie przemyślałem na nowo wszystkich wniosków, które wyciągnąłem w ramach wcześniejszego nastawienia. Po prostu udało mi się je jakoś zintegrować z moim światopoglądem, przy minimalnych zmianach. Stare idee i plany zostały zakwestionowane, ale mój umysł znalazł powody, by je zachować. Załamanie systemowe niestety nie nastąpiło.
Przede wszystkim uznałem, że musimy pracować pełną parą nad Sztuczną Inteligencją, aby rozwinąć ją przed nanotechnologią. Dokładnie tak, jak początkowo planowałem, ale teraz z innego powodu.
.Chyba taka jest większość istot ludzkich, prawda? Tradycyjny racjonalizm nie wystarczył, by to zmienić. Nadszedł jednak czas, kiedy w pełni zrozumiałem swój błąd. Trzeba było tylko mocniejszego uderzenia w głowę.
Eliezer Yudkowsky
© LessWrong Przekład: Ewelina Rozenek