Prof. Philippe SILBERZAHN: Zasada ostrożności zabija innowacje w Europie

Zasada ostrożności zabija innowacje w Europie

Photo of Prof. Philippe SILBERZAHN

Prof. Philippe SILBERZAHN

Profesor nadzwyczajny w Emlyon Business School. Specjalizuje się w strategii, innowacji i przedsiębiorczości.

Zasada ostrożności zabija. Zabija ludzi, ale także przemysł. Kroki podejmowane przez Komisję Europejską sprawią, że innowacje – a więc miejsca pracy i zamożność obywateli – przeniosą się na inne kontynenty – pisze prof. Philippe SILBERZAHN

W Europie straszy. Straszy duch ostrożności. Kontynent, który jeszcze wczoraj był kolebką innowacji i postępu, dziś spętany jest lękiem przed ryzykiem. I to ten lęk stoi za posępnym projektem ograniczenia sztucznej inteligencji (pomijam już fakt, że sam termin „sztuczna inteligencja” nie jest dobrany zbyt szczęśliwie). W każdym razie projekt zmian opiera się na wypaczonym pojęciu innowacji technologicznej.

Innowacja technologiczna nie jest bowiem czymś dającym się dokładnie i trwale zdefiniować w czasie. Jest to raczej ciągły proces rozłożony na etapy. Innowacja, którą był internet, rozpoczęła się w latach 60. i trwa po dziś dzień. Wiąże się z nią cała masa niepewności co do jej uwarunkowań i możliwości.

Cała historia ludzkości zresztą pokazuje, że nie da się przewidzieć dzisiaj wpływu, jaki dana technologia będzie miała na świat jutro, gdyż nie da się przewidzieć jej rozwoju. W 1911 roku inżynierowie odkryli, że można użyć ultradźwięków do wykrywania łodzi podwodnych. W 1951 roku technologia ta została zaproponowana przez pewnego lekarza i pewnego elektronika jako sposób walki z rakiem. Ich wysiłki spełzły na niczym, ale począwszy od lat 70., echografia zaczyna być używana w położnictwie. Od lat 90. natomiast jest ona szeroko stosowana w Azji w aborcjach selektywnych, co doprowadziło do zaburzenia populacyjnej równowagi między mężczyznami a kobietami.

Powstaje więc pytanie, co w 1911 roku mógłby powiedzieć inżynierom ówczesny regulator. Nie byłby przecież w stanie w jakikolwiek sposób antycypować wszystkich możliwych zastosowań tej technologii. Inaczej mówiąc, reglamentowanie jakiejś technologii na jej wczesnym etapie zawsze odbywać się będzie po omacku, w oparciu nie o fakty, ale o wierzenia czy wręcz fantazje. Aby móc coś ograniczać, należy najpierw to zrozumieć, a aby zrozumieć jakąś nową technologię, trzeba pozwolić jej zaistnieć. Zbyt wczesne jej ograniczenie nie pozwoli jej zaistnieć w pełni, a nam – w pełni jej zrozumieć.

Ograniczanie technologii na wczesnym etapie jest tym bardziej szkodliwe, że każda z nich jest dualna: może mieć dobre i złe zastosowania, a niuans pomiędzy nimi determinują okoliczności. Nóż pozwala mi ukroić stek, ale może również posłużyć mi do zabicia kogoś. Czy w związku z tym należy zakazać używania noży? A także czy zabicie kogoś zawsze jest złem? Nie wtedy, gdy znajduję się w sytuacji obrony koniecznej.

Problem z zasadą ostrożności jest taki, że ryzyko można sobie dość łatwo wymyślić, nie ma tu żadnych ograniczeń. Korzyści natomiast muszą być dokładnie wykazane i udowodnione. Zasada ostrożności każe nam brać pod uwagę potencjalne zagrożenia, ale nie prawdopodobne korzyści płynące z jakiejś technologii. Ciężar dowodu spoczywa więc na autorze innowacji; to on musi udowodnić, że jego produkt nie będzie szkodzić, ale jednocześnie nie może on wykazać, że produkt będzie miał korzystne zastosowanie albo że zastąpi jakiś istniejący, lecz szkodliwy produkt.

Kierując się więc tą zasadą ostrożności, wkrótce zakaże się zapewne używania sztucznej inteligencji w procesie wydawania wyroków sądowych. Zresztą kto chciałby być sądzony przez maszyny, których algorytmy podlegają jakimś zewnętrznym wpływom? Oczywiście zapominamy, że sędziowie nierzadko podlegają im jeszcze bardziej. W słynnym już badaniu naukowym wykazano, że głodni sędziowie orzekają surowsze kary niż sędziowie, którzy dopiero co zjedli! Kiedy wskazuje się na zagrożenia sztucznej inteligencji, często porównuje się ją do wyidealizowanej sytuacji, która jest daleka, bardzo daleka od rzeczywistości. Niezależnie od tego, jak będziemy wpływać na sztuczną inteligencję, będzie ona bez wątpienia bardziej obiektywna i mniej podatna na okoliczności czy stany fizjologiczne. Technologia nie powinna więc być oceniana ex nihilo czy w zestawieniu z jakimś ideałem, ale zawsze w odniesieniu do istniejącej technologii, z jej niedoskonałościami i szkodliwością.

Żadna technologia nie jest pozbawiona ryzyka. Wyobraź sobie, że jesteś ministrem przemysłu wielkiego kraju z początku ubiegłego wieku. Przychodzi do Ciebie jakiś inżynier z nową technologią, która zrewolucjonizuje życie wszystkich obywateli. Jest jeden minus: technologia ta przyczyni się w sposób bezpośredni do śmierci średnio 30 tysięcy osób rocznie i do wielu wypadków. Czy zezwolisz na tę technologię? Stosując zasadę ostrożności, udzielisz odpowiedzi negatywnej. Mimo wszystko – 30 tysięcy zgonów rocznie! A jednak… Technologia ta nazywa się samochód i rzeczywiście zabija ona około 30 tysięcy osób rocznie w Stanach Zjednoczonych (około milion osób w skali świata).

Dowodem na poważne niebezpieczeństwo, jakim jest zasada ostrożności, był w ostatnich tygodniach ogromnie szkodliwy skandal, który wybuchł wokół szczepionki AstraZeneca. Ponieważ posądzano ją o to, że w niektórych sytuacjach osoba nią zaszczepiona narażona jest na ryzyko zakrzepicy, przerwano jej stosowanie, wywołując w ten sposób poważne zaniepokojenie opinii publicznej. Tymczasem ryzyko zakrzepicy było bardzo niskie, niższe niż w przypadku zażywania przykładowo pigułek antykoncepcyjnych. Zatem aby uniknąć paru zakrzepic, z których większość nie jest śmiertelna, wstrzymano szczepienie setek tysięcy ludzi, co oczywiście przyniesie wzrost liczby zgonów, ale także wydłuży epidemię, zwiększając tym samym ryzyko pojawienia się wariantów wirusa, na które obecnie istniejące szczepionki nie są skuteczne.

W skrócie rzecz ujmując: zasada ostrożności zabija. Zabija ludzi, ale także przemysł. Kroki podejmowane przez Komisję Europejską wpisują się w długą serię działań mających na celu ograniczenie europejskiej innowacyjności. Pod pozorem godzenia konkurencyjności z etyką działania te ukazują raczej strach przed przyszłością postrzeganą wyłącznie jako zagrożenie. Również ich wymiar etyczny szybko zostanie zrewidowany przez rzeczywistość: ograniczenie przemysłu w Europie sprawi, że innowacje – a więc miejsca pracy i zamożność obywateli – przeniosą się na inne kontynenty, a nam pozostanie jedynie płakać nad naszą utraconą suwerennością.

.Bez poważnego gracza w tej dziedzinie po naszej stronie to amerykańscy i chińscy konkurenci będą nam mówić, co jest etyczne, a co nie. Najwyższy czas zawrócić z tej drogi śmierci przemysłowej, na którą kierują nas unijni technokraci.

Philippe Silberzahn

Materiał chroniony prawem autorskim. Dalsze rozpowszechnianie wyłącznie za zgodą wydawcy. 24 sierpnia 2021