Zasada ostrożności i oświecony katastrofizm

Racjonalny wybór w obliczu apokalipsy

Jean-Pierre Dupuy
20.01.2014

Niemieckie słowo bestimmt jest wieloznaczne. Może znaczyć to samo co „ustalony”, „oznaczony”, albo „określony”, lub wreszcie „dokładnie taki”. Werner Heisenberg, decydując się nazwać swoją słynną zasadę Unbestimmtheitrelation1, w genialny sposób wykorzystał ambiwalencję niemieckiego określenia i nie musiał opowiadać się za jedną z interpretacji fizyki kwantowej, nie musiał decydować, czy cechuje ją niepewność bądź nieoznaczoność (ang. uncertainty), czy też nieokreśloność (ang. indeterminacy). A jest to różnica istotna. Niepewność odnosi się do dziedziny epistemicznej, a więc naszej wiedzy o obserwowanym świecie, natomiast nieokreśloność – do ontologii, czyli tego, jak się rzeczy mają. Anglicy i Francuzi nie mają tak łatwo i muszą za każdym razem dobierać odpowiedni termin. Zasada Heisenberga po angielsku częściej nazywana jest principle of uncertainty, a więc zasadą nieoznaczoności, niż principle of indeterminacy – zasadą nieokreśloności. Moja własna interpretacja teorii kwantowej kieruje mnie bardziej ku temu ostatniemu sformułowaniu, ale nie tym będziemy się tutaj zajmować. Nie będziemy dyskutować o teorii kwantowej, lecz o sprawach ludzkich.

I. Stawiając czoło katastrofie

Tematem, który tu poruszam, jest nieokreśloność w odniesieniu do przetrwania rodzaju ludzkiego. Wraz z nadejściem ery bomby atomowej ludzie stali się potencjalnymi sprawcami własnej zagłady. W swojej ostatniej, świetnej zresztą, książce piastujący stanowisko królewskiego astronoma na brytyjskim dworze sir Martin Reese, który – nawiasem mówiąc – zajmuje katedrę Newtona na Uniwersytecie Cambridge, przewiduje, że szanse na przetrwanie gatunku ludzkiego do końca dwudziestego pierwszego wieku wynoszą najwyżej 50 procent. Tytuł tej książki, a w jeszcze większym stopniu jej podtytuł, brzmią jednoznacznie: „Nasza ostatnia godzina. Ostrzeżenie naukowca: jak terror, błędy i katastrofa ekologiczna zagrażają przyszłości ludzkości w tym stuleciu – na Ziemi i poza nią”2. Sir Martin ostrzega:

Nasz świat, coraz mocniej połączony licznymi więzami, jest podatny na nowe rodzaje ryzyka – biologiczne czy cybernetyczne, na terror i błędy. Zagrożenia dwudziestego pierwszego stulecia mogą być poważniejsze i jeszcze bardziej nie do opanowania niż groźba nuklearnego zniszczenia, jaka towarzyszyła nam przez dekady. Obciążenia środowiska naszej planety, jakie ludzkość na nie nakłada, mogą spowodować większe ryzyko niż znane nam od setek lat zagrożenia związane z trzęsieniami ziemi, wybuchami wulkanów i uderzeniami asteroid.

Głos Martina Reese’a nie jest bynajmniej odosobniony. Już w 2000 roku jeden z najwybitniejszych amerykańskich cybernetyków, Bill Joy, którego na pewno nie można nazwać nieodpowiedzialnym lewakiem, napisał bardzo chwalony i szeroko komentowany artykuł, zatytułowany „Dlaczego przyszłość nas nie potrzebuje. Nasze największe technologie dwudziestego pierwszego wieku – robotyka, inżynieria genetyczna i nanotechnologie mogą sprawić, że człowiek stanie się gatunkiem zagrożonym”3.

Nawet jeśli popatrzymy na te kwestie w sposób mniej pesymistyczny, niż robi to tych dwóch znaczących naukowców, jasnym się wyda, że naszego stylu życia mimo wszystko nie da się dłużej utrzymać w obecnej postaci. Z trudem można sobie wyobrazić, że będziemy mogli żyć tak, jak żyjemy teraz, przez kolejne pół wieku. Wielu z nas za pięćdziesiąt lat już tutaj nie będzie, ale pozostaną nasze dzieci. Jeśli obchodzi nas ich los, najwyższy czas otworzyć oczy na to, co je czeka. Ta prognoza ma trzy główne powody.

Po pierwsze, wkrótce skończą się zasoby tanich paliw kopalnych, ponieważ potrzeby energetyczne w skali globalnej będą bardzo szybko rosły, jeśli tak zaludnione kraje, jak Chiny, Indie i Brazylia, pójdą naszą ścieżką rozwoju. Trudno wskazać argumenty i racjonalne podstawy, w oparciu o które moglibyśmy je przed tym powstrzymywać.

Po drugie, zasoby tychże paliw koncentrują się na terenach, które są z geopolitycznego punktu widzenia jednymi z „najgorętszych” miejsc świata: na Bliskim Wschodzie i w muzułmańskich byłych republikach radzieckich. Kiedy te dwa czynniki zostaną powszechnie przyjęte do wiadomości – niewątpliwie stanie się to i tak dość późno, to znaczy za późno – świat ogarnie panika, a ceny gwałtownie wzrosną, nakręcając kryzys.

Trzeci powód jest z pewnością najpoważniejszy. Każdego tygodnia słyszymy o kolejnym symptomie dokonującej się zmiany klimatycznej, który potwierdza to, co do czego zgadzają się wszyscy eksperci: globalne ocieplenie jest faktem, a jego przyczyną jest zasadniczo działalność człowieka. Jego skutki będą zaś znacznie bardziej dotkliwe, niż wyobrażaliśmy to sobie jeszcze wczoraj. Eksperci zdają sobie sprawę z tego, że cele zawarte w protokole z Kioto, podeptane przez potężną Amerykę, są śmiechu warte, jeśli porównamy je z tym, co trzeba zrobić, by powstrzymać wzrost zawartości dwutlenku węgla w atmosferze – a mianowicie obciąć o połowę jego globalną emisję. Tymczasem przewiduje się, że emisje będą nadal rosnąć, przynajmniej do roku 2030, ze względu na inercję systemu. Warunkiem koniecznym powodzenia w tym względzie jest powstrzymanie krajów rozwijających się przed powielaniem naszej ścieżki rozwoju. Jeśli my, kraje uprzemysłowione, sami jej nie porzucimy, nasze przesłanie nie ma najmniejszej szansy nawet na wysłuchanie. Ameryka jest winna nie tak bardzo ze względu na swój udział w zanieczyszczeniu planety, lecz raczej ze względu na odmowę uczynienia najmniejszego gestu w kierunku jej ratowania. Przynajmniej w tym cynizmie Amerykanie są uczciwi: nie zamierzają rezygnować ze swojego sposobu życia, który uznają za wyraz swojej podstawowej wolności. Hipokryzja rządów europejskich jest za to trudna do zniesienia: obiecały one respektować zapisy z Kioto, ale uchylają się od konieczności poinformowania swoich obywateli, że jest to tylko pierwszy, drobny krok, a następne można wykonać jedynie kosztem rewolucyjnej zmiany w całym systemie zachowań.

Naukowy optymizm zachęca nas do tego, żebyśmy byli cierpliwi. Już wkrótce – obiecuje – inżynierowie znajdą sposób, by przezwyciężyć wszystkie stojące nam na drodze trudności. Nic nie jest mniej pewne. Ciarki przechodzą po plecach, gdy dowiadujemy się, że żaden ze scenariuszy przedstawionych przez odpowiednie instytucje nie zawiera realnego rozwiązania, które zapewniłoby nam dotrwanie do lat 2040­‑2050. W dłuższej perspektywie stoimy przed naukową i technologiczną rewolucją, którą zgotują nam nanotechnologie oparte na manipulacji już na poziomie atomu. Bardzo prawdopodobne, że będą one w stanie obejść wiele ograniczeń, które obecnie nam przeszkadzają, zwłaszcza dzięki wykorzystaniu energii słonecznej. Jednak nie mniej prawdopodobne jest to, że stworzą one nowe zagrożenia, które sami technolodzy uważają za „niebywałe”.

Tak więc zostaliśmy przyparci do muru. Musimy stwierdzić, co jest dla nas ważniejsze: nasz imperatyw etyczny dotyczący równości, który prowadzi do zasady uniwersalizacji, czy raczej nasz model rozwoju. Albo uprzywilejowana część naszego globu się odizoluje, co oznacza, że będzie się chronić za pomocą wszelkich dostępnych środków przed coraz bardziej okrutną i przerażającą agresją wywołaną przez resentyment tych, którzy znajdą się poza strefą ochronną, albo należy stworzyć inny rodzaj związków ze światem, naturą, rzeczami i stworzeniami, który będzie można zuniwersalizować do poziomu obejmującego całą ludzkość.

Nic z tego, co wymieniłem, nie podlega wątpliwości. Eksperci to wiedzą. Nie uważają jednak, aby ich rolą było bezpośrednie zaznajomienie z tym społeczeństwa. Nie chcą brać odpowiedzialności za wywołanie paniki4. Tak więc ograniczają się do informowania o tym kolejnych rządów. Na próżno. Klasa polityczna, która zazwyczaj nie zna się na sprawach nauki i techniki oraz jest zasadniczo krótkowzroczna, zarówno w perspektywie czasowej (patrzy najwyżej kilka lat do przodu), jak i przestrzennej (jest ograniczona granicami narodowymi), nie ma na ten temat nic do powiedzenia.

Jeśli mamy znaleźć jakieś wyjście z tej sytuacji, musi to oczywiście nastąpić mimo wszystko na poziomie politycznym. Pozostaniemy jednak w klinczu tych samych dawnych przyzwyczajeń politycznych, jeśli najpierw nie zmienimy radykalnie naszej etyki. W swym fundamentalnym dziele Zasada odpowiedzialności5 niemiecki filozof Hans Jonas przekonująco wyjaśnia, dlaczego w „erze technologicznej” potrzebujemy nowej etyki do określenia naszego związku z przyszłością. Ta „etyka dla przyszłości” (niem. Ethik für die Zukunft) – oznaczająca nie tyle etykę obowiązującą w przyszłości, lecz właśnie etykę działającą na rzecz przyszłości, w której przyszłość staje się głównym przedmiotem troski – rozpoczyna się od filozoficznej aporii. Ze względu na rozmiar możliwych konsekwencji naszych wyborów dotyczących technologii, absolutnym obowiązkiem jest wypróbowanie i antycypowanie tych konsekwencji, ich ocena i wreszcie uzasadnienie na jej podstawie naszych wyborów. W języku filozofii powiedzielibyśmy, że gdy stawka jest wysoka, nie możemy sobie pozwolić na to, by na przewodnią doktrynę moralną nie wybrać konsekwencjalizmu6, lecz jakąś formę deontologii7. Jednak te same powody, dla których konsekwencjalizm jest pociągający, a więc te, które zobowiązują nas do przewidywania przyszłości, sprawiają, że jest to niemożliwe. Uruchomienie skomplikowanych procesów jest bardzo niebezpiecznym działaniem, które zarówno wymaga uprzedniej wiedzy, jak i ją uniemożliwia. Jedną z nielicznych niezmiennie uniwersalnych zasad etycznych jest ta, zgodnie z którą powinność implikuje możliwość. Nie ma obowiązku uczynienia czegoś, czego uczynić się nie da. Jednak w erze technologicznej mamy jeden palący obowiązek, którego nie możemy spełnić: przewidzieć, jaka będzie nasza przyszłość. I to jest ta etyczna aporia.

Czy można z tego jakoś wybrnąć? Podzielam zdanie Jonasa, który twierdzi, że nie ma etyki bez metafizyki. Tylko radykalna zmiana w obrębie metafizyki może nam pozwolić uciec od etycznych aporii. Główną przeszkodą w naszej obecnej ukrytej metafizyce czasowości okazuje się koncepcja przyszłości jako tego, co nie istnieje. Z naszych przekonań o wolnej woli – że mogliśmy zachować się inaczej – wyprowadzamy konkluzję, że przyszłość jest nierealna w sensie filozoficznym. „Niepewne twierdzenia dotyczące przyszłości”, to znaczy twierdzenia o działaniach podjętych przez wolny podmiot działający w przyszłości, takie jak na przykład: „John jutro spłaci swój dług”, uważa się za pozbawione wartości logicznej. Nie są one ani prawdziwe, ani fałszywe. Jeśli przyszłość nie istnieje, to nie możemy nic o niej wiedzieć. Jeśli przyszłość nie istnieje, to nie może rzutować ona na teraźniejszość. Nawet jeśli wiemy, że dojdzie do katastrofy, nie wierzymy w to. Nie wierzymy w to, co wiemy. Jeśli przyszłość nie istnieje, nie ma w niej niczego, czego mielibyśmy się obawiać lub oczekiwać.

Wyprowadzenie z wolnej woli nierealności przyszłości jest czystym błędem logicznym, chociaż udowodnienie tego wymagałoby dość ciężkiej pracy filozoficznej8. Ograniczę się tutaj do naszkicowania alternatywnej metafizyki, w której wolna wola łączy się ze szczególnie silną wersją realności przyszłości.

II. Poważne wady „zasady ostrożności”

Mamy jednak „zasadę ostrożności”. Wszelkie lęki naszych czasów zdają się znajdować schronienie w jednym słowie: ostrożność. Postaram się jednak wykazać, że pojęciowe podstawy terminu „ostrożność” są niezwykle wątłe.

Przypomnijmy definicję zasady ostrożności, jaką zawiera traktat z Maastricht: „Niepewność ze względu na obecny stan wiedzy naukowej i technologicznej nie może opóźnić przyjęcia skutecznych i proporcjonalnych środków zapobiegawczych, których celem jest uprzedzić, ekonomicznie akceptowalnym kosztem, zagrożenie poważnymi i nieodwracalnymi szkodami środowiska”9. Definicja ta jest rozdarta między logiką kalkulacji ekonomicznej a świadomością, że kontekst podejmowania decyzji radykalnie się zmienił. Z jednej strony mamy znane i pokrzepiające pojęcia skuteczności, współmierności i rozsądnych kosztów, z drugiej zaś nacisk na niepewny stan wiedzy oraz powagę i nieodwracalność szkód. Łatwo stwierdzić, że jeśli niepewność przeważy, nikt nie będzie w stanie wskazać, jaki środek zapobiegawczy będzie proporcjonalny (według jakiego wskaźnika?) do szkody, która jest nieznana, i o której w takim razie nie można orzec, czy okaże się poważna i nieodwracalna. Nikt również nie będzie w stanie ocenić, jaki będzie koszt odpowiedniego środka zapobiegawczego, ani – przyjąwszy, że koszt ten okaże się „nieakceptowalny” – stwierdzić, jak dokonać wyboru między dobrostanem gospodarki a powstrzymaniem katastrofy. Zamiast zgłębiać dalej tę kwestię, przedstawię tu trzy zasadnicze powody, dla których uważam, że pojęcie ostrożności jest zastępczą ideą, która powinna zostać odłożona na półkę. Jednocześnie podejmę próbę zrozumienia, dlaczego pewnego pięknego dnia pojawiła się potrzeba zamiany znanego pojęcia zapobiegania na jego biedniejszego krewnego: pojęcie ostrożności. Dlaczego w obecnej sytuacji ryzyka i zagrożeń nie wystarcza już nam zapobieganie?

Rodzaje niepewności

Pierwszą poważną wadą, która podcina skrzydła pojęciu „ostrożności”, jest fakt, że nie określa ono właściwie rodzaju niepewności, z jakim się obecnie mierzymy.

Oficjalny francuski raport dotyczący zasady ostrożności10 wprowadza coś, co początkowo wydawać się może interesującym rozróżnieniem między dwoma rodzajami ryzyka: „ryzykiem znanym” i „ryzykiem potencjalnym”. Na tym rozróżnieniu opiera się różnica między zapobieganiem a ostrożnością – ta druga dotyczy ryzyka potencjalnego, podczas gdy ta pierwsza – ryzyka znanego.

Bliższe przyjrzenie się temu raportowi pokazuje, że:

  1. Wyrażenie „ryzyko potencjalne” jest niefortunne i oznacza nie tyle ryzyko czekające na ziszczenie, lecz ryzyko hipotetyczne, będące jedynie kwestią domniemania.
  2. Rozróżnienie między ryzykiem znanym a hipotetycznym (jak wolę je określać) odpowiada dawnemu rozróżnieniu w ramach myśli ekonomicznej na ryzyko i niepewność, jakie niezależnie od siebie zaproponowali w 1921 roku John Maynard Keynes i Frank Knight.

Ryzyko w zasadzie może być ujęte ilościowo w kategoriach obiektywnego prawdopodobieństwa opartego na obserwowalnych powtórzeniach. Gdy nie można dokonać takiego ilościowego ujęcia, wchodzi się w dziedzinę niepewności.

Problem polega na tym, że myśl ekonomiczna oraz leżąca u jej podstaw teoria decyzji zostały stworzone po to, by od tego rozróżnienia odejść, kiedy to w latach pięćdziesiątych dwudziestego wieku pojawiła się skuteczna próba wprowadzenia przez Leonarda Savage’a pojęcia subiektywnego prawdopodobieństwa i odpowiadającej mu filozofii wyboru w warunkach niepewności, tak zwanego bayesjanizmu11. W aksjomatyce Savage’a prawdopodobieństwu nie odpowiada już żadna regularność istniejąca w naturze, lecz odnosi się ono do spójności wykazywanej przez wybory podmiotu działającego. W języku filozoficznym każda niepewność uważana jest za epistemiczną, to znaczy niepewność związaną ze stanem wiedzy podmiotu działającego. Łatwo dostrzec, że wprowadzenie subiektywnego prawdopodobieństwa wymazuje rozróżnienie między niepewnością a ryzykiem, między ryzykiem ryzyka a ryzykiem, między ostrożnością a zapobieganiem. Jeśli prawdopodobieństwo jest nieznane, jego rozkład przypisany jest mu „subiektywnie”. Zatem prawdopodobieństwo to jest wyliczane zgodnie ze standardowymi regułami rachunkowymi. Nie ma żadnej różnicy w porównaniu z przypadkiem, w którym obiektywne prawdopodobieństwo jest już znane od samego początku. Niepewność spowodowaną brakiem wiedzy sprowadza się na tę samą płaszczyznę, co wewnętrzną niepewność wywołaną przypadkową naturą rozważanego zdarzenia. Ekonomista ryzyka i teoretyk ubezpieczeń nie widzą i nie mogą dostrzec żadnej istotnej różnicy między zapobieganiem a ostrożnością i w gruncie rzeczy sprowadzają tę ostatnią do tego pierwszego. W rzeczywistości można dostrzec, że zastosowania „zasady ostrożności”, ogólnie rzecz biorąc, sprowadzają się niemalże do zwykłej analizy kosztów i korzyści.

Wbrew dominującemu ekonomizmowi, uważam, że należy koniecznie ocalić ideę, zgodnie z którą nie wszystko jest niepewnością epistemiczną. Można jednak z filozoficznego punktu widzenia argumentować, że tak jest w rzeczywistości. Rzut kostką funkcjonuje w naszych językach jako określenie szansy lub przypadku. Jednak rzut kostką jest zjawiskiem fizycznym, postrzeganym dziś jako deterministyczny system o niskiej stabilności, wrażliwy na warunki wstępne i z tego względu nieprzewidywalny. Jest to, jak to się dzisiaj mówi, „deterministyczny chaos”. Wszechwiedzący byt – Bóg, którego istnienia Laplace nie uważał za konieczne postulować – mógłby jednak przewidzieć, którą ścianką do góry upadnie kostka. Czyż nie można by wtedy powiedzieć, że to, co niepewne dla nas, ale nie dla Boga­‑matematyka, jest niepewne tylko z powodu naszego braku wiedzy? A więc, że niepewność ta także jest epistemiczna i subiektywna?

Prawidłowy wniosek jest jednak inny. Jeśli jakieś zdarzenie jest dla nas nieprzewidywalne, to nie jest to spowodowane brakiem wiedzy, który można przezwyciężyć wnikliwszym badaniem, lecz tym, że tylko nieskończony rachmistrz lub komputer obliczeniowy byłby w stanie przewidzieć przyszłość, której my, ze względu na naszą skończoność, nigdy nie będziemy mogli poznać. Naszej skończoności oczywiście nie można umieścić na tym samym poziomie, co stanu naszej wiedzy. Ta pierwsza jest niezmiennym aspektem ludzkiej kondycji, ta druga zaś przypadkowym faktem, który w każdej chwili może być inny, niż jest. A więc słusznie traktujemy naszą niepewność dowolnego zdarzenia jako niepewność obiektywną, nawet jeśli ta niepewność znika dla nieskończonego obserwatora. Nasza sytuacja w stosunku do nowych zagrożeń ma więc charakter niepewności obiektywnej, a nie epistemicznej. Nowym aspektem jest to, że tym razem nie mamy do czynienia z dowolnym zdarzeniem, gdyż każdą z wiszących nad naszą przyszłością katastrof należy traktować jako szczególne zdarzenie. „Ryzyko”, z jakim się stykamy, nie jest ani dowolne, ani epistemicznie niepewne, lecz jest – z punktu widzenia klasycznych rozróżnień – potworne. W gruncie rzeczy zasługuje na specjalne potraktowanie, którego to nie może mu zapewnić zasada ostrożności.

Trzy argumenty wydają mi się wystarczające do uzasadnienia twierdzenia, że niepewność nie jest tu czymś epistemicznym, lecz raczej czymś zakorzenionym w obiektywności związku łączącego nas ze zjawiskami.

Pierwszy argument odnosi się do złożoności ekosystemów. Ta złożoność sprawia, że są one niezwykle odporne, ale zarazem – paradoksalnie – bardzo wrażliwe. Mogą wytrzymać starcie z wieloma rodzajami agresji i znaleźć sposoby na taką adaptację, która pozwoli im utrzymać stabilność. Jednak sprawdza się to tylko do pewnego momentu. Przekraczając pewien krytyczny próg, ekosystemy gwałtownie przekształcają się, zmieniając się w coś innego, podobnie jak materia zmienia stany skupienia, załamują się lub tworzą inny typ systemu, który może posiadać wysoce niepożądane dla ludzi właściwości. W matematyce taki brak ciągłości, czy też punkt przełomowy, określa się mianem katastrofy. Ta nagła strata odporności nadaje ekosystemowi osobliwość, której żaden inżynier nie będzie w stanie przekształcić w sztuczny system, nie zostając od razu zwolnionym z pracy. Alarm rozbrzmiewa dopiero wtedy, gdy jest już za późno. Tak długo, jak te progi są od nas oddalone, ekosystemy można bezkarnie eksploatować. W takim wypadku analiza kosztów i korzyści wydaje się bezużyteczna lub musi dać oczywisty wynik, jako że najwyraźniej nie ma niczego, co obciążałoby stronę kosztów. Dlatego właśnie ludzkość przez wieki była w stanie beztrosko ignorować wpływ swego modelu rozwoju na środowisko. W sytuacji, gdy krytyczny próg jest coraz bliżej, analiza kosztów i korzyści staje się bezsensowna. W tym momencie imperatywem jest uniknięcie go za wszelką cenę. Z powodów związanych nie z czasową niewystarczalnością naszej wiedzy, lecz z obiektywnymi cechami strukturalnymi ekosystemów, kalkulacja ekonomiczna pomaga naprawdę niewiele, niezależnie od tego, czy jest bezużyteczna, czy nieznacząca.

Argument drugi odnosi się do systemów stworzonych przez ludzi – nazwijmy je systemami technicznymi – które wchodzą z ekosystemami w interakcje, tworząc systemy hybrydowe. Systemy techniczne wykazują cechy stosunkowo odmienne od własności ekosystemów. Wynika to z istotnej roli, jaką odgrywa w nich sprzężenie zwrotne. Drobne fluktuacje na samym początku istnienia systemu mogą zostać wzmocnione, nadając mu zupełnie przypadkowy, być może także katastroficzny kierunek, który jednak od wewnątrz sprawia wrażenie przeznaczenia. Tego rodzaju dynamika czy też historia jest oczywiście niemożliwa do przewidzenia. W dodatku brak wiedzy w takim przypadku nie wynika ze stanu rzeczy, który można zmienić, lecz z właściwości strukturalnych. Nieprzewidywalność jest tu cechą zasadniczą.

Niepewność co do przyszłości jest równie zasadnicza z trzeciego powodu – tym razem logicznego. Jakiekolwiek przewidywanie przyszłego stanu rzeczy, który jest zależny od przyszłego stanu wiedzy, jest niemożliwe z tego prostego powodu, że antycypować tę wiedzę oznaczałoby przenieść ją do teraźniejszości i wyrwać ją ze swego miejsca w przyszłości. Najbardziej uderzającą ilustracją tego problemu jest niemożność przewidzenia momentu pęknięcia bańki finansowej. Nie wynika ona z niedostatków analizy ekonomicznej, lecz z samej natury zjawiska spekulacji. To logika jest odpowiedzialna za tę niemożność, a nie niewystarczający stan wiedzy czy informacji. Gdyby pęknięcie bańki finansowej lub – ogólniej – nadejście kryzysu finansowego zostało przewidziane, wydarzyłoby się ono w tym samym momencie, w którym by ta prognoza nastąpiła, a nie w przewidzianym czasie. Wszelkie przewidywania w tym przypadku unieważniłyby się w tym właśnie momencie, w którym stałyby się upublicznione.

Gdy zasada ostrożności stwierdza, że „brak pewności ze względu na obecny stan wiedzy naukowej i technologicznej nie może opóźnić…” i tak dalej, wyraźnie umiejscawia się od samego początku w ramach niepewności epistemicznej. Zakłada się, że wiemy, że jesteśmy w sytuacji niepewności. Aksjomat logiki epistemicznej głosi, że jeśli nie wiem, że p, to wiem, że nie wiem, że p. Jednakże jeśli tylko wyjdziemy poza te ramy, musimy wziąć pod uwagę możliwość, że nie wiemy, że czegoś nie wiemy. Analogiczną sytuację można zaobserwować podczas analizowania znaczenia plamki ślepej, czyli tego obszaru siatkówki, który nie przekazuje bodźców w percepcji wzrokowej. W samym centrum naszego pola widzenia nie widzimy, ale nasz mózg zachowuje się w taki sposób, że nie widzimy tego, że nie widzimy. W przypadkach, gdy niepewność pociąga za sobą to, że niepewność sama jest niepewna, niemożliwym jest wiedzieć, czy warunki zastosowania zasady ostrożności zostały spełnione. Jeśli zastosujemy tę zasadę do niej samej, unieważni się ona na naszych oczach.

Co więcej, sformułowanie „ze względu na stan wiedzy naukowej i technicznej” sugeruje, że wysiłek badawczy jest w stanie przezwyciężyć tę niepewność, której istnienie jest postrzegane jako czysto przygodne. Można iść o zakład, że wszelka „polityka ostrożności” będzie nieuchronnie zawierać edykt o tym, że trzeba kontynuować wysiłki badawcze – tak jakby przepaść między tym, co znane, a tym, co musi być poznane, mogła zostać zasypana przez dodatkowy wysiłek podjęty przez podmiot poznania. Bardzo często można jednak natknąć się na przypadki, w których postęp wiedzy prowadzi do wzrostu niepewności podmiotu podejmującego decyzje. Nie da się tego pomyśleć z perspektywy niepewności epistemicznej. Czasami dowiedzieć się więcej oznacza naświetlić ukryte złożoności, które sprawiają, że zaczynamy zdawać sobie sprawę z tego, że nasza władza nad zjawiskami była częściowo złudzeniem.

Etyczna normatywność

Drugą poważną wadą zasady ostrożności jest to, że będąc niezdolną do odejścia od normatywności właściwej rachunkowi prawdopodobieństwa, nie potrafi uchwycić tego, co stanowi istotę etycznej normatywności odnoszącej się do wyboru w sytuacji niepewności.

Przywołuję tutaj pojęcie „trafu moralnego” obecne w filozofii moralnej. Przedstawię je za pomocą dwóch różnych eksperymentów myślowych. Pierwszy z nich polega na ślepym wyciąganiu kul z urny zawierającej nieokreśloną ich liczbę. Czarne stanowią dwie trzecie, a białe jedną trzecią zbioru. Przed zanurzeniem ręki należy obstawić kolor kuli, którą się wyciągnie. Oczywiście powinno się obstawić kolor czarny. Przy wyciąganiu kuli po raz drugi (po włożeniu tam z powrotem tej pierwszej) także powinno się postawić na kolor czarny. Tak naprawdę zawsze powinno się postawić na kolor czarny, nawet jeśli przewiduje się, że średnio raz na trzy wyciągnięcia kula nie będzie czarna. Gdy wyciągamy kulę białą i odkrywamy, że obstawiliśmy źle, to czy to odkrycie a posteriori usprawiedliwia wsteczną zmianę zdania na temat racjonalności wyboru dokonanego przy obstawianiu? Oczywiście, że nie. Wybór koloru czarnego był wyborem słusznym, nawet jeśli kolejna wyciągnięta kula okaże się biała. W przypadku prawdopodobieństwa uzyskana informacja nie może mieć ewentualnego wstecznego wpływu na osąd dotyczący racjonalności decyzji podjętej wcześniej w obliczu niepewnej i ryzykownej przyszłości. To ograniczenie dotyczące oceny prawdopodobieństwa zajścia jakiegoś wydarzenia nie ma swojego odpowiednika w osądzie moralnym.

Człowiek spędza wieczór na przyjęciu. Jest w pełni świadomy, że wypił nieco więcej niż powinien, lecz mimo to decyduje się wrócić do domu samochodem. Pada deszcz, jezdnia jest mokra, światła zmieniają się na czerwone i mężczyzna naciska na hamulec, ale nieco za późno. Samochód wpada w poślizg i zatrzymuje się tuż za przejściem dla pieszych. Możliwe są dwa scenariusze: albo nikogo nie było na przejściu i mężczyzna wymknął się stamtąd tylko z retrospektywnym odczuciem strachu, albo przejechał i zabił dziecko. Osąd z punktu widzenia prawa, a przede wszystkim moralności, różnić się będzie w obu tych przypadkach. I jeszcze jeden wariant – mężczyzna był trzeźwy i nie ma się za co winić. Jednak albo przejechał dziecko, albo go nie przejechał. I znowu, nieprzewidywalny rezultat wydarzenia będzie miał wsteczny wpływ na osąd jego zachowania – dokonany tak przez innych, jak i niego samego.

Bardziej skomplikowany przykład przytoczył brytyjski filozof Bernard Williams12. Dokonam tutaj znacznego uproszczenia tego przykładu. Pewien malarz – nazwijmy go dla wygody Gauguinem – decyduje, że opuści żonę i dzieci i pojedzie na Tahiti, by prowadzić tam inne życie, co, jak ma nadzieję, pozwoli mu stworzyć arcydzieło, o jakim marzy. Czy ma do tego prawo? Czy jest to moralne? Williams z wielką subtelnością broni tezy, że jakiekolwiek ewentualne usprawiedliwienie postępowania Gaugina może być wyłącznie retrospektywne. Tylko powodzenie lub porażka tego przedsięwzięcia umożliwi nam – oraz samemu malarzowi – wydanie osądu. Niemniej jednak to, czy Gauguin zostanie wielkim malarzem, czy też nie, jest częściowo kwestią trafu – czy będzie miał szczęście stać się tym, kim pragnie być. Gdy Gauguin podejmuje tę bolesną decyzję, nie może wiedzieć, co – jak to się mówi – szykuje dla niego przyszłość. Nie można też powiedzieć, że malarz podejmując swą decyzję, zawiera zakład. Byłoby to niesamowicie redukcjonistyczne stwierdzenie. Pojęcie „trafu moralnego”, mimo swojej pozornej paradoksalności, daje nam właśnie to, czego brakowało nam, gdy próbowaliśmy opisać stawkę, jaka jest obecna przy decydowaniu w warunkach niepewności.

Podobnie jak Gauguin Bernarda Williamsa, ale w zupełnie innej skali, ludzkość jako podmiot zbiorowy dokonała wyboru w kwestii rozwoju swoich możliwości, wystawiając się na działanie trafu moralnego. Być może wybór ten doprowadzi do wielkich nieodwracalnych katastrof, być może uda się znaleźć środki, by tym katastrofom zapobiec, ominąć je lub przetrwać. Nikt nie wie, jak się sprawy rozwiną. Osąd wyboru może być jedynie wsteczny. Jednakże możemy przewidywać nie tyle sam osąd, co fakt, że musi on zależeć od tego, co będzie nam wiadome, gdy „zasłona niewiedzy”, ukrywająca przed nami przyszłość, zostanie podniesiona. Tak więc nadal jest czas, by upewnić się, że nasi potomkowie nigdy nie będą mogli powiedzieć „za późno!”, mając na myśli to, że znaleźli się w sytuacji, w której istnienie ludzkości godnej tego miana stało się niemożliwe.

Niemożliwość wiary w katastrofę

Teraz przedstawię najistotniejszy powód odrzucenia zasady ostrożności. Kładąc nacisk na naukową niepewność, całkowicie błędnie rozumie się naturę przeszkody, która powstrzymuje nas przed działaniem w obliczu katastrofy. Tą przeszkodą nie jest niepewność – czy to naukowa, czy inna – lecz niemożliwość wiary w to, że przydarzy się najgorsze.

Zastanówmy się, co robili rządzący, zanim pojawiła się idea ostrożności. Czy wdrażali politykę zapobiegania, tego zapobiegania, w stosunku do którego idea ostrożności ma być nowatorska? Nie. Zwyczajnie czekali z działaniem do czasu, gdy nastąpi katastrofa – tak jakby jej nadejście stanowiło jedyną rzeczywistą podstawę, na której można by ją prawomocnie przewidzieć, na co oczywiście było by już za późno.

Nawet jeśli wiadomo, że dojdzie do katastrofy, trudno w nią uwierzyć – i właśnie to stanowi główną przeszkodę. Na podstawie analizy licznych przykładów pewien angielski badacz odkrył coś, co nazwał „odwrotną zasadą oceny ryzyka”13 Chodzi o to, że skłonność jakiejś społeczności do uznania istnienia ryzyka wydaje się zależna od tego, jak bardzo wierzy ona w istnienie rozwiązania problemu. Zakwestionowanie tego, co przyzwyczailiśmy się uważać za postęp, miałoby tak niesamowite konsekwencje, że nie wierzymy w to, że stoimy w obliczu katastrofy. Nie ma tu żadnej niepewności lub jest jej niewiele. Jest to co najwyżej alibi.

Oprócz psychologii pytanie o przyszłą katastrofę wprowadza do gry całą metafizykę czasowości. Świat doświadczył tragedii 11 września 2001 roku w mniejszym stopniu jako momentu wprowadzenia w rzeczywistość czegoś niedorzecznego, a zatem niemożliwego, a bardziej jako nagłego przekształcenia niemożliwego w możliwe. Wszystko, co najgorsze, stało się teraz możliwe – mówiono niekiedy. Skoro stało się możliwe, to znaczy, że wcześniej takie nie było. A jednak nasz zdrowy rozsądek protestuje: przecież skoro się stało, to musiało być możliwe.

Henri Bergson następująco opisuje swoje uczucia z 4 sierpnia 1914, gdy dowiedział się, że Niemcy wypowiedziały Francji wojnę:

Pomimo szoku i mojego przekonania, że wojna będzie katastrofą nawet w przypadku zwycięstwa, poczułem […] rodzaj podziwu dla łatwości, z jaką nastąpiło przejście od abstraktu do konkretu. Kto by pomyślał, że tak bardzo budząca strach ewentualność mogła ziścić się tak od niechcenia? To wrażenie prostoty przewyższyło wszystko.

To osobliwe poczucie swojskości ostro kontrastowało z uczuciami, które panowały przed katastrofą. Wojna zatem wydała się Bergsonowi „jednocześnie tak samo prawdopodobną, jak i niemożliwą: złożoną i sprzeczną ideą, która utrzymywała się aż do brzemiennej w skutki daty”.

W rzeczywistości Bergson zgrabnie rozwikłuje tę pozorną sprzeczność. Wyjaśnia to, snując rozważania na temat dzieła sztuki. „Sądzę, że fakt, iż powołując dzieło do istnienia, artysta w tym samym czasie tworzy to, co możliwe, i to, co rzeczywiste, ostatecznie będzie uznany za oczywistość” – pisze. Można się wahać, czy refleksja ta może dotyczyć także dzieła zniszczenia. A jednak również o terrorystach można powiedzieć, że w tym samym momencie tworzą to, co możliwe, i to, co rzeczywiste.

Katastrofy charakteryzują się niejako odwróconą czasowością. Będąc wydarzeniem, które nadchodzi znikąd, katastrofa staje się możliwa jedynie dzięki temu, że sama się „umożliwia” (mówiąc językiem Sartre’a, który w tym punkcie dobrze odrobił lekcję z Bergsona). To jest właśnie źródłem problemu. Bo jeśli chcemy zapobiec katastrofie, musimy wierzyć w jej możliwość, zanim się ona wydarzy. Jeśli zaś, z drugiej strony, uda nam się jej zapobiec, fakt, że do niej nie doszło, utrzymuje ją w dziedzinie tego, co niemożliwe, i w konsekwencji, gdy spojrzymy wstecz, wysiłek zapobiegawczy wyda się bezużyteczny.

III. W stronę oświeconych form katastrofizmu

Pobudki

W katastrofie straszne jest nie tylko to, że nie wierzymy, iż ona nastąpi, nawet jeśli mamy wszelkie powody, by wiedzieć, że tak będzie, lecz raczej to, że gdy tylko nastąpi, wydaje nam się to częścią naturalnego porządku rzeczy. Jej urzeczywistnienie czyni ją banalną. Nie uważa się jej za możliwą, zanim się zmaterializuje, a gdy już jest, włączona zostaje bez zbędnych ceregieli w „ontologiczną strukturę” świata, w żargonie filozofów mówiąc. Niespełna miesiąc po ataku na World Trade Center władze amerykańskie musiały przypomnieć obywatelom, jak poważne było to wydarzenie, tak by pragnienie wymierzenia sprawiedliwości i zemsty nie osłabło. Dwudziesty wiek pokazuje, że najgorsze obrzydliwości mogą zostać zaakceptowane przez powszechną świadomość bez większych trudności. Rozsądne i spokojne kalkulacje menedżerów ryzyka stanowią kolejny dowód na zdumiewającą zdolność ludzkości do poddawania się temu, co niedopuszczalne. Są one najbardziej widocznym symptomem oderwanego od rzeczywistości podejścia, które polega na radzeniu sobie z „ryzykiem” poprzez wyizolowanie go z ogólnego kontekstu, do którego należy.

To właśnie ta spontaniczna metafizyka czasowości katastrof stanowi główną przeszkodę w zdefiniowaniu właściwej dla naszych czasów formy roztropności. Starałem się to przedstawić w książce Pour un catastrophisme éclaire14, jednocześnie widząc rozwiązanie tego problemu w antidotum na tę właśnie metafizykę. Pomysł polega na myślowym przeniesieniu się w przyszłość i spojrzeniu stamtąd na naszą teraźniejszość i ocenieniu jej z tej perspektywy. Tę pętlę czasową między przyszłością a przeszłością nazywam metafizyką czasu rzutowanego (ang. projected time). Jak zobaczymy, ma ona sens jedynie wtedy, gdy przyjmiemy, że przyszłość jest nie tylko realna, ale w dodatku jest ustalona. Możliwość istnieje tylko w teraźniejszej i przyszłej rzeczywistości, a ta rzeczywistość jest sama w sobie koniecznością15. Mówiąc dokładniej, przed nastąpieniem katastrofy nie może ona nastąpić; dopiero gdy następuje, jej cechą staje się to, że zawsze była konieczna. Dlatego więc nie­‑katastrofa, która była możliwa, zaczyna być zawsze niemożliwa. Zaproponowana przeze mnie metafizyka, będąca podstawą roztropności zastosowanej do czasowości katastrof, polega na rzutowaniu siebie samego w czas po katastrofie i retrospektywnym dostrzeżeniu w tej ostatniej wydarzenia zarazem koniecznego i nieprawdopodobnego. Tutaj wkracza zasadnicze pojęcie nieokreśloności (ang. indeterminacy). (Nie)prawdopodobieństwo jakiegoś wydarzenia koniecznego nie stanowi już miary niewiedzy, która ma szansę okazać się tylko tymczasowa (niepewność). Jest jednym ze składników rzeczywistości, która nie jest do końca określona (nieokreśloność).

Te pomysły sprawiają pewne trudności i można się zastanawiać, czy warto pochylać nad tego rodzaju konstrukcjami. Twierdzę, że główna przeszkoda w uświadomieniu sobie zagrożeń dla przyszłości ludzkości ma charakter pojęciowy. Jak powiedział niegdyś Albert Einstein, mamy już środki do zniszczenia samych siebie i naszej planety, ale nie zmieniliśmy jeszcze sposobu myślenia.

Podstawy metafizyki dostosowanej do czasowości katastrof

Paradoks „oświeconego przepowiadania katastrof” prezentuje się następująco: aby perspektywa katastrofy nabrała wiarygodności, należy zwiększyć siłę ontologiczną jej wpisania się w przyszłość. Jeśli jednak uda nam się to zrobić, stracimy z oczu cel, którym jest podniesienie świadomości i przyspieszenie działań zapobiegających katastrofie. Przykładem tego paradoksu jest znana z literatury i filozofii klasyczna figura sędziego zabójcy. „Neutralizuje” (morduje) on kryminalistów, co do których wiadomo, że popełnią przestępstwo, ale konsekwencją tej neutralizacji jest właśnie to, że przestępstwo nie zostanie popełnione16! Intuicyjnie wydawałoby się, że ten paradoks wywodzi się z tego, że wypowiedziana w przeszłości przepowiednia i przyszłe wydarzenie nie zeszły się w zamkniętej pętli. Aczkolwiek, jak pokazuje metafizyczna struktura zapobiegania, sam pomysł takiej właśnie pętli nie ma sensu w zwyczajnej metafizyce. Zapobieganie polega na podjęciu działania, które ma sprawić, że niechciana możliwość zostanie odesłana do ontologicznego królestwa nieziszczonych możliwości. Nawet jeśli katastrofa nie nastąpi, zachowuje status możliwości – nie w tym sensie, że nadal możliwe jest jej zaistnienie, lecz w takim, że na zawsze będzie prawdziwym to, że mogła zaistnieć. Gdy ogłasza się, chcąc temu zapobiec, że nadchodzi katastrofa, informacja ta nie ma statusu przepowiedni w ścisłym znaczeniu tego terminu. Nie rości sobie prawa do tego, że mówi, jaka będzie przyszłość, lecz tylko jaka ona by była, gdyby nie przedsięwzięto środków zapobiegawczych. Tutaj niepotrzebna jest żadna pętla: ogłoszona przyszłość nie musi zbiegać się z rzeczywistą przyszłością, przepowiednia nie musi się spełnić, gdyż ogłoszona lub przepowiedziana „przyszłość” w zasadzie nie jest przyszłością, lecz możliwym światem, który jest i pozostanie nieziszczony17. Ten schemat jest nam znany, gdyż odpowiada naszej „zwykłej” metafizyce, w której czas rozwidla się w serie kolejnych gałęzi, wśród których jedna przedstawia rzeczywisty świat. Nazwałem tę metafizykę czasowości „czasem realizowanym” (ang. occurring time) – ma on strukturę drzewa decyzyjnego:

nid%3D1307%7Ctitle%3DCzas%20realizowany%7Cdesc%3DCzas%20realizowany%7Clink%3Dnone

Czas realizowany

Cały mój wysiłek miał na celu pokazanie spójności alternatywnej metafizyki czasowości, dostosowanej do zmierzenia się z przeszkodą w postaci niewiarygodnego charakteru katastrof. Nazwałem tę alternatywę „czasem rzutowanym”; przybiera on formę pętli, w której przeszłość i przyszłość wzajemnie się determinują:

nid%3D1308%7Ctitle%3DCzas%20rzutowany%7Cdesc%3DCzas%20rzutowany%7Clink%3Dnone

Czas rzutowany

W czasie rzutowanym przyszłość uważa się za ustaloną, co oznacza, że każde wydarzenie, które nie jest częścią teraźniejszości lub przyszłości, jest wydarzeniem niemożliwym. To powoduje, że w czasie rzutowanym roztropność nie może przyjąć formy zapobiegania. Powtórzę: zapobieganie zakłada, że niepożądane zdarzenie, któremu się zapobiega, jest niezrealizowaną możliwością. Abyśmy mieli jakiekolwiek powody do działania, zdarzenie musi być dla nas czymś możliwym, lecz jeśli nasze działania odniosą pożądany skutek, ono się nie zrealizuje. W ramach koncepcji czasu rzutowanego jest to nie do pomyślenia.

Przepowiadanie przyszłości w czasie rzutowanym polega na znalezieniu w pętli punktu stałego, w którym zbiega się oczekiwanie (po stronie przeszłości w odniesieniu do przyszłości) oraz powodowanie (zaistnienia przyszłości przez przeszłość). Ten, kto przepowiada, wiedząc, że jego przepowiednia wywoła pewne efekty przyczynowe w świecie, musi wziąć ten fakt pod uwagę, jeśli chce, by przyszłość potwierdziła jego przepowiednię. Tradycyjnie, a więc w świecie zdominowanym przez religię, jest to rola proroka, zwłaszcza biblijnego18. To wyjątkowa postać, często ekscentryczna, której nie da się nie zauważyć. Jego proroctwa wywierają wpływ na świat i bieg wydarzeń właśnie z tych czysto ludzkich i społecznych powodów, ale także dlatego, że ci, którzy słuchają proroka, wierzą, że jego słowo jest słowem Jahwe i to słowo, którego nie można usłyszeć bezpośrednio, ma moc sprawczą. Dzisiaj powiedzielibyśmy, że słowo proroka ma moc performatywną, czyli spełnia się, gdy się je wypowiada. Prorok o tym wie. Można by stwierdzić, że prorok ma moc rewolucjonisty – mówi tak, że rzeczy zmieniają się w takim kierunku, w jakim on chce. Ale w ten sposób zapomina się o fatalistycznym aspekcie proroctwa: opisuje ono mianowicie wydarzenia, które się ziszczą tak, jak to zostało zapisane w wielkiej księdze historii, która ma charakter niezmienny i nieuchronny. Proroctwa rewolucyjne zachowały ten wysoce paradoksalny splot fatalizmu i woluntaryzmu, cechujący proroctwa biblijne. Najlepszą tego ilustracją jest marksizm.

Mówię tu jednak o proroctwie w sensie czysto świeckim i technicznym. Prorok jest kimś, kto, mówiąc prozaicznie, stara się odnaleźć punkt stały danego problemu, punkt, w którym woluntaryzm osiąga to, co dyktuje fatalizm. Proroctwo włącza się w swój własny dyskurs. Widzi, jak samo materializuje to, co ogłosiło jako przeznaczenie. W tym sensie w naszych nowoczesnych społeczeństwach demokratycznych, bazujących przecież na nauce i technologii, mamy całe armie proroków. Doświadczenie czasu rzutowanego jest wprowadzane, stymulowane, organizowane, by nie powiedzieć, że narzucane przez liczne cechy naszych instytucji. Wokół nas słychać mniej lub bardziej autorytarne głosy, które wieszczą, jaka będzie bardziej i mniej odległa przyszłość: jutrzejsze korki na ulicach, wyniki nadchodzących wyborów, przyszłoroczne stopy inflacji i wzrostu, zmiany poziomu gazów cieplarnianych w atmosferze i tak dalej. Futuryści i różni inni przepowiadacze, których mianu brakuje splendoru proroka, bardzo dobrze wiedzą, tak jak i my wiemy, że przyszłość, którą nam ogłaszają jako zapisaną w gwiazdach, jest przyszłością, którą sami sobie stwarzamy. Nie buntujemy się przeciwko temu, co mogłoby uchodzić za metafizyczny skandal (może czasami przy urnie wyborczej). Starałem się naświetlić właśnie tę spójność sposobu dopasowania w odniesieniu do przyszłości.

Francuski system planowania, który stworzył niegdyś Pierre Massé, stanowi najlepszy znany mi przykład tego, co oznacza przewidywać przyszłość w czasie rzutowanym. Roger Guesnerie zwięźle uchwycił ducha tego podejścia do planowania, pisząc o nim, że „jego celem jest otrzymanie na drodze konsultacji i badań wystarczająco optymistycznego obrazu przyszłości, by go pożądać, i wystarczająco wiarygodnego, by zainicjować działania, które doprowadziłyby do jego realizacji”19. Łatwo można dostrzec, że ta definicja ma sens jedynie w ramach metafizyki czasu rzutowanego i idealnie opisuje jej charakterystyczne zapętlenie między przeszłością a przyszłością. Dopasowanie jest tutaj osiągane na podstawie pewnego obrazu przyszłości, zapewniającego ścisły związek między przyczynowym tworzeniem przyszłości a samospełniającym się jej oczekiwaniem.

Oto paradoks rozwiązania problemu stawianego przez zagrożenia wiszące nad przyszłością ludzkości, jakie daje osoba przepowiadająca katastrofę. To kwestia osiągnięcia dopasowania na podstawie negatywnego projektu, przybierającego formę ustalonej przyszłości, której zrealizowania nikt nie chce. Można spróbować przekształcić definicję Guesnerie’a w następujący sposób: na drodze naukowej futurologii i rozważań nad celami ludzkości otrzymać obraz przyszłości wystarczająco katastroficzny, by był odpychający, i wystarczająco wiarygodny, by wywołał działania, które zablokowałyby jej realizację. Jednak takie sformułowanie nie brałoby pod uwagę jednego zasadniczego elementu, a mianowicie, że tego rodzaju przedsięwzięcie wydaje się od samego początku posiadać zasadniczy defekt: wewnętrzną sprzeczność. Jeśli udałoby się uniknąć niepożądanej przyszłości, jak można byłoby stwierdzić, że osiągnięto dopasowanie na drodze wglądu w tę właśnie przyszłość? Ten paradoks jest nierozstrzygalny.

Aby wyjaśnić, na czym polega moje rozwiązanie tego paradoksu, konieczne byłoby rozwinięcie technicznych szczegółów rozwoju metafizyki, na które nie ma tu miejsca20. Ograniczę się więc do przekazania pobieżnego ujęcia schematu, na którym opiera się moje rozwiązanie. Wszystko obraca się wokół nieokreśloności, której natura i struktura wymykają się tradycyjnym kategoriom niepewności, omówionym przeze mnie powyżej.

Problem polega na ustaleniu, jakiego rodzaju punkt stały jest w stanie zapewnić domknięcie pętli łączącej przyszłość z przeszłością w czasie rzutowanym. Wiemy, że nie może nim być katastrofa: sygnały wysyłane przez nią z powrotem do przeszłości wywołałyby działania, które powstrzymałyby realizację katastroficznej przyszłości. Jeśli powstrzymujący efekt katastrofy zadziałałby idealnie, sam by się unicestwił. Aby sygnały z przyszłości w kierunku przeszłości nie wywołały tego właśnie, co unicestwiłoby ich źródło, musi zaistnieć niedoskonałość w domknięciu pętli, wpisana w przyszłość. Wyżej zaproponowałem zmienioną wersję stworzonej przez Rogera Guesnerie’a definicji niegdysiejszego celu francuskiego systemu planowania – po to, by zasugerować, co mogłoby służyć za maksymę racjonalnej formy przepowiadania katastrof. Dodałem jeszcze, że jak tylko maksyma zostaje ogłoszona, sama siebie obala. Widzimy teraz, jak można ją poprawić, aby uchronić ją przed tym niepożądanym losem. Nowa formuła brzmiałaby: otrzymać obraz przyszłości wystarczająco katastroficzny, by był odrzucający, i wystarczająco wiarygodny, by wywołał działania, które zablokowałyby jej realizację, powstrzymując katastrofę.

Niektórzy mogą chcieć obliczyć prawdopodobieństwo zajścia takiej katastrofy. Powiedzmy, że jest to epsilon, ε – słabe lub bardzo słabe z definicji. Powyższe wyjaśnienie można podsumować bardzo zwięźle: ponieważ istnieje prawdopodobieństwo ɛ, że nie uda się powstrzymać katastrofy, więc uda się z prawdopodobieństwem 1­‑ε. To, co wygląda na tautologię (w metafizyce czasu rzutowanego z pewnością by nią było), absolutnie nią tutaj nie jest, gdyż poprzednie twierdzenie nie jest prawdziwe dla ε=0. Nieciągłość przy ε=0 sugeruje, że działa tu coś w rodzaju zasady nieoznaczoności. Prawdopodobieństwa ε i 1­‑ε zachowują się jak prawdopodobieństwa w mechanice kwantowej. Punkt stały trzeba pomyśleć jako superpozycję tych dwóch stanów, przy czym jeden z nich jest akcydentalnym i ustalonym wcześniej nadejściem katastrofy, a drugi jest jej niezaistnieniem.

Fakt, że powstrzymanie katastrofy nie będzie skuteczne z silnie pozytywnym prawdopodobieństwem ε, pozwala na wpisanie jej w przyszłość. A to wpisanie sprawia, że powstrzymanie jest skuteczne przy marginesie błędu ε. Trzeba zauważyć, że nieprawidłowe byłoby stwierdzenie, że to możliwość błędu, przy prawdopodobieństwie ε, ocala skuteczność powstrzymania – tak jakby błąd i brak błędu stanowiły dwie rozgałęzione ścieżki wychodzące z rozwidlenia. W czasie rzutowanym nie ma rozgałęzionych ścieżek. Błąd nie jest po prostu możliwy, jest rzeczywisty. Jest wpisany w czas, jak literówka. Przyszłość jest zapisana, lecz częściowo nieokreślona. Zawiera w sobie katastrofę, ale jako przypadek. Jak pisał jeden z najbardziej metafizycznych poetów świata, Jorge Luis Borges: „przyszłość jest nieunikniona, ale może się nie wydarzyć”.

Innymi słowy, to właśnie, co nam zagraża, może być naszym jedynym wybawieniem.

Przełożyła Katarzyna Sosnowska
Przekład przejrzała i poprawiła Aneta Osuch

Tekst pochodzi z: „Occasion: Interdisciplinary Studies in the Humanities”, 2009, Vol. 1 [@:] http://arcade.stanford.edu/occasion/precautionary-principle-and-enlightened-doomsaying-rational-choice-apocalypse. Pierwotnie został wygłoszony na konferencji Rational Choice Theory and the Humanities („Teoria racjonalnego wyboru a nauki humanistyczne”) na Uniwersytecie Stanforda 29­‑30 kwietnia 2005 roku. Niniejszy przekład ukazał się w: „Recykling Idei”, 2013, jesień, nr 15. Artykuł objęty jest licencją Creative Commons – Uznanie autorstwa – Użycie niekomercyjne – Na tych samych warunkach 3.0 (CC BY­‑NC­‑SA 3.0) – http://creativecommons.org/licenses/ by­‑nc­‑sa/3.0/deed.pl.

Przypisy:

1. W języku polskim nazywa się ją zasadą nieoznaczoności (przyp. tłum).

2. M. Reese, Our final hour: a scientist’s warning: how terror, error, and environmental disaster threaten humankind’s future in this century – on Earth and beyond, New York 2003.

3. B. Joy, Why the future doesn’t need us.Our most powerful 21st­‑century technologies – robotics, genetic engineering, and nanotech – are threatening to make humans an endangered species [@:] http://www.wired.com/wired/archive/8.04/joy.html (data dostępu: 19 października 2013). Bill Joy wynalazł język Java, stosowany w Internecie.

4. Zob. J.P. Dupuy, La panique, Paris 2003.

5. H. Jonas, Zasada odpowiedzialności, tłum. T. Kowalski, M. Klimowicz, Kraków 1996.

6. Konsekwencjonalizm jako doktryna etyczna zakłada, że w ocenie działania liczą się jego konsekwencje dla wszystkich zaangażowanych jednostek.

7. Doktryna deontologiczna ocenia słuszność działania w kategoriach jego zgodności z normą lub regułą, na przykład Kantowski imperatyw kategoryczny.

8. Zob. J.P. Dupuy, Pour un catastrophisme éclair, Paris 2002; tenże, Philosophical foundations of a new concept of equilibrium in the social sciences: projected equilibrium [w:] „Philosophical Studies”, 2000, Vol. 100, s. 323­‑345; tenże, Two temporalities, two rationalities: a new look at Newcomb’s paradox [w:] Economics and cognitive science, red. P. Bourgine, B. Walliser, New York 1992, s. 191­‑220; tenże, Common knowledge, common sense [w:] „Theory and Decision”,1989, Vol. 27, s. 37­‑62; Self­‑deception and Paradoxes of Rationality, red. J.P. Dupuy, Stanford 1998.

9. Faktycznie definicja ta pochodzi z francuskiej ustawy Barniera z 1995 roku. W prawie unijnym zasada ostrożności przywołana jest w Traktacie o funkcjonowaniu Unii Europejskiej, jednak nie zawiera on jej definicji (przyp. red.).

10. Le Principe de précaution, Raport dla premiera, Paris 2000.

11. Teoria głosząca, że prawdopodobieństwo nie musi być wielkością obiektywną, lecz może być określone na podstawie subiektywnej opinii w zależności od dostępnych w danej chwili danych (przyp. tłum).

12. B. Williams, Traf moralny [w:] tegoż, „Ile wolności powinna mieć wola?” i inne eseje z filozofii moralnej, tłum. M. Szczubiałka, Warszawa 1999.

13. Chodzi o Davida Fleminga (przyp. red.).

14. J.P. Dupuy, Pour un catastrophisme...

15. By uściślić metafizykę czasu rzutowanego, musiałem dorzucić nowe rozwiązanie do jednego z najstarszych problemów metafizycznych w ogóle: Główny Argument Diodora. Zob. J. Vuillemin, Necessity or contingency. The master argument, Stanford 1996.

16. Myślę tu o Zadigu Woltera. Amerykański pisarz science­‑fiction, Philip K. Dick, stworzył na podstawie tej historii Raport mniejszości. Filmowa adaptacja autorstwa Spielberga ustępuje jednak książce.

17. Żeby to zilustrować, można pomyśleć o tych ostrzeżeniach jako o utrudnieniach w ruchu drogowym, których celem jest właśnie zachęcenie kierowców do rezygnacji z tych tras, co do których przewiduje się, że będą zakorkowane.

18. Na ich nieszczęście, a przede wszystkim na nieszczęście ich rodaków, słowa dawnych proroków (jak przepowiednie Laokoona i Kasandry w starożytnej Troi) nie były wysłuchiwane.

19. R. Guesnerie, L’Économie de marché, Paris 1996. To sformułowanie odzwierciedla ducha racjonalnych oczekiwań.

20. Pozwolę sobie odesłać zainteresowanego czytelnika do bibliografii zaprezentowanej w przypisie nr 159 mojej książki Pour un catastrophisme éclairé, Paris 2002.

Jean-Pierre Dupuy – inżynier górnictwa, profesor filozofii, członek francuskiej Akademii Technologii (Académie des technologies). Wykłada na Uniwersytecie Stanforda. Współzałożyciel Międzynarodowego Kolegium etyki, polityki i nauki.