La Computational Intractability of Social Processes * Lecture by W.Marciszewski (Polish) * Index
Gradacja niedostępności obliczeniowej procesów społecznych i ekonomicznych  
www.calculemus.org/forum/4/nied-obl.html



Gradacja niedostępności obliczeniowej
w modelowaniu procesów społecznych i ekonomicznych

Witold Marciszewski


1. Dostępność obliczeniowa a spór o model gospodarki.

Oskar LANGE (1904-1965), sławny teoretyk gospodarki socjalistycznej spierał się z ekonomistami orientacji liberalnej (jednym z nich był sam Friedrich A. Hayek, 1899-1992), czy lepszym regulatorem gospodarki jest wolny rynek, czy centralne planowanie. Trwało to dziesiątki lat, a gdy w trzeciej dekadzie sporu pojawiły się na świecie komputery, Lange nabrał przekonania, że to on definitywnie w tym sporze zwyciężył. Traktował bowiem wolny rynek jedynie jako instrument kalkulacyjny do obliczania prawidłowych cen, to znaczy takich, które by zapewniały równowagę podaży i popytu. Nie przeczył, że rynek jakoś się z tej roli wywiązuje, ale powoli i z błędami. Tymczasem komputer w Centralnej Komisji Planowania wyliczy bezbłędnie "w jednej sekundzie" (własny zwrot Langego) to, co rynek liczyłby z właściwą sobie ślamazarnością.

Z drugiej strony, rozumiał Lange, że moc obliczeniowa komputerów nie zawsze sprosta złożoności gospodarki; dopuszczał więc pomocniczą rolę rynku w sterowaniu gospodarką na krótszych dystansach jako instrumentu centralnej władzy ekonomicznej. Absolutną natomiast przewagę uzbrojonego w komputer centralnego planisty upatrywał w rozwiązywaniu długofalowych problemów wzrostu gospodarczego. Podczas gdy rynek nadaje się, jak sądził, co najwyżej do regulowania na bieżąco równowagi ekonomicznej, nie potrafi on wytyczać dalekosiężnych celów rozwoju.

Słabości rozumowań Langego są dziś łatwe do zauważenia dzięki powstaniu nowej dziedziny badań noszącej różne, dopełniające się znaczeniowo, określenia:

    • teoria układów wysoce złożonych (complex systems)
    • teoria układów niestabilnych
    • teoria chaosu.
Dyscyplina ta wchodzi w ścisłe związki z logiką matematyczną i informatyką z ich pojęciami obliczalności, rozstrzygalności, złożoności obliczeniowej itp. Dyscypliny te dostarczają wspólnymi siłami uogólnienia kilku pojęć pod wspólną nazwą: niedostępność obliczeniowa.

W okresie, kiedy nauka nie doszła jeszcze do tych zrozumień, Lange zakładał jako oczywiste, że wszystko na tym świecie, także w gospodarce, da się policzyć. Jeśli dopuszczał, że czasem się zrezygnuje z komputera, to tylko dlatego, że byłoby to zbyt kosztowne w sensie nakładów czasu lub pieniędzy, a nie dlatego, żeby obliczenie miało być w przewidywalnym czasie niemożliwe.

Taka niemożliwość rozwiązań obliczeniowych, która stanowi przedmiot wymienionych wyżej teorii, to właśnie

niedostępność obliczeniowa.

Obejmujemy nim kilka różniących się wzajem właściwości tych układów lub procesów, które cechuje wielka złożoność. O żadnym z nich nie śniło się luminarzom ekonomii politycznej socjalizmu, a prawdę mówiąc, także luminarzom z innych sfer. Żeby podsumować przykładowe nawiązanie do teorii Langego, możemy teraz jej matematyczne credo ująć najkrócej słowami: wszystkie procesy ekonomiczne są dostępne obliczeniowo.

Rodzaje niedostępności obliczeniowej da się w pewien sposób ustopniować. Trzy stopnie niżej wymienione nie wyczerpują wszystkich. Pomija się tak ważną odmianę, jak niedostępność obliczeniowa układów mikroświata związaną z indeterminizmem kwantowym. Pomija się ją, z oczywistą szkodą dla pełności obrazu, ale z tym usprawiedliwieniem, że nie jest tu możliwe wchodzenie w tematykę tak zawrotnie skomplikowaną jak mechanika kwantowa. Tym natomiast, co ma szansę na zwięzłe ujęcie są następujące odmiany niedostępności obliczeniowej.

  N I E O B L I C Z A L N O Ś Ć stanu układu:   dla pewnych wielkości charakteryzujących ten stan nie istnieje algorytm ich obliczania.
  N I E P R Z E W I D Y W A L N O Ś Ć deterministyczna stanu układu:   mimo istnienia algorytmu wyznaczającego kolejne stany, od pewnego punktu nie dają się one przewidzieć.
  N I E W Y K O N A L N O Ś Ć techniczna:   dokładność danych niezbędnych do rozwiązania problemu wymaga opisu tak długiego, że przetworzenie go przekracza aktualne moce obliczeniowe.


2. Nieobliczalność w sensie Turinga czyli o tym, że istnieją liczby rzeczywiste, do których nie da się dotrzeć algorytmem.

Alan M. TURING (1912-1954) należy do sztandarowych postaci nauki 20go wieku w kilku kategoriach: logika matematyczna, informatyka, kryptografia. W przesławnej pracy z roku 1936 On Computable Numbers, with an application to the Entscheidungsproblem dokonał trzech przełomowych odkryć:

  • dowiódł istnienia liczb nieobliczalnych
  • na tej podstawie wykazał (rzecz zdumiewającą!), że są w rachunku logicznym zagadnienia nierozstrzygalne
  • aby uzyskać te wyniki podał, niejako po drodze, pierwszą w historii definicję komputera cyfrowego.
Nazwał to urządzenie po prostu maszyną. Inni ochrzcili je imieniem maszyny Turinga. Pod tą nazwą funkcjonuje jedno z naczelnych pojęć współczesnej nauki (logiki, informatyki, fizyki). Przejście od konstrukcji maszyny do dowodu istnienia liczb nieobliczalnych wymagało wyrafinowanej metody kodowania - tak, żeby każdej maszynie przypisać określoną liczbę naturalną (dzięki temu mistrzostwu w kodowaniu znalazł się Turing w zespole do deszyfrowania "Enigmy").

Idea dowodu jest następująca. Maszynę liczącą definiuje się jako funkcję arytmetyczną (odpowiednik programu) wyposażoną w czytnik i urządzenie zapisujące oraz nieskończoną (dla uproszczenia konstrukcji) pamięć. System kodowania funkcji przyporządkowuje każdej z nich pewną liczbę naturalną. Następnie dowodzi się (argument przekątniowy Cantora), że istnieje liczba nie należąca do zbioru liczb kodujących, a więc taka, dla której nie ma funkcji pozwalającej ją obliczyć. Takie obiekty określa się jako liczby nieobliczalne, a funkcje, których są one wartościami jako funkcje nieobliczalne.

Tak wyspecjalizowane maszyny odróżnia się od uniwersalnej maszyny Turinga. Maszyna uniwersalna jest abstrakcyjnym prototypem komputera cyfrowego (w omawianym dowodzie występują maszyny wyspecjalizowane).

Poniższa tabelka służy do porównania liczb nieobliczalnych z innymi rodzajami liczb. Wielokropek wskazuje na miejsce występowania nieskończonych ciągów liczb. Klasa liczb naturalnych zawiera się w klasie wymiernych obejmującej ułamki, od tej zaś różni się klasa liczb niewymiernych, których przykładem jest w tabelce pierwiastek kwadratowy z dwóch. Różnica polega na tym, że liczba niewymierna ma nieskończone i nieperiodyczne rozwinięcie dziesiętne; stąd nigdy nie możemy poznać jej do końca, możemy jednak ją poznawać z dowolną zadaną dokładnością. Ta możliwość obliczania cechuje klasy wymienione w trzech pierwszych wierszach. Kontrastuje z nimi klasa z wiersza czwartego; reprezentuje on wszystkie liczby rzeczywiste, a wśród nich są liczby, dla których nie ma algorytmów obliczania (symbolizowane przez "?").

  nazwa klasy liczb przykłady
  liczby naturalne   0, 1, 2, 3 . . .
  liczby wymierne   0 . . . 1/2 . . . 1
  liczby niewymierne obliczalne   1 . . . PK(2) . . . 2
  liczby nieobliczalne   0 . . . . . . 1

Przymiotnik nieobliczalne odnosimy w matematyce do liczb i do funkcji. W zastosowaniach matematyki dotyczy on tych układów w świecie empirycznym, których stany trzeba by (gdybyśmy to potrafili) wyrażać w liczbach nieobliczalnych. Czy takie układy istnieją? To bardzo głęboki problem filozoficzny, od niedawna dopiero uświadomiony i nie mający jeszcze rozwiązania; powinno ono przyjść od połączonych sił logiki, informatyki i fizyki.

Jak atakować ów problem istnienia? Podchodzi się do niego na dwa sposoby. Sposób bezpośredni polega na wskazaniu takich układów fizycznych, w których występują wielkości nieobliczalne. Pojawiają się doniesienia fizyków o odkryciu takich układów w świecie kwantów, ale dyskusja na ten temat jest dopiero w stadium początkowym.

Podejście pośrednie też wiąże się z fizyką, ale przy zaangażowaniu do pomocy logiki matematycznej oraz filozofii. Założeniem filozoficznym jest, że wszelkie akty świadomości, w tym akty poznania matematycznego, mają uwarunkowanie fizyczne w mózgu i że zachodzi ono na poziomie kwantowym (za czym przemawiają pewne argumenty pochodzące m.in. od Johna Ecclesa, noblisty w neurobiologii). Z logiki matematycznej bierze się twierdzenie Gödla (pokrewne wynikom Turinga), że istnieją w arytmetyce zdania, których prawdziwości nie da się dowieść środkami algorytmicznymi, a więc niedostępne dla komputera, takie jednak, że dla umysłu ludzkiego ich prawdziwość jest oczywista. W takim razie pewne procesy umysłowe są w stanie pokonać barierę Turinga, czyli poznać prawdy nieosiągalne algorytmicznie. A skoro umysł jest układem, który potrafi działać nie-algorytmicznie, to samo należy przyjąć o jego fizycznym podłożu, którym jest mózg. I tak nie-algorytmiczność, a więc nieobliczalność, ukazuje się jako cecha pewnych układów w świecie fizycznym. Ten sposób myślenia reprezentuje najdobitniej wybitny fizyk z Oksfordu Roger Penrose.

Hipoteza Penrose'a rzutuje na problem dostępności obliczeniowej w ekonomii - na tyle, na ile procesy gospodarcze zależą od procesów zachodzących w ludzkiej świadomości. A z pewnością zależą. Tak więc aktorzy wolnego rynku, będąc obdarzeni świadomością, mogą w sposób intuicyjny rozwiązywać problemy, którym nie podoła najpotężniejszy komputer, zdolny jedynie do procesów algorytmicznych. A i sam rynek stanowi może zawrotnie złożony układ liczący, ale nie cyfrowy, który rozwiązuje problemy nierozwiązywalne dla pojedynczej ludzkiej świadomości; byłaby to informatyczna interpretacja powiedzenia Smitha o niewidzialnej ręce rynku.


3. Procesy deterministyczne nieprzewidywalne
czyli o kłopotach demona Laplace'a.

Pierre-Simon LAPLACE (1749-1827) był tym, od którego pochodzi słynne sformułowanie tezy fizykalnego determinizmu. Jest ono znane w formie przypowieści na temat demona czyli super-umysłu, obdarzonego wszechwiedzą o fizycznym wszechświecie. Oto wypowiedź Laplace'a.

Aktualny stan świata jest zdeterminowany jego stanem przeszłym i determinuje stan przyszły. Umysł, który znałby w dowolnym danym momencie prawa rządzące wszystkimi siłami przyrody i położenia wszystkich ciał we wszechświecie, a zarazem byłby zdolny całość tych danych ogarnąć i zanalizować, potrafiłby w jednej formule zawrzeć wszystkie ruchy wszystkich ciał, od największych do najmniejszych. Dla takiego bowiem umysłu nie byłoby niczego, czego nie mógłby poznać z absolutną pewnością: miałby on przed oczyma całą przyszłość tak samo jak przeszłość.

Morał z tej opowieści zawiera się w zdaniu, wyrażającym krótko stanowisko Laplace'a, które oznaczymy jako [L]:

Jeśli świat jest deterministyczny, to jest obliczeniowo dostępny dla maszyny mającej skończoną, odpowiednio wielką, moc obliczeniową.

Laplace, choć należał do największych umysłów w dziejach nauki, nie mógł dorównać swemu demonowi w zdolności przewidywania. I oto okazało się w następnym stuleciu, że fałszywy jest poprzednik zdania L, w który Laplace wierzył, jak i fałszywe jest całe to zdanie warunkowe, w które też wierzył. Jest ono błędne, ponieważ nie zachodzi wyrażana w nim w sposób ogólny zależność. Mianowicie, odkryto kontrprzykłady, a więc przypadki, w których pewien proces jest deterministyczny (ponieważ jest algorytmiczny), a zarazem jest on od pewnego momentu całkowicie nieprzewidywalny.

Fałszywość poprzednika wynika z odrzucenia determinizmu w mechanice kwantowej. Pociąga to za sobą niedostępność obliczeniową w tym wariancie, z którego rozważania tu rezygnujemy z racji nader skomplikowanej problematyki. Zatrzymamy się natomiast na kwestii prawdziwości zdania warunkowego L jako związanej z bardziej (dla danego audytorium) swojskim zagadnieniem algorytmiczności.

Algorytmiczność i determinizm idą w parze, gdy przyjmiemy jak to się powszechnie czyni, że deterministyczne prawa nauki zachowują się jak algorytmy do obliczania stanów układu na podstawie danych warunków początkowych. Fakt, że algorytmiczność nie zapobiega w pewnych przypadkach brakowi przewidywalności jest odkryciem zaskakującym. Ma ono aspekt całkowicie matematyczny, jak i aspekt częściowo empiryczny, który wszedł do literatury pod malownicznym określeniem "efekt motyla".

O aspekcie matematycznym należy tu powiedzieć tyle, że konstruuje się algorytmy produkujące pewien proces, który od pewnego momentu jest równie nieprzewidywalny jak nieskończony ciąg rzutów monetą. Przykładem takiego algorytmu, zastosowanego do liczb w przedziale od zera do jeden jest instrukcja: "pomnóż ułamek dziesiętny przez dwa i zamień "1", jeśli występuje przed przecinkiem, na "0". Żeby wykazać, jak taki algorytm prowadzi do nieprzewidywalności, zastosujmy do ułamków notację binarną, co upraszcza problem, zachowując jego istotę.

I tak, w notacji binarnej mamy np. 0,1011 x 10 = 1,011, co po zamianie "1" na "0" (przed przecinkiem) daje 0,011. Zbadajmy funkcjonowanie tego algorytmu wychodząc przykładowo od liczby 0,011010001, co po kolejnych podwojeniach i zamianach "1" na "0" (przed przecinkiem) prowadzi do następującej sekwencji:

0,011010001   0,11010001   0,1010001   0,010001   0,10001   0,0001   0,001   0,01   0,1

Niech powyższy algorytm steruje następującym procesem fizycznym. Mikroskopijna cząstka wykonuje skoki od punktu do punktu na linii zawierającej podziałkę z liczbami rzeczywistymi od 0 do 1 zapisanymi w notacji binarnej (jest to, oczywiście, idealizacja, bo żadna fizycznie wykonana podziałka nie może być tak gęsta). Ułamek 1/2 dzieli ten odcinek na dwie części, lewą (przed 1/2) i prawą. Cząstka zachowuje się według takiej oto reguły: jeśli znajduje się w punkcie oznaczonym liczbą mającą zaraz po przecinku zero, to ma się znaleźć po lewej stronie (tzn. pozostać po lewej, gdy już tam jest, lub skoczyć na lewą, gdy znajduje się po prawej); jeśli zaś jest w punkcie z numerem mającym po przecinku 1, to ma być ulokowana po stronie prawej.

Przyjmijmy, że te ruchy cząstki są zdeterminowane powyższą przykładową sekwencją liczb otrzymanych z algorytmu podwajania (wraz z opisaną operacją na pozycji przed przecinkiem.) To znaczy, kolejne liczby w sekwencji określają położenia cząstki na podziałce. Algorytm ten, przy danej wyjściowej 0,011010001, wyznacza jednoznacznie następujące skoki cząstki na lewo (L) lub na prawo (P).

L, P, P, L, P, L, L, L, P

Dlaczego zachowanie cząstki jest nieprzewidywalne? Powód jest w tym, że pełne określenie położenia cząstki wymaga podania liczby o nieskończonym rozwinięciu, podczas, gdy realnie jesteśmy w stanie wymienić tylko skończoną ilość miejsc po przecinku. Gdy np. pozycję wyjściową określimy z dokładnością do 20 miejsc, nie potrafimy przewidzieć, czy w dwudziestym pierwszym skoku znajdzie sie ona po lewej czy po prawej stronie. Zależy to bowiem od tego, czy na pozycji dwudziestej pierwszej będzie 1 czy 0, a tego właśnie nie wiemy, gdy pomiar położenia dokonany został z dokładnością nie większą niż do 20 miejsc po przecinku.

Tego rodzaju przykład o cechach idealizacji, gdzie cząstka ma rozmiary punktu, a podziałka zawiera nieprzeliczalnie wiele pozycji, trzeba teraz skonfrontować z rzeczywistością empiryczną. Czy przytrafia się jej nieprzewidywalność w układach deterministycznych?

Przypadek dający na to odpowiedź, który stał się klasyką w dziejach nauki, nosi nazwę efekt motyla. Jest to obrazowe podsumowanie myśli o nieprzewidywalności pogody: ruch skrzydeł motyla lecącego nad Pekinem może po miesiącu spowodować tajfun na Florydzie. Wyraża się w tym myśl o nieprzeciętnej wrażliwości układu na warunki początkowe; ich minimalna modyfikacja może mieć kolosalne skutki (gdyby motyl poruszył skrzydłami słabiej, nie byłoby tajfunu).

Za tą przypowieścią kryje się zdarzenie u początków idei nieprzewidywalności deterministycznej, noszącej też nazwę: chaos deterministyczny. Pewnego zimowego dnia w 1961, Edward Lorenz, zajmujący się meteorologią matematyk w MIT, chciał sprawdzić pewne obliczenia, a ponieważ miał wątpliwości tylko co do drugiej ich części, zaczął od tej połowy, wprowadzając dane z otrzymanych wcześniej wydruków. Wyniki były drastycznie różne od poprzednich. Powodem okazało się być to, że dane na wydrukach były, dla oszczędności miejsca, automatycznie zaokrąglane do trzech miejsc, podczas gdy dane w pamięci komputera do sześciu miejsc po przecinku. Nie byłoby to powodem tak zaskakujących rozbieżności, gdyby formuły w zbudowanym przez Lorenza modelu pogody były równaniami liniowymi. Wchodziły jednak w grę równania nieliniowe, a te cechują się tym, że najmniejsza zmiana danych wejściowych może dać wielkie zmiany w końcowych rozwiązaniach. Oto słynny wykres Lorenza porównujący dwie krzywe, z których każda powstała w wyniku innego zaokrąglenia.

Takie były doświadczenia z cyfrowym modelowaniem pogody, które dały początek wielkiemu ruchowi naukowemu przełomu wieków. Nazywa się on krótko "teorią chaosu". Obejmuje badania nad układami niestabilnymi, które cechuje szczególnie wysoka złożoność. W klasie układów tak wysoko złożonych mamy dalsze zróżnicowanie co do stopnia złożoności. Bardziej jeszcze niż pogoda naznaczone są złożonością układy i procesy w przyrodzie organicznej, a jeszcze bardziej układy i procesy umysłowe i społeczne (do tych ostatnich należą ekonomiczne).

Gdy sobie to wszystko uświadomić, stajemy w obliczu paradoksu. Z jednej strony nawet nie próbujemy aktywnego kształtowania pogody, mając dość kłopotów z jej modelowaniem dla celów prognostycznych, z drugiej zaś strony staramy się czynnie wpływać na procesy jeszcze bardziej złożone, dla których znalezienie adekwatnego modelu cyfrowego jest wręcz beznadziejne. Są to procesy umysłowe i zależne od nich społeczne. A jednak ludzie od wieków, lepiej lub gorzej, ale jakoś sobie z tym radzą. Czym to wytłumaczyć? Odpowiedź znajdziemy znowu w kategoriach informatyki, która nas uczy, że prócz cyfrowych istnieją maszyny analogowe. Te zaś zajmują się przeróbką informacji mającej charakter ciągły, nie zaś cyfrowy, cechujący się nieciągłością; ta fundamentalna różnica likwiduje nękający "cyfrowców" problem dokładności pomiaru i wielkości zaokrąglenia.

Spójrzmy na organizmy, umysły i społeczeństwa jak na maszyny analogowe i zapytajmy: na czym polega ich przewaga nad cyfrowymi w modelowaniu rzeczywistości? Niech za przykład do analizy posłuży nam proces organiczno-psychiczny, jakim jest skok tygrysa. Przykład to dlatego pouczający, że istnieją ludzie panujący skutecznie nad skokami tygrysów - treserzy cyrkowi. Kalkulują oni bezbłędnie, choć trudno sobie wyobrazić, żeby zdążyli z rachunkami, gdyby mieli je robić trzymając pejcz w jednej ręce, a w drugiej komputer.


4. Kiedy model analogowy radzi sobie lepiej niż cyfrowy?
Wracamy do sporu o model gospodarki.

Udany skok tygrysa, czy ten w trakcie polowania w dżungli czy ten w cyrku na polecenie tresera, wymaga zawrotnie złożonego procesu liczenia. Conajmniej tak samo skomplikowane są procesy kalkulacyjne w mózgu tresera. Są one kalkulacyjne w tym sensie, że zbliżone wyniki można otrzymywać na drodze modelowania cyfrowego. Nadałby się może do wykorzystania literackiego pomysł bajki o tygrysie, który marząc o karierze cyrkowej udaje się po pomoc do zespołu uczonych. Fizycy opracowują straszliwie skomplikowany układ równań kinetycznych, a więc pewnego rodzaju algorytmów, informatycy przekładają to na program, a neurobiolodzy implementują program w czaszce tygrysa. Skutki działania takiego programu powinny być porównywalne z tym systemem w mózgu tygrysa, który umożliwia mu skoki za sprawą talentów otrzymanych od Natury. Dzięki tej porównywalności wyników, nie jest nadużyciem słowa "liczyć" mówienie o liczeniu wykonywanym przez mózg tygrysa także i wtedy, gdy nie został on wyposażony w program cyfrowy.

Dzięki pojęciu maszyny analogowej można pokusić się o rekonstrukcję liczenia innego niż cyfrowe, wykonywanego przez organizmy i umysły. Tygrys kalkulujący długość i wysokość skoku ma do czynienia z typowymi wielkościami ciągłymi, jak przestrzeń, czas i ruch. Zamiast je "ucyfrowić", jak to się robi w programie dla komputera cyfrowego, tygrys odwzorowuje wielkości fizyczne w innych wielkościach fizycznych, na przykład, w napięciu mięśniowym proporcjonalnym do będącej do pokonania przestrzeni, a to z kolei musi mieć jakieś odwzorowanie w fizycznych stanach mózgu. Pewien układ takich odwzorowań to model analogowy.

Mózg zaś tresera, obserwując bacznie zachowania tygrysa też buduje w sobie ich model, które następnie przetwarza w sposób odpowiedni do planu postępowania w toku tresury. Obraz na siatkówce jest analogowym modelem postaci i ruchów tresowanego zwierzęcia, a jego dalsze przetwarzanie w mózgu też zawiera procedury analogowe (wchodzące w złożone związki z cyfrowymi).

Procesy myślowe z poziomu bardziej abstrakcyjnego niż poziom doznań wzrokowych i ruchowych, w szczególności rozumowania, cechuje wyższy stopień niedostępności obliczeniowej niż ten, który się wiąże z nieprzewidywalnością deterministyczną. Wspomniałem wyżej (pod koniec odcinka 2), że są autorzy, jak Roger Penrose, którzy brak obliczalności (w sensie Turinga) cechujący pewne poprawne rozumowania matematyczne wyjaśniają brakiem obliczalności odpowiedzialnych za te rozumowania procesów fizycznych w mózgu.

Skoro procesy ekonomiczne, w tym społeczne, są w przemożny sposób zależne od umysłowych, ten sam najwyższy stopień niedostępności obliczeniowej musi cechować układy społeczne. Należy do nich zaliczyć wolny rynek, którego rolę tak silnie podnosił Hayek, a minimalizował Lange. W wyposażeniu myślowym Oskara Langego nie było nawet zaczątków tej wiedzy o układach niestabilnych i niedostępności obliczeniowej, którą dysponujemy obecnie (umarł on w roku 1965, nim pojawiła się literatura o chaosie zainicjowana m.in. mimowolnym doświadczeniem informatycznym Lorenza z roku 1961).

W ostatnim odcinku tego wykładu chcę zwrócić uwagę na problem pewnego związku między dziedzinami na tyle odległymi, że mało kto ogarnia obie naraz, mało więc kto ma szanse ten związek zauważyć. Chodzi o relację problematyki dostępności obliczeniowej i matematycznej teorii gier i decyzji. Ta druga stała się standardowym narzędziem modelowania procesów decyzyjnych, także w dziedzinie ekonomicznej.

Żeby dostrzec pewną dającą do myślenia osobliwość tego narzędzia, trzeba sobie przypomnieć eksperyment myślowy (opisany w odcinku 3) z kulką, która skacze po podziałce zawierającej wszystkie liczby rzeczywiste od 0 do 1. W teorii gier taka podziałka ma istotnie zastosowanie w postaci skali prawdopodobieństwa, przy czym jest ono rozumiane jako prawdopodobieństwo subiektywne, a więc pewien stan umysłu. Stajemy zatem przed problemem pomiaru i symulacji stanów charakteryzowanych liczbami o nieskończonym rozwinięciu dziesiętnym. Dokładniejsze przedstawienie tego problemu wymaga naszkicowania przynajmniej jednej z reguł decyzyjnych teorii gier, co jest przedmiotem następnego odcinka.


5. Co wnosi teoria gier do kwestii dostępności obliczeniowej procesów umysłowych i społecznych?

Twórcą teorii gier pod kątem zastosowań ekonomicznych jest John VON NEUMANN (1903-1957), który zasłużył też (wespół z Alanem Turingiem) na miano ojca komputerów. Jest również autorem przełomowych idei i wyników w matematyce, logice, informatyce, fizyce, neurobiologii. W 1947 ukazało się jego dzieło (napisane wspólnie wespół z O.Morgensternem): Theory of Games and Economic Behavior.

Klasyczny przykład reguły decyzyjnej, w zachowaniach dających się porównać do gry hazardowej, stanowi
Reguła Oczekiwanej Użyteczności:
Gdy p jest prawdopodobieństwem uzyskania pożytku u z działania d, to użytecznością oczekiwaną tego działania, inaczej ekspektatywą E(d) jest iloczyn up. Mając do wyboru n działań (gier), racjonalnie jest wybrać to, które przynosi największą użyteczność oczekiwaną.

PRZYKŁADY

a) W jednej grze jest 15% szansy wygrania 100 zł, w drugiej takaż szansa wygrania 120 zł. Oczywiście, należy zagrać w drugiej.

b) W grze G1 jest 25% szansy wygrania 60 zł. i 75% ryzyka utraty 12 zł. (wpłaconych za prawo udziału w grze). E=(60x0.25)-(12x0.75)=15-9=6.
W grze G2 szansa wygrania 1000 zł. wynosi 15%, a ryzyko utraty 50 zł. wynosi 100%. E= 100 Korzystniejsza jest zatem gra G2.

c) Ile warto zapłacić za bilet na loterię, w kórej szansa wygrania stu tysięcy zł. wynosi 1%? Każdą cenę niższą od tysiąca zł., bo przy cenie biletu 1000 zł. mamy kalkulację: E=(100000x0,01)-(1000x1)=0.

Reguła E operuje nie tylko na liczbach wymiernych (jak w powyższych przykładach). Funkcja prawdopodobieństwa czerpie wartości ze zbioru ciągłego liczb rzeczywistych od 0 do 1. Także funkcja użyteczności ma wartości w zbiorze liczb rzeczywistych, co oznacza stosowalność do procesów decyzyjnych o charakterze analogowym (ciągłym).

PRZYKŁAD sterowania przez regułę E mózgowym procesem analogowym (ciągłym). Na wąskiej szosie kierowca postanawia wydostać się spoza ciężarówki blokującej drogę, wyprzedzając ją mimo nadjeżdżania z przeciwka innego pojazdu. Tak, zamiast "gry", w której miałby maksimum bezpieczeństwa za cenę pewnej niewygody wybiera inną. Czyni to dlatego, że prawdopodobieństwo sukcesu manewru - p(S) szacuje na bliskie jedności, co pomnożone przez użyteczność sukcesu (np. przyspieszenie podróży) u(S), po odjęciu minimalnego ryzyka katastrofy pomnożonego przez jej (oczywiście, ujemną) użyteczność daje w jego osądzie wyższą użyteczność oczekiwaną niż zachowanie ostrożniejsze.

Oszacowanie szansy manewru zależy od oszacowania odległości obu pojazdów i ich szybkości; może się zdarzyć, że mają one jako wartości liczby niewymierne. Liczby te są odwzorowane w analogowym modelu sytuacji powstałym w mózgu, a wtedy stan mózgu jest też oddawany liczbami niewymiernymi. To samo dotyczy wartościowania skutków każdego z alternatywnych działań. Do tego dochodzi oszacowanie prawdopodobieństwa skutków. Podczas gdy przy innych wielkościach występowanie liczb niewymiernych jest przedmiotem domniemania, to w przypadku prawdopodobieństwa sam model teoretyczny zobowiązuje nas do uznania, że musimy mieć do czynienia także z liczbami niewymiernymi. Albowiem funkcja ta przyjmuje wartości z przedziału [0, 1] liczb rzeczywistych.

Wśród liczb rzeczywistych są niewymierne obliczalne i niewymierne nieobliczalne. Czy w realnych ludzkich przeżyciach oszacowanie szansy lub ryzyka przybiera istotnie wartości niewymierne, czy nawet nieobliczalne, tego nie da się ustalić bez osobnych badań. Mamy jednak powód sądzić, że nie byłaby to hipoteza fantastyczna. Wiemy bowiem, że pewne rozumowania dotyczące liczb są rezultatem procesów myślowych nie mających cechy algorytmiczności czyli obliczalności; takie jest słynne rozumowanie Gödla prowadzące do uznania za prawdziwe pewnych zdań nierozstrzygalnych algorytmicznie w arytmetyce. Z tego to faktu Roger Penrose czerpie przesłanki do tezy o istnieniu nieobliczalnych procesów neuronowych. Fakt ten nie przesądza, czy coś podobnego zachodzi także w rozumowaniach operujących prawdopodobieństwem w kontekście procesów decyzyjnych, ale uchyla argumentację na rzecz niemożliwości takiego stanu rzeczy.

Samo istnienie takiej możliwości stanowi wyzwanie dla symulacji cyfrowych posługujących się modelem teorii gier. Wyzwanie bierze się stąd, że jeśli decydenci przeżywają stany szacowania prawdopodobieństwa charakteryzowane liczbami niewymiernymi, to symulacja tych stanów wymaga ustalenia, jaki stopień dokładności, wyrażony liczbą uwzględnionych miejsc po przecinku, jest potrzebny dla wiarogodnych przewidywań. Teoria decyzji ma tę wielką zasługę, że dostarczyła pojęć i założeń do postawienia problemu. A znalezienie odpowiedzi, to już zadanie dla innej teorii, na którą wszyscy czekamy.