WITOLD MARCISZEWSKI
Ojcowie Informatyki
wobec dylematów mechanizacji myślenia



     Czym się różni wirtuoz od pozytywki? Czym się różni żywy rozumujący
     matematyk od rozumującego komputera? Te pytania obrazują sedno sporu
     między dwiema wizjami informatycznymi. Obie uznają fakt, że analogowy
     zapis utworu w pozytywce jak i formalny dowód matematyczny da się
     zapisać cyfrowo. Czy dotyczy to również muzyka improwizującego utwór
     według partytury rozwijającej się w jego mózgu? Czy proces mózgowy
     matematyka różni się w swej istocie od przetwarzania danych w maszynie
     cyfrowej?  Ogólnie: czy każdy proces przetwarzania informacji można
     oddać w zapisie cyfrowym?

=============================================================================

Odpowiedż "tak" pochodzi od Alana Turinga. Różnica między wirtuozem i
pozytywką jest tylko w długości i złożoności zapisu cyfrowego, niepomiernie
większej w przypadku mózgu wirtuoza. Podobnie, nie ma jakościowej różnicy
między rozumowaniem komputera elektronicznego i komputera w obudowie
ludzkiej czaszki.

Rodzą się jednak wątpliwości pod adresem owego "tak", gdy zaczynamy badać
konsekwencje identyfikacji komputera z myślącym organizmem. Najwięcej
wnikliwej uwagi poświęcił tej sprawie John von Neumann, drugi z bohaterów
obecnej opowieści.

Turing i von Neumann mają pionierski wkład w konstrukcję maszyny cyfrowej.
Byli też inni wielcy konstruktorzy (mówi o nich "Mini-kronika informatyki"
-- tekst obok). Ci dwaj jednak mieli wizje daleko wybiegające poza horyzont
pierwszych konstrukcji. W tym sensie są oni protagonistami informatyki czyli
czołowymi w niej postaciami. Tę rolę oddaje miano ojców informatyki.
     
Ma też informatyka praojca, który antycypował obie przeciwstawne wizje, na
"tak" i "nie", dla każdej znajdując swoiste racje. Dołał się z tym dylematem
G.W.Leibniz (1646-1716), prekursor algebry Boole'a, pierwszy konstruktor
kalkulatora na cztery działania, pierwszy twórca binarnej notacji
arytmetycznej i pierwszy pomysłodawca rozumującej maszyny. Protoplastą w
bocznej jakby linii jest Ren'e Descartes (1596-1650) jako ten, który
arytmetyzując geometrię zrobił pierwszy krok w kierunku arymetyzacji
matematyki. Dzięki temu każdy proces przetwarzania informacji można dziś
zapisać cyfrowo.
 
                        Sylwetki protagonistów

Zacznijmy od proweniencji obu bohaterów, Turinga i von Neumanna, z jej
kolorytem historycznym. A że zasługują oni na miano ojców, widać będzie z
tego, ile kluczowych pojęć informatyki zostało urobione od ich nazwisk; to
kryterium rangi naukowej spełniają obaj w sposób bezkonkurencyjny.
                                  
John von Neumann (1903-1957) stał się Johnem w swym wcieleniu amerykańskim,
w fazie emigracji. Wcześniej był Johannem, co chętnie przypominają
opracowania niemieckie. Pamiętajmy o tym nad Wisłą, bo jest w naszym
interesie, żeby w informatycznym pejzażu była widzialna także Mitteleuropa.
John-Johannes von Neumann świetnie się do jej reprezentacji nadaje jako
urodzony w monarchii habsburskiej węgierski żyd o typowo niemieckim
nazwisku, który formację naukową zdobył u Hilberta a Getyndze, a bliski był
przez współpracę i przyjaźń szkole matematycznej lwowskiej. Jego
zaangażowanie w konstrukcję maszyn cyfrowych i płynące zeń refleksje nad
mózgiem zaczęły się w Los Alamos, gdy prace nad energią jądrową okazały się
tak złożone obliczeniowo, że wymagały zaprzęgnięcia techniki elektronicznej.
Najwybitniejszy z wybitnych uczeń Hilberta wniósł do tych prac kolosalną
intuicję i wiedzę logiczną na temat struktury systemów formalnych. W
ostatniej fazie twórczości zagłębił się w neurobiologię, kreśląc płodne
hipotezy na temat wyrażony w tytule powstałej wtedy książki "The Computer
and the Brain".

Co do Alana Matisona Turinga (1912-1954), ten absolwent matematyki w
Cambridge był stuprocentowym Anglikiem, przez co chcę też powiedzieć rzecz
dla obecnej historii ważną, że nawiązywał do żywej w Anglii tradycji
projektów maszyn liczących Charlesa Babbage'a i jego wybitnej
współpracowniczki, która była lady Ada Lovelace (postać malownicza nie tylko
przez uprawianie matematyki, co u damy było wtedy ekstrawagancją, ale także
jako córka romantycznego lorda Byrona). Turing połączył inżynierskie
podejście Babbage'a (termin "maszyna") z problemem, którym wówczas za sprawą
Hilberta pasjonował się świat matematyczny. W dzisiejszym języku wyraża się
on pytaniem, czy komputer, posługując się logiką matematyczną, jest w stanie
dowieść w matematyce każdej prawdy, co się przekłada na możność obliczenia z
dowolną zadaną dokładnością każdej liczby rzeczywistej. Zajmując się tym
zagadnieniem (1936), Turing rozwinął do perfekcji technikę cyfrowego
kodowania programów, stąd jego wybitna rola w pracy nad deszyfrowaniem
depesz niemieckiej Enigmy. W 1950 sformułował program stworzenia
mechanicznej inteligencji, który jest do dziś manifestem komputacjonizmu
czyli tzw. silnej SI.

                                  *

Turing, choć później urodzony, wcześniej niż von Neumann pojawił się na
naszej scenie. Informatyka jeszcze nie istniała, a jemu przypadło stworzyć w
roku 1936 pojęcie, które niebawem się stanie jej fundamentem. Przyjęło się
ono, za sugestią Alonzo Churcha, pod mianem MASZYNY TURINGA.

Church w 1936 doszedł na innej drodze do podobnego wyniku, ale jego związki
z informatyką zostały dostrzeżone później, podczas gdy aparatura pojęciowa
Turinga bezpośrednio weszła do informatyki. Ponieważ wyniki Churcha i
Turinga oraz uzyskane niezależnie Emila Posta i inych są równoważne, można
jako ich reprezentacji użyć pojęcia maszyny Turinga. W tej roli występuje
ono w słynnej TEZIE CHURCHA-TURINGA, która wyraża przekonanie ogółu
matematyków, że każde dające się wykonać środkami matematyki obliczenie może
być wykonane przez odpowiednio zaprogramowaną maszynę Turinga. 

Turing chcąc położyć kres spekulacjom, czy maszyna może myśleć, zaproponował
w 1950 podejście czysto operacyjne, które nazwano TESTEM TURINGA.  Polega
ono na tym, żeby porównywać człowieka i komputer nie wnikając w ich życia
wewnętrzne, a tylko obserwując reakcje na pytania. Jeśli kompetentne jury
nie będzie umiało odróżnić, które odpowiedzi pochodzą od człowieka a które
od maszyny, będzie to świadczyć, że inteligencja maszyny jest nieodróżnialna
praktycznie od inteligencji człowieka. Pomysł ten inspiruje organizowane od
pół wieku zawody między ludźmi i komputerami w konkurencji "rozwiązywanie
problemów", w których dystans między tymi kategoriami zawodników sukcesywnie
się zmniejsza. Przedcześnie byłoby jednak ogłaszać zaistnienie komputerowej
inteligencji, choćby dlatego, że inteligencja bardziej jeszcze niż w
rozwiązywaniu problemów przejawia się w ich stawianiu, a tego test Turinga
nie dotyczy.

Mamy więc trzy kluczowe idee informatyczne noszące imię Turinga. Nie gorzej
wygląda punktacja w przypadku von Neumanna.

ARCHITEKTURA VON NEUAMANNA wyznacza do dziś sposób działania komputera
cyfrowego polegający na wykonywaniu operacji sekwencyjnie nie zaś
równolegle; ten drugi typ architektury był praktykowany wcześniej, a przez
von Neumanna został poniechany po negatywnych doświadczeniach, które
zgromadził w 1944. Istotne jest też dla rozwiązań von Neumanna, że ta sama
pamięć przechowuje zarówno programy jak i dane. Było to podejście
rewolucyjne, bo naturalne zdawało się odróżniać, przez inną lokalizację w
pamięci, jak to jest w przypadku człowieka, stabilny zestaw programów (np.
znajomość tabliczki mnożenia) od wciąż zmieniających się danych.

AUTOMAT VON NEUMANNA to pomysł poczęty i rozwijany wspólnie ze Stanisławem
Ulamem, wybitnym matematykiem polskim (też na emigracji w USA). Na początku
lat 50tych, nie wiedząc nic o wirusach, von Neumann zaprojektował automat
zdolny tak jak wirus do tworzenia kopii samego siebie dzięki wbudowanemu
programowi samoreprodukcji. Program jest tak pomyślany, żeby materiał do
reprodukcji (dla wirusa jest to komórka bakterii lub innego organizmu) mógł
być dowolny, co czyniłoby automat zdolnym, w szczególności, do eksploracji
kosmosu; stąd automaty von Neumanna, zwane komórkowymi z racji analogii do
żywych komórek, są bohaterami śmiałych wizji inżynierii kosmicznej.

Von Neumann zapisał się jako pionier w wielu działach matematyki, fizyki, a
nawet ekonomii i wszędzie tam jego nazwisko symbolizuje ważne idee. Z tych
najbliższe są informatyce pojęcia teorii pomyślanej jako fundament całej
matematyki, do której to teorii należą terminy "teoria mnogości von
Neumanna" i "liczby porządkowe von Neumanna".

          Czego właściwie ojcami są ojcowie informatyki?

Można od pewnego czasu zauważyć, że termin "informatyka" przestaje się
nadawać na polski przekład "computer science", a w samym angielskim
"computer science" przestaje się nadawać na synonim "informatics".

Powstaje zapotrzebowanie na dwa różne pojęcia, z których jedno oznaczałoby
teorię budowy i użytkowania maszyn cyfrowych. Drugie jest potrzebne dla
nazwania teorii ogólniejszej, która obejmując dawną computer science będzie
się zarazem rozciągać na wszelkie systemy przetwarzania informacji, łącznie
z biologicznymi i mieszanymi (np. biologiczno-elektronicznymi), a także na
ich interakcje, w szczególności sieciowe.

Wybornym kandydatem do tej drugiej roli jest słowo "informatyka" (i jego
warianty w innych językach, wszystkie zalecające się pochodzeniem od
łacińskiego "informatio"). Wakujące miejsce do nazwania węższej dziedziny,
computer science, można by w polszczyźnie zapełnić terminem nieco dłuższym
ale znośnym, jak "teoria komputerów".

Nowe, rozszerzone, pojęcie informatyki pozwoli się rozstać z niefortunnymi
pojęciami, jak te wyrażane przez terminy "sztuczna inteligencja" (Artificial
Intelligence) i "kognitywistyka" (cognitive science). Co jest niedobrego z
jednym i z drugim?

Nie ujmując zasług pomysłowi Johna McCarthy'ego, żyjącego klasyka SI,
słynnego autora języka programowania LISP, który w 1956 zaproponował nazwę
"Artificial Intelligence" (wcześniej, Turing mówił o inteligencji
mechanicznej), pora pomyśleć o rewizji. Termin był w swoim czasie do
przyjęcia; prowizorycznie, ale skutecznie, wypełniał lukę pojęciową. Na
komputer patrzono wówczas jak na liczydło, żeby więc zwrócić uwagę na jego
inne kolosalne możliwości, trzeba było jakiegoś chwytliwego hasła (w
szczególności dla pozyskiwania grantów na badania). Dziś on się przeżywa, bo
to, że komputer, powiedzmy, dowodzi twierdzeń czy tłumaczy z języka na
język, to rzecz nie bardziej osobliwa, niż to, że dodaje, mnoży etc.

Ponadto, zaczynają zacierać się granice między tym, co naturalne i tym co
sztuczne, tym co biologiczne i co elektroniczne. Zaprogramowany komputer
biologiczny jest naturalny z racji biologiczności, sztuczny z racji
zaprogramowania go przez człowieka. A nanotechnologia, która pozwoli na
programowane mikroimplanty elektroniczne w mózgu, podnoszące wydatnie
inteligencję ich posiadacza -- będzie sukcesem z zakresu sztucznej czy
naturalnej inteligencji? Trudno powiedzieć. Nie ma natomiast wątpliwości, że
byłby to sukces informatyki.
 
Co do "cognitive science", to jest to niewypał pojęciowy, bardziej jeszcze
niefortunny w polskiej wersji ,,kognitywistyka". Gdy przydawkę "cognitive" tak
skleić z "science", że przypisuje się nauce funkcję poznawczą, to będzie to
banał nad banały; nie o to więc chodzi. A jeśli "cognitive science" ma
oznaczać naukę o poznaniu, to ta mająca być supernowoczesną nauka pokryje
się definicyjnie z wiekową epistemologią. A naprawdę chodzi w tej nauce o to
(o czym jej nazwa nie wspomina nawet aluzyjnie), żeby zjawiska umysłowe
traktować jako procesy przetwarzania informacji obejmujące to wszystko, co
czyni maszyna Turinga (i ewentualnie więcej). W USA uznano tę doktrynę za
rewelację, bo sprzeciwiła się jakże modnemu wcześniej behawioryzmowi, który
głosił, że pojęcie informacji należy do niegodnej uczonych metafizyki. Kto
jednak miał do behawioryzmu stosunek należycie pobłażliwy, ten nie
zawdzięcza nowej doktrynie szczególnego oświecenia. Ogólna teoria
przetwarzania informacji pod kątem rozwiązywania problemów, obejmująca
układy biologiczne, czym jest w zamierzeniu cognitive science, doskonale się
zmieści w pojęciu informatyki -- na tyle szerokim, że się go nie ogranicza
do urządzeń elektronicznych. Dorobek Turinga i von Neumanna należy do
informatyki tak szeroko pojętej, a więc obejmującej teorię komputerów i
jeszcze więcej.

            Informatyk jako demiurg cyfrowej kreacji 

Wiara Turinga w moc programowania maszyn cyfrowych przywodzi na myśl grecką
postać demiurga. Jest to ktoś wykonujący dzieło (ergon) dla dobra ludu
(demos); ktoś o mocy niższej niż boska, lecz dalece górującej nad ludzką.
Taki demiurg występuje jako kosmiczny producent świata w dialogu Platona
"Timaios".

Szansa na to, by ludzka cywilizacja pełniła rolę demiurga w platońskim
sensie okazuje się dziś wcale realna. Byłby to udział w stwarzaniu kosmosu i
w stwarzaniu umysłu. To pierwsze nie jest naszym tematem, ale dla
rozpędzenia wyobraźni warto rzec o tym słowo. Choć do inżynierii kosmicznej
staniemy się zdolni dopiero za setki czy tysiące lat, już dziś możemy nie
bez podstaw przypuszczać, jakie są konieczne do tego wyniki teoretyczne,
jakie moce obliczeniowe i jak wysokie energie. Fizyk Paul Davies w książce
pod znamiennym tytułem "Superforce" powiada, że gdy rozwiążemy zagadkę
unifikacji wszystkich sił (grawitacji, elektromagnetycznej i oddziaływań
jądrowych) w jedną supersiłę, będziemy mogli "zmieniać strukturę przestrzeni
i czasu, wiązać węzły w nicości i na życzenie tworzyć materię."

Może się jednak okazać, że obecny potencjał intelektualny, nawet
supergeniuszy, nie starczy do badań niezbędnych w inżynierii kosmicznej.
Musiałaby ją wyprzedzić inżynieria mentalna, podnosząc do niewyobrażalnej
dziś mocy intelekt przyszłych konstruktorów kosmicznych. W czasach Turinga
jeszcze nie marzono o kształtowaniu inteligencji czy to przez inżynierię
genetyczną czy przez nanotechnologię. Ale w wyobraźni Turinga świtała
możliwość konstruowania systemów, które zdolnością rozwiązywania problemów
przewyższyłyby inteligencję człowieka.

Jak to osiągnąć? Wedle Turinga, całość zadania sprowadza się do napisania
odpowiednich programów dla maszyny cyfrowej. Wszak zgodnie z (cytowaną
wyżej) Tezą Churcha-Turinga wszystko, co daje się rozwiązać środkami
matematyki jest też rozwiązywalne dla maszyny Turinga. Trzeba jeszcze
przyjąć, że każdy problem nie-matematyczny da się przetłumaczyć na problem
matematyczny, jak to się dzieje w fizyce, a nie jest też obce humanistyce (o
czym świadczą np. automatyczne przekłady). To ośmiela do ekstrapolacji na
całość wiedzy w formie poglądu, że JEŚLI ZAGADNIENIE NAUKOWE DAJE SIĘ
ROZSTRZYGNĄĆ, POTRAFI TO MASZYNA TURINGA. A że pracuje ona w kodzie
cyfrowym, kod ten okazuje swą uniwersalność i jako język całej nauki i jako
język wspólny ludziom i maszynom.

Wnikliwy czytelnik może zacznie się w tym miejscu zastanawiać, co znaczy ta
zagadkowa klauzula "jeśli zagadnienie naukowe daje rozstrzygnąć". Wszak od
zarania nauki uważano, że jeśli pytanie jest naukowe, to tym samym musi być
rozstrzygalne; jeśli nie zaraz, to po odpowiednim nakładzie czasu i środków.
To odwiecznie przekonanie okazało się błędne dzięki odkryciom logicznym z
lat 30tych, wśród których centralne miejsce zajmuje wynik samego Turinga.
Jest to wielce pomysłowy dowód twierdzenia, że istnieją w matematyce
problemy nierozstrzygalne dla zdefiniowanej przez niego maszyny.

Do tego wyniku mogło dojść dzięki temu, że z maksymalną precyzją został
sformułowany problem rozstrzygalności w matematyce. Było to zasługą Davida
Hilberta (1900, 1928) i paru innych autorów.

Problem rozstrzygalności można ograniczyć do arytmetyki liczb naturalnych,
inne bowiem działy matematyki dadzą się do niej sprowadzić. Roztrzygnąć (w
tym precyzyjnym sensie) problem arytmetyczny, to znaczy wyprowadzić
odpowiedź z aksjomatów arytmetyki poprzez przekształcenia aksjomatów wedle
reguł logiki symbolicznej. Reguły te odwołują się wyłącznie do kształtu
składających się na formuły symboli (abstrahując od ich znaczenia). Dzięki
temu można je stosować w sposób mechaniczny. Każdy bowiem dowód twierdzenia
(będącego zawsze odpowiedzią na jakieś pytanie) jest skończonym ciągiem formuł.
Kombinując więc losowo różne zestawienia, po jakimś czasie skończonym (choć
może dłuższym niż wiek wszechświata) maszyna znajdzie takie, że ostatni
element ciągu okaże się wyprowadzalny z aksjomatów wedle reguł logiki. To
znaczy, dostarczy mechanicznego dowodu danego twierdzenia.

Rewelacja, a nawet wstrząs intelektualny, biorące się z wyników G"odla,
Churcha, Posta, Tarskiego oraz Turinga polegały na odkryciu, że istnieją w
matematyce problemy nierozstrzygalne w wyżej opisany mechaniczny sposób.
Jest to odkrycie naukowe udokumentowane w stu procentach, nie budzące cienia
wątpliwości. 

Ale mimo pełnej zgodności w tym punkcie, gdy przychodzi do pytania, czy to
ograniczenie dotyczy ludzkiego umysłu, uczestnicy debaty dzielą się na dwa
radykalnie różniące się obozy. Po jednej stronie stołu zajmują miejsce Kurt
G"odel, Emil Post, Alfred Tarski (z G"odlem w miejscu szczególnie
poczesnym), a po drugiej ustawia się Turing, do którego wnet dołącza liczna
i dynamiczna grupa zwolenników. Co ich tak dramatycznie podzieliło?

G"odlowcy (tak tu nazwani od postaci najbardziej eksponowanej) uważają, że
wśród prawd, które nie są dowodliwe w sposób mechaniczny, czyli wykonalny
dla maszyny Turinga, są takie, których prawdziwość umysł może rozpoznać bez
użycia procedur mechanicznych. Niech za przykład posłużą aksjomaty
arytmetyki, choćby ten, że dla każdej liczby istnieje liczba o jeden
większa. Aksjomaty z samej swej istoty nie podlegają dowodzeniu; maszyna nie
dochodzi do nich w wyniku jakichś przekształceń, musi je mieć wpisane jako
dane wyjściowe. Ale człowiek wie, że są one prawdziwe; istnieją więc prawdy
osiągalne dla człowieka, a nieosiągalne dla maszyny. Tyle g"odlowcy.

Na to pytają turingowcy: jakim prawem uznajecie aksjomaty arytmetyki za
prawdziwe? Nie macie do tego żadnej podstawy, bo jedyną dopuszczalną naukowo
podstawą byłoby ich udowodnienie przez maszynę.

Powstaje sytuacja dziwaczna, bo jeśli przyjąć stanowisko turingowców, to
chcąc pozostać wierni wymogom naukowości nie powinniśmy się łudzić, że
dojdziemy do jakiejkolwiek prawdy w matematyce; każde przecież takie
dochodzenie musi się zaczynać od aksjomatów. Z drugiej jednak strony,
poszukiwanie prawdy jest największą siłą napędową nauki. Jak wyjść z tego
impasu?       

Nim zajmiemy się sposobem wyjścia, popatrzmy na jeszcze jeden wniosek ze
stanowiska turingowców. Skoro umysł ludzki nigdy nie ma gwarancji, że
rozwiązał problem, o ile nie zachowuje się on jak maszyna Turinga, wzrasta
kolosalnie rola informatyków jako znawców i konstruktorów takich maszyn.
Zaufanie do jakiegokolwiek procesu umysłowego u człowieka będzie pozostawać
w zawieszeniu, o ile nie otrzyma się certyfikatu, że ów proces jest
akceptowany przez Turingowy automat. Jednocześnie, konstruowanie coraz
doskonalszych maszyn zwiększałoby kolosalnie moce obliczeniowe będące do
dyspozycji człowieka. Istotnie więc zbiorowość informatyków byłaby czymś w
rodzaju demiurga kierującego losem cywilizacji.

Powróćmy do dylematu: czy zaufać naszym ludzkim intuicjom prowadzącym do
uznawania aksjomatów, czy zwątpić w nie dlatego, że nie wykazują się one
certyfikatem, którym się szczycą maszyny Turinga? A może uda się zdobyć ów
certyfikat na innej drodze? Choć aksjomat, inaczej niż twierdzenie
dowodzone, nie jest wynikiem mechanicznego przetwarzania danych na papierze
czy na dysku komputera, to może jest wynikiem przetwarzania danych w mózgu i
może to przetwarzanie także podlega prawom maszyny Turinga? Wtedy w
odkrywaniu aksjomatów nie byłoby nic twórczego (stąd, nie zasługującego na
zaufanie); byłby to proces mózgowy wiarogodny ponieważ mechaniczny (choć z
mechaniczności nie zdajemy sobie sprawy, łudząc się, że mamy jakieś moce
twórcze).

Jeśli to by się okazało być prawdą, to demiurgowie informatyki zyskaliby
domenę wpływów na miarę najśmielszych marzeń: mogliby ustawiać ludzkie mózgi
tak, jak się ustawia do pracy maszyny. Czy się tak okaże? Z tym pytaniem
wchodzimy na teren, który był wnikliwie penetrowany przez von Neumanna.

      
             Informatyk bierze korepetycje u Przyrody 

Von Neumann i Turing różnili się wyraziście poglądem na stosunek hardware'u
do software'u. Bagatelizowanie pierwszego z tych czynników przez Turinga,
przy podkreślaniu decydującej roli drugiego, czyniło go niewrażliwym na
różnice między, powiedzmy, układem lamp elektronowych i mózgiem. Dla von
Neumanna natomiast, jak zobaczymy, była to różnica fundamentalna; wyrażało
się to w jego koncentracji na zagadnieniach struktury mózgu zdolnej, jak
sądził, realizować logikę potężniejszą niż ta uprawiana za pomocą symboli.
Wtedy informatyk, choć obdarzony demiurgiczną mocą, musiałby wiele uczyć od
superdemiurga, którego dziełem jest mózg, czyli od Przyrody.

Nim przejdziemy do sedna sprawy, trzeba wprowadzić polskie odpowiedniki dla
terminów "hardware" i "software", tak nieznośnych w deklinacji (spróbujmy
np. wołacza: "O hardware'rze!"?). W obecnym kontekście, nie zamierzając
agitować innych, będę oddawał rzecz terminami STRONA FIZYCZNA i STRONA
LOGICZNA. Jeśli Czytelnik zdoła bez trudu ustalić przyporządkowania do
terminów angielskich, będzie to znak, że wybór nie jest najgorszy.

Zastąpienie "software" przez "strona logiczna" ma dobre uzasadnienie
teoretyczne, gdyż program komputerowy wykazuje ścisłą analogię z dowodem
sformalizowanym, to jest, wykonanym wiernie według reguł logiki
symbolicznej. Widać to przejrzyście w programach na wykonywanie działań
arytmetycznych. Obliczyć, że dwa i dwa równa się cztery, to w gruncie rzeczy
przeprowadzić dowód tego twierdzenia na podstawie aksjomatów arytmetyki.
Program zaś jest instrukcją dla takiego dowodu.

W opisie maszyny Turinga strona fizyczna jest zredukowana do skrajnie
schematycznego wyliczenia: pamięci, urządzenia czytającego i urządzenia
piszącego, jednakowych w każdej maszynie. Tym, co maszyny różnicuje jest
strona logiczna. Jest nią, w najprostszym przypadku, pojedyncza formuła
będąca przepisem na obliczanie jak "n+1" (dodawać 1 do kolejnych liczb
naturalnych); jest nią twierdzenie Pitagorasa, czy wielkie twierdzenie
Fermata; itd. Oprócz takich wyspecjalizowanych zdefiniował Turing maszynę
uniwersalną, zdolną do zastąpienia wszystkich pozostałych. Turing
argumentował, że maszyna Babbage'a, od strony fizycznej będąca dziełem
ślusarzy (a napędzana maszyną parową) ma dokładnie te same potencje
obliczeniowe, co maszyna zbudowana na elektromagnesach, na lampach
elektronowych itd., a różnice są tylko w szybkości wykonywania obliczeń, co
z teoretycznego punktu widzenia nie jest istotne. Ekstrapolując te
obserwacje, dochodził do konkluzji, że strona fizyczna właściwa organizmom,
w szczególności systemowi nerwowemu, nie wpływa na moc obliczeniową.

Innego zdania był von Neumann. Uważał on, że strona fizyczna mózgu decyduje
o zasadniczej odmienności jego strony logicznej. Podczas gdy strona logiczna
maszyny cyfrowej odpowiada językowi logiki i matematyki uformowanemu przez
historyczny rozwój tych nauk, strona logiczna systemu nerwowego rządzi się
innymi prawami. Ujął to następująco.
   
     "Istnieją w systemie nerwowym struktury logiczne różne od tych, którymi
     się zazwyczaj posługujemy w logice i matematyce. [...] Tak więc logika
     i matematyka centralnego systemu nerwowego -- jeśli rozpatrujemy je
     jako języki -- muszą strukturalnie różnić się w istotny sposób od tych
     języków, które są nam dane w codziennym doświadczeniu. [...] Kiedy
     mówimy o matematyce, omawiamy, być może, język wtórny, zbudowany na
     języku pierwotnym, którym centralny system nerwowy posługuje się
     naprawdę." (Zob. "The Computer and the Brain", 1958).

Co więcej, strona logiczna systemu nerwowego nie tylko jest inna, ale góruje
nad tą, którą czerpiemy z logiki symbolicznej. Von Neumann doceniał wkład
tej ostatniej w zrozumienie, jak działa system nerwowy; był pilnym
czytelnikiem przełomowej w tym względzie pracy McCullocha i Pittsa "A
logical calculus of the ideas immanent in nervous activity" (1943). Sądził
jednak, że powyżej pewnego stopnia złożoności to nie neurobiolog będzie
korzystał z dorobku logiki, ale logik z osiągnięć neurobiologii. Słowem,
logika z informatyką będzie się wzorować na żywej przyrodzie. Pisał na ten
temat, co następuje.

     "Zachodzi pewna równoważność między zasadami logicznymi i ich fizycznym
     funkcjonowaniem w sieci nerwowej. Ale, podczas gdy w prostszych
     przypadkach zasady te mogą dostarczyć pewnego uproszczonego opisu
     sieci, jest zupełnie możliwe, że w przypadku skrajnie wielkiej
     złożoności prawdą jest zależność odwrotna. Potrzebujemy wprawdzie
     jakiejś nowej teorii, logicznej co do swej istoty, żeby zrozumieć
     automaty o bardzo wysokiej złożoności, a w szczególności centralny
     system nerwowy. Może być jednak tak, że w toku tego procesu logika
     przekształci się jakby w neurobiologię w znacznie większym stopniu niż
     ta druga w logikę." (Zob. "The general and logical theory of
     automata", 1951).

Przy takich oświadczeniach ciśnie się pytanie, czy ten doskonalszy od
elektronicznego system biologiczny pozostaje w gruncie rzeczy maszyną
Turinga, tyle, że sprawniejszą technicznie niż inne jej realizacje, czy też
posiada większe od niej moce obliczeniowe. Trudno na to znaleźć odpowiedź u
von Neumanna. Szkicuje on na gorąco hipotezy poruszając się po gruncie
absolutnie nowym; książka "The Computer and the Brain" pozostała jako
niedokończony rękopis, nad którym pracował do ostatnich dni życia, wydany
pośmiertnie przez żonę.

W tej sytuacji, w imię pouczającego eksperymentu myślowego załóżmy, że
system nerwowy jest maszyną Turinga, zaś symbole zapisywane na jej taśmie są
elementami jakiegoś kodu neuronowego. Przy tym założeniu, wróćmy do pytania,
czy przyjęcie aksjomatów arytmetyki może być wynikiem procesu realizowanego
przez maszynę Turinga; krócej -- procesu Turinga.

Chodzi o proces dokonujący się w czyimś indywidualnym mózgu. Oto przykład.
Niech stan, w którym maszyna zakończy pracę, będzie taki jak stan mózgu
włoskiego matematyka Giuseppe Peano pewnego dnia roku 1889, kiedy to
sformułował on po dziś dzień stosowaną aksjomatykę arytmetyki liczb
naturalnych; od jego imienia teoria ta nazywa się arytmetyką Peano.

Nie musimy rozważać wszystkich jej aksjomatów; dla ustalenia uwagi weźmy pod
uwagę jeden, mianowicie aksjomat indukcji matematycznej (dokładniej, schemat
aksjomatu, ale nie musimy wchodzić w takie szczegóły). Powiada on, co
następuje: jeśli jakąś własność ma zero oraz prawdą jest, że gdy ma ją
jakakolwiek liczba, to ma ją też następnik tej liczby, wtedy własność ta
przysługuje wszystkim liczbom. Aksjomat ten zakłada pojęcie nieskończonego
zbioru liczb naturalnych.

Stan, w którym maszyna zakończy pracę będzie taki, że w tkance nerwowej
zostaną zapisane aksjomaty Peano nie mniej precyzyjnie niż my je zapisujemy
w języku logiki symbolicznej. A jak sobie wyobrazić punkt wyjścia?
Skorzystajmy z obserwacji etnologów (L'evy-Bruhl), że istnieją ludy
pierwotne, które mają nazwy tylko dla liczb 1 i 2, a wszystko to, co powyżej
określają słowami w rodzaju "mnóstwo". Potrzebne nam będzie imię typowego
reprezentanta takiej umysłowości; niech nazywa się on Kali. Dzięki
Sienkiewiczowi ("W pustyni i puszczy") mamy termin "etyka Kalego" dla
nazwania etyki skrajnie prymitywnej. Analogicznie, niech arytmetyką Kalego
nazywa się skrajnie prymitywny system liczenia ograniczony do dwóch. Załóżmy
wreszcie dla dobra eksperymentu tę fikcję, że cała ewolucja od arytmetyki
Kalego do arytmetyki Peano dokonuje się nie w wymiarze wielu pokoleń, ale
dzieje się jako proces Turinga w jednym mózgu.

Ma więc Kali zapisane w jakichś komórkach swego mózgu ciągi symboli kodu
neuronowego wyrażające to, co byśmy oddali zdaniami "istnieje jeden",
"istnieje dwa". To są dane wyjściowe. Mają być one poddane serii
przekształceń, które doprowadzą do tego, że w tymże kodzie neuronowym
zostaną zapisane aksjomaty Peano. Te przekształcenia będą dokonywane
wyłącznie pod dyktando zapisanego w tymże mózgu programu. Oznaczmy go
symbolem EKP (Ewolucja od Kalego do Peano). 

Tu powstaje pytanie, jak EKP będzie uwzględniał przypadkowe bodźce
zewnętrzne zależne od procesów dziejących się poza Kalim. Może np. zdarzy mu
się w życiu spotykać bardzo często struktury trójelementowe, co mu nasunie
pomysł liczby trzy, a potem jeszcze myśl uogólniającą, że trzy tak się ma do
dwóch, jak dwa do jednego (stosunek następstwa)? Ale może sie to nie
zdarzyć, a zdarzyć co innego.

Czy EKP będzie wobec tego programem uwzględniającym wszystkie możliwe
rozgałęzienia procesów we wszechświecie, tak żeby mózg Kalego (stopniowo się
przekształcający w mózg Peano) był uzdolniony do odpowiednich przekształceń
w każdym z takich możliwych światów? Problem zniknie, jeśli przyjąć, że
przechodzenie do arytmetyki Peano dzieje się bez żadnych bodźców
zewnętrznych; ale pod tak skrajnym aprioryzmem nie podpisałby się nawet
Platon.

Czy możliwe jest odkrycie w czyimś mózgu procesu Turinga sterowanego przez
EKP? Celem naszych rozważań było dojście do tego pytania. Odpowiedź w
obecnym stanie wiedzy nie jest możliwa. Tym, co mozliwe to projektowanie
badań, które by doprowadziły do wykrycia w mózgu czegoś takiego, jak program
EKP. Trzeba w tych badaniach zidentyfikować symbole kodu neuronowego,
to jest, podać ich alfabet, oraz wykryć reguły transformacji prowadzące
od stanu wyjściowego (np. arytmetyki Kalego) do zakończenia procesu
(np. wypisania w kodzie neuronowym aksjomatów Peano).

Rozpoznanie takiego procesu byłoby milowym krokiem w nową epokę informatyki.
Równie historycznym osiągnięciem byłoby odkrycie przeciwne: że dochodzenie
przez umysł/mózg do aksjomatów nie redukuje się do procesu Turinga.
Pozostaje zakończyć aktem wiary, którą osobiście żywi niżej podpisany, że
przyjdzie czas, w którym będziemy mieli dowód na jedno lub na drugie.

Do początku strony