Notatki Nowe Media:
Początki - rozwój mechaniki
Komputer jest dzisiaj - podobnie jak prasa drukarska w XV wieku i fotografia w XIX wieku - w centrum nowej medialnej rewolucji przekształcającej wszystkie dziedziny kultury we wspomagane komputerowo formy produkcji, dystrybucji i komunikacji. Ta rewolucja sięga znacznie głębiej niż poprzednie; na razie obserwujemy tylko pierwsze efekty jej działania. Wprowadzenie prasy drukarskiej dotknęło tylko jednego ogniwa komunikacji kulturowej - dystrybucji. Podobnie wprowadzenie fotografii miało wpływ tylko na jeden rodzaj komunikacji kulturowej - nieruchome obrazy. W odróżnieniu od nich, komputerowa rewolucja medialna przekształca wszystkie etapy komunikacji, w tym: pobierani danych, przetwarzanie, przechowywanie i dystrybucję, przekształca również wszystkie media - teksty, nieruchome i ruchome obrazy, dźwięki i konstrukcje przestrzenne.
Prawdziwa historia mechaniki rozpoczyna się między VI w. P.n.e. i II w. n.e. w pierwszej połowie tego okresu - greccy mechanicy (Archimedes, Ktesibios, Heron z Aleksandrii - twórcy kół zębatych, przekładni, systemów dźwigni itp.)
Arystoteles (384-322 p.n.e.) pierwszy teoretyk mechaniki
Archimedes (287-212) twórca mechaniki teoretycznej: definicja środka ciężkości, teoria dźwigni i równi pochyłej, zasadę pływalności ciał, wynalazki: śruba Archimedesa, ślimak wielokrążek, ruchome koło pasowe itd.
Spuścizna Greków kontynuowana była przez mechaników świata arabsko-muzułmańskiego i stamtąd wróciła do średniowiecznej i renesansowej Europy.
Mechanicy greccy teoretycznie podołaliby budowie maszyny liczącej, ale ich matematyka była zbyt prymitywna: nie znali zera ani systemu pozycyjnego. Dlaczego nie stworzyli ich Europejczycy skoro poznali je w czasie wypraw krzyżowych? Najważniejsze przyczyny: przesądy i mistyczne wierzenia, surowe przepisy cechowe, niedostatki techniki. Sztuka liczenia była uznawana za święta i nienaruszalna dziedzinę ludzkiego umysłu i miała boski charakter. Nie było także dostatecznej potrzeby społecznej.
Pierwsza w dziejach maszyna rachunkowa: 1623, astronom Wilhelm Schickard - „zegar rachunkowy” - cztery działania, przeszedł całkiem bez echa i został zniszczony w 1642 r. w prawdopodobnie nieprzypadkowym pożarze.
Pascalina - zbudowana przez Blaise Pascala w roku 1642, głównie dodawanie i odejmowanie, pomoc w rachunkach dla ojca komisarza ds. podatkowych w Rouen.
Od Pascala pochodzi myśl zawierająca istotę wszystkich kalkulatorów i maszyn liczących:
„Maszyna arytmetyczna działa w sposób bardziej zbliżony do myśli niż wszystko to, co robią zwierzęta; ale nie czyni nic, co mogłoby świadczyć, że ma wolę jak zwierzęta.” (Myśli, 340 przeł. T. Żeleński (Boy), Warszawa 1972 s. 117)
Pascalina to początek ery maszyn liczących: sprzedano od 12 do 50 sztuk tego urządzenia.
Charles Babbage od 1834 do 1836 powstaje projekt maszyny („maszyny analitycznej”), która umożliwia automatyczne wykonywanie ciągów powiązanych ze sobą dowolnego rodzaju działań arytmetycznych i algebraicznych na tysiącu pięćdziesięciocyfrowych liczb naraz. Kompletna koncepcja była gotowa w 1842 roku, w jej skład wchodziły: układ wyjścia/wejścia, układ uruchamiania maszyny, „magazyn”, „młynek”, urządzenie do drukowania wyników Babbage nie skończył maszyny w trakcie której składania zmarł. Maszyna powstała dopiero w XXI wieku.
Analityczna maszyna obliczeniowa: rozkładanie na części, coraz drobniejsze problemu i rozwiązywanie problemów cząstkowych.
Osiągnięcia intelektualne, które pozwoliły na przełamanie impasu i gwałtowny rozwój informatyki
Zero i system pozycyjny - wynalazek indyjski dokonany przed 15 wiekami. Zero nie jest jedynie słowem, znakiem, czy symbolem, to pojęcie rozumiane jako cyfra i operator matematyczny, a zarazem pełnowartościowa liczba, równa odwrotności nieskończoności matematycznej, należąca równocześnie do wszystkich zbiorów liczb, a zatem punkt, w którym spotykają się wszystkie gałęzie matematyki.
[…] fundamentalny wynalazek zera obdarzył ludzki umysł olbrzymim potencjałem twórczym. Żadne inne ludzkie dokonanie nie wywarło tak kolosalnego wpływu na rozwój inteligencji człowieka (Ifrah 755)
Rozwinięcie myśli algebraicznej - pojawia się dzięki przejściu od zwykłej arytmetyki do algebry i od zapisu konkretnych liczb do literowego zapisu niewiadomych i stałych nieoznaczonych. Skutek - stworzenie syntezy i koncepcji Charlesa Babbage'a - rachunku analitycznego, polegającego na wzniesieniu się ponad specyficzny charakter takiego czy innego działania i rozwiązywać wszelkie rodzaje obszernej kategorii zadań niezależnie od ich jednostkowych cech.
Rozwinięcie myśli logicznej - słowo logika pochodzi od greckiego logike techne („sztuka lub nauka o przemawianiu, o rozumowaniu”), utworzonego od logikos („dotyczy logos”, czyli „dotyczy, mowy, rozumu i rozumowania”) (Ifrah II, 758). Koncepcję logiki stworzył Arystoteles, jako Organom zawiera zasady i podstawowe elementy klasycznej logiki formalnej (teorie sylogizmu, dedukcji i indukcji), najogólniej: nauka o związkach logicznych, nie zajmuje się zawartością myśli, czyli przedmiotu swoich zainteresowań, lecz bada tylko ich formę, aby określić, które formy rozumowania są prawidłowe, które nimi nie są. (Ifrah II, 760)
Sylogizmy Arystotelesa - sylogizmów jest 256, podzielone są na 4 grupy symbolizowane tabelkami
MOP POM MOP POM
SOM SOM MOS MOS
SOP SOP SOP SOP
Gdzie w miejsce O należy wpisać jedną z samogłosek a, e, i, o. Zdanie May to zdanie każdy X jest Y, zdanie XeY to żaden X nie jest Y, zdanie XiY to istnieje X będący Y i zdanie Boy to istnieje X niebędący Y. wstawiając te litery do tabelek, można uzyskać sytuację, gdy z dwóch zdań nad kreską wynika zdanie pod kreską - wtedy sylogizm jest prawdziwy. Teoria sylogizmów to przeprowadzenie dowodu, że prawdziwe są 24 sylogizmy, po sześć w każdej z grup.
Algebraizacja logiki i logiki dwuwartościowej - Gottfried Wilhelm Leibniz (1646-1716) podjął badania nad arytmetyką dwójkową, jednocześnie pracuje nad stworzeniem uniwersalnej symboliki.
George Boole (1815-1864) tworzy rachunek zdań i tzw. Algebre Boole'a (podstawowe jej działania to dodawanie logiczne - alternatywa, mnożenie logiczne, negacja logiczna). George Boole - 1847, 1854 - Matematyczna analiza logiki i O prawach logicznego wnioskowania - dwie prace, które uczyniły Boole'a ojca współczesnej logiki matematycznej, w których do rachunku zdań logicznych używa on prostego zapisu algebraicznego, zwanego algebrą Boole'a.
W rachunku zdań przyjął wysoce abstrakcyjną koncepcję algebry, uniezależniając ją całkowicie od pojęć liczby i wielkości. Za argumenty działań przyjmował wyłącznie zdania logiczne, nie czniąc jakich kolwiek dalszych rozróżnień ich natury ani też nie posługując się żadnym systemem interpretacji. Jego logika zajmowała się jedynie relacjami, jakie dopuszczały prawa rządzące ich kombinacjami.
Jedyne kryterium wartościowania zdań to ich prawdziwość (oznaczona za pomocą 1) lub fałszywość (oznaczona za pomocą 0), podstawowe trzy działania tej algebry to negacja, koniunkcja („i”) i alternatywa („lub”).
Wartość logiczna działań jest zalezna od wartości zależnej składników i tak negacja jest prostym odwróceniem wartości, natomiast wartości koniunkcji i alternatywy wyglądają następująco:
p q piq p q p lub q
0 1 0 0 1 1
0 0 0 0 0 0
1 0 0 1 0 1
1 1 1 1 1 1
Za ich pomoca można notować zdanie logiczne, np. pewne prawidłowości ujęte we wzory matematyczne:
(~ p) ^ (~ q) <==> ~ (p ^ q)
Lub
(~ p) ˇ (~ q) <==> ˇ (p ^ q)
Urządzenia do rachunku logicznego - 1937 - Claude E. Shannon: A symbolic Analysis of relaks and switching circuits, udowodnienie że reguły algebry Boole'a można stosować w praktyce w obwodach elektrycznych I że obwody mogą wykonywać podstawowe działania tej algebry.
Od klasycznej algebry do teorii mnogości - Georg Cantor (1845-1918) - teoria mnogości opierająca się na idei zbiorów, wysoce abstrakcyjnej teorii ogarniającej praktycznie całą matematykę, która ma za zadanie badać relacje między abstrakcyjnymi i ściśle określonymi bytami, spełniającymi jeden warunek: ich definicje muszą być niesprzeczne, (Ifrah II, 776),
Powstanie teorii mnogości wzięło się z rozważań nad liczbami rzeczywistymi i funkcjami trygonometrycznymi (w szczególności nad szeregami Fouriera). Ich badanie doprowadziło Cantora do problematyki zbiorów, które były konstruktami czysto abstrakcyjnymi i nieintuicyjnymi. (Kordos, 241),
Teoria mnogości, będąca fundamentem matematyki (całą matematykę daje się zredukować do teorii mnogości), jest historycznie pierwszą teorią opartą na metodzie aksjomatycznej, a więc odnosząc się do z góry powziętych założeń, co do których nie ma sensu rozstrzyganie ich prawdziwości. (Kordos 240, Murawski 181),
Powstanie konstrukcji aksjomatycznych (David Hilbert) tworzących układy aksjomatyczne: suwerenne i niesprzeczne wewnętrznie, abstrakcyjne systemy (np. geometryczne), skutkujące badaniami matematycznymi.
[…] Gilbert stworzył teorię, którą nazwał „ teorią dowodu”. Oto jej założenia: każdej teori ,atematycznej można obecnie nadać postać ściśle sformalizowanego systemu, czyli zbioru wzorów, które od zwykłych wzorów matematycznych różnią się tylko tym, że oprócz zwyczajnych symboli zawierają pewne symbole logiczne.
Dowód stanowi ciąg symbolicznych wzorów, z których każdy jest albo aksjomatem, albo został wyprowadzony z poprzednich wzorów za pomocą wcześniej sformatowanej reguły wnioskowania.
Dzięki temu można uczynić przedmiotem badań matematyki same dowody: ponad sformalizowaną w ten sposób zwykła matematyką powstaje matematyka, która rozpatruje procedury zwykłej matematyki wyłącznie jako działania na formach pisemnych. (Ifrah 780).
1931 - odkrycie Kurta Gödla (niesprzeczna arytmetyka nie może stanowić zupełnego systemu, bo musi zawierać nierozstrzygalny wzór. Innymi słowy w ogólnej teorii zawsze pozostaną pewne zdania przyjmowane za prawdziwe, których prawdziwości nigdy nie będzie można udowodnić).
Od logiki filozoficznej do logiki matematycznej - rozwój logiki dwuwartościowej w systemy logiki wielowartościowej, na przykład trójwartościowej, a nawet o nieskończonej ilości wartości, oderwane od języka i spełniające wyłącznie kryterium wewnętrznej spójności.
Uwolnienie się od zasady tertium non datur (wynikającej z zasady tożsamości; „to, co jest, jest; to, co nie jest, nie jest”), które prowadzi do przekroczenia granicy racjonalizmu klasycznego w stronę racjonalizmu relatywistycznego (In. modalnego) - np. Louis de Broglie przezwycięża sprzeczność dualizmu korpuskularno-falowego.
„kryterium oczywistości zasad i twierdzeń teorii dedukcyjnej zostało zastąpione przez kryterium spójności systemu aksjomatów, wyrażającego się w postaci relacji między symbolami [dowolnego rodzaju]”
„W logice, tak jak w każdej innej teorii dedukcyjnej, trzeba uwolnić symbole od wszelkiego przypisywanemu mu wcześniej intuicyjnego znaczenia, tak aby pozostały wyłącznie znakami, których kombinacje podlegają regułom narzuconym przez zdania pierwotne [czyli aksjomaty]. […] Logika staje się zatem tak samo umowna i wolna [od wszelkiej konkretnej rzeczywistości] jak matematyka. Każd może tworzyć wedle swego widzimisię własna logikę czy też własne logiki, wymagane jest tylko to, żeby system nie był sprzeczny [innymi słowy, aby nie był logicznie niespójny] i żeby był jasno wyartykułowany.” (Ifrah 785)
Rozwinięcie rachunku symbolicznego - logika nie zajmuje się logicznym znaczeniem własnych symboli, a wyłącznie rozpatruje ich kombinacje i przekształcenia tych kombinacji.
Około połowy lat 40-tych powstaje teoria algorytmu, metoda algorytmiczna opiera się na logice formalnej operującej na spójnym systemie aksjomatów i zajmuje się działaniami na symbolach całkowicie niezależnie od natury wyrażanej przez nie rzeczywistości.
Logika symboliczna jest zatem nauką, w której niezbędna jest ludzka myśl - musi ona ustalić system aksjomatów (czyli zbiór zdań wyjściowych) oraz regóły i procedury, wyznaczające związki między zdaniami, a następnie sprawdzić, czy obrane aksjomaty są spójne, niezależne i zgodne. Ale po opracowaniu algorytmu myśl staje się niepotrzebna - algorytm może być wykonywany w postaci programu przez specjalnie dostosowaną do tego celu maszynę, jaką jest komputer.
Skrót postępu w myśleniu typu matematycznego, który doprowadził do powstania komputera
Zwykła arytmetyka Logika klasyczna Rozumowanie dedukcyjne
Rozwija się w rozwija się w rozwija się w
Algebrę wielkości logikę formalną rachunek zdań
Może pojawić się może pojawić się
Charles Babbage George Boole
Logika formalna rachunek symboliczny
Algebra rozwija się w rozwija się w rozwija się w
Algebrę zbiorów abstrakcyjną logikę teorię algorytmów
Symboliczną
Klasyczne modele maszyn liczących
Istnieja dwa klasyczne modele maszyn liczących:
Maszyna Turinga - ideę tzw. Maszyny Turinga, a także ścisłe zdefiniowanie pojęcia algorytmu przedstawił Alan Mathison Tubing (1912-1954) w roku 1936 w słynnym artykule On computable numbers, with an application to the Entscheidungs problem (O liczbach obliczalnych i ich zastosowaniu w odniesieniu do problemu rostrzygalności).
MT jest abstrakcyjną maszyną matematyczną, która potrafi zapisywać i odczytywać pojedyncze informacje na najbardziej elementarnym poziomie ich analizy logicznej; zapis i odczyt odbywa się w kolejnych komórkach potencjalnie nieskończonej, wirtualnej taśmy.
MT dokonuja symulacji procedur przetwarzania danych na najbardziej analitycznym poziomie, zgodnie ze szczegółowym wykazem tego, co powinno zostac zapisane, odczytane, przekazane, zmienione, aby wykonac procedurę; opis ten wykazuje jednocześnie kolejnośc odpowiednich stanów wewnętrznych. (Ifrah II, 797).
Ukoronowaniem działalności Turinga stała się koncepcja uniwersalnej maszyny: idealnego urządzenia, którego charakterystyka odpowiada rodzinie abstrakcyjnych maszyn, wykonujących dowolny algorytm w sposób całkowicie automatyczny.
A zatem uniwersalna maszyna Turinga to programowalny automat logiczny, który potrafi wykonac wszelkie obliczenia o charakterze symbolicznym. Jest to maszyna, która potrafi wykonywac automatycznie wszelkiego rodzaju obliczenia na podstawie dowolnych danych, wyrażanych za pomocą abstrakcyjnych smboli. (Ifrah II, 199)
[…] Maszyna Turinga to obiekt matematyczny, ale również funkcjonalny schemat abstrakcyjnej maszyny, choć oczywiście nie jest to konkretna maszyna ani nawet projekt maszyny.
Maszyna Turinga ma się tak do całej rodziny konkretnych maszyn, jak zasada, a raczej funkcja korkociągu do wszystkich możliwych rodzajów korkociągów.
Ale… zgodnie z odkrytą w 1931 roku przez Kurta Gödla zasadą nierozstrzygalności „ nie można stworzyc ogólnego programu, który pozwalałby przewidzieć z góry czy maszyna doprowadzi do końca obliczenia wykonane za pomocą dowolnego danego programu P, czy tez nie.”
Odkrycie4 to miało katastrofalne skutki natury filozoficznej. Wielu uczonych, wśród których nie brakło najtęższych umysłów, w porywie entuzjazmu uznało, że każdą czynność ludzkiego umysłu można opisać za pomocą algorytmu, a zatem każdy proces myślowy, pojęty mylnie jako proces obliczeniow, da się wykonać za pomoca maszyny Turinga.
Tymczasem problemy te stanowią tylko szczególną kategorię procesów myślowych, do wielu maszyny Turinga (i komputery, które, jak to wykazał John von Neumann są tylko konkretnymi modelami uniwersalnego automatu algorytmicznego) są zupełnie nieprzydatne.
Teza Churcha-Turinga:
(od Alonza Churcha i Alana M. Turinga, którzy doszli do niej niezależnie w połowie lat trzydziestych XX wieku)
Każdy algorytm, który człowiek potrafi ułożyć można zapisać w postaci maszyny Turinga. (R. Tadeusiewicz, P. Moszner, A. Szydełko: teoretyczne podstawy Informatyki, Kraków 1998, str. 64)
Maszyny Turinga potrafia rozwiązać każdy efektywnie rozwiązywalny problem algorytmiczny! Mówiąc inaczej, każdy problem algortmiczn, dla którego możemy znaleźć algorytm dający się zaprogramować w pewnym - dowolnym języku, wkonujący się ma pewnym dowolnym komputerze, nawet na takim, którego jeszcze nie zbudowano, ale można zbudować, i nawet na takim, który wymaga nieograniczonej ilości czasu i pamięci dla coraz większych danych, jest także rozwiązywalny przez maszynę Turinga. (D. Harel: Rzecz o istocie informatyki, Algorytmika, Wydawnictwo Naukowo-Techniczne, Warszawa 1992, str. 240)
Maszyna Turinga - Budowa:
Skończony zestaw symboli.
Potencjalnie nieskończona taśma, podzielona na kolejne komórki.
Urządzenie kasujące, które może usunąć symbol z danej komórki.
Urządzenie odczytujące i zapisujące, ruchome względem taśmy, które potrafi odczytać informacje z pojedynczej komórki i zapisać symbol w pustej komórce.
urządzenie przesuwające, które pozostaje nieruchome albo przesuwa taśme o jedną komórkę do przodu lub do tyłu.
Tablica charakterystyczna (tablica konfiguracji lub sytuacji), która określa sytuację na każdym etapie funkcjonowania maszyny (wewnętrzny stan maszyny, zawartość tasmy na danym etapie, i komórke, którą aktualnie zajmuje się maszyna, wskazaną za pomoca właściwego jej symbolu).
Urządzenie sterujące (czli poziom funkcjonalny abstrakcyjnego urządzenia), które potrafi interpretować znaczenie symboli z tablicy charakterystycznej, aby wprawić siebie i maszyne w określony z góry stan; jednostka ta może zatem zlecać odpowiedniemu układowi wykonanie czynności zaleznie od rodzaju instrukcji.
Składa się z trzech części:
Nieskończenie długiej, lewostronnie ograniczonej taśmy, podzielonej na kwadraty, na której zapisane mogą być dowolne symbole z pewnego, ustalonego alfabetu;
Obustronnie nieskończonej tasmy roboczej, która traktowana może być jako pamięc pomocnicza lub (i) jako wyjście, pojedynczy symbol może być na niej odczytywany i wymieniany na dowolny inny symbol;
Urządzenia sterującego, które na podstawie otrzymanych symboli aktualnie odczytanych taśm i stanu, w którym się znajduje wysyła symbol do zapisania na tasiemce roboczej, a ponadto steruje jej ruchami wysyłając sygnały {LEWO, STOP, PRAWO}.
I. Taśma i znacznik
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
głowica czytająco-zapisująca nieskończona taśma
II. Skończony zbiór regół działania
Jeśli stan aktualny jest Q1, a aktalny symbol jest „1” wówczas:
Zapisz symbol „1”,
Przesuń znacznik w prawo
Przejdź do stanu Q2.
jeśli stan aktualny jest Q2, a aktualny symbol jest „pusty”, wówczas:
zapisz symbol „0”,
przesuń znacznik w prawo
zatrzymaj się.
III. zaczynając w (i), maszyna przejdzie przez stany (ii) oraz (iii)
Maszyna Turinga składa się z następujących elementów:
skończonego alfabetu symboli;
skończonego zbioru stanów;
nieskończonej taśmy z zaznaczonymi kwadratami, z których każdy może zawierać pojedynczy symbol;
ruchomej głowicy odczytująco-zapisującej, która może wędrować wzdłuż taśmy przesuwając się raz o jeden kwadrat;
diagramu przejść między stanami, czasem zwanego prościej diagramem przejść, zawierającego instrukcję, które powodują, że zmiany następują przy każdym zatrzymaniu się.
Wykrywanie palindromów - to te pokrętne rysunki, schematy
Maszyna von Neumana - pierwszą maszyna o cechach charakterystycznych dla współczesnych maszyn cyfrowych była maszyna EDVAC, której założenia przedstawił John von Neumann w publikacji Pt. First draft of a report on EDVAC (Wstępny projekt raportu na temat EDVAC ) z dn. 30 czerwca 1945 r. Były one następujące:
Operacje wykonywane na liczbach binarnych
Program obliczeń jest zapamiętywany wraz z danymi do tych obliczeń w pamięci maszyny
Zewnętrzny nośnik informacji Nośnik informacji wyjściowej
pamięć
Arytmometr sterowanie
Niklas Wirth: algorytmy + dane = programy
Ogólna definicja komputerów
Komputer jest automatem, złożonym z urządzenia wejściowego i wyjściowego, pamięci, jednostki centralnej, dokonującj wszelkiego rodzaju przekształceń danych wyrażonych w postaci ciągów znaków (stanowiących materialne przedstawienie zakodowanych informacji), który pozwala - w granicach fizycznych możliwości urządzenia - wykonywać wszelkie obliczenia typu symbolicznego, (a zatem rozwiązywac wszelkie zadania, których rozwiązanie można przedstawić w postaci algorytmu) pod kierunkiem jednostki sterującej, działającej zgodnie z programami zapisanymi w pamięci (i wobec tego traktującymi instrukcje wykonawcze w ten sam sposób co dane przeznaczone do przetworzenia).
Niklas Wirth - Profesor Niklaus Wirth urodziła się (1934 r.) w Winterthur, w Szwajcarii. Jest absolwentem (1958 r.) Wydziału Elektrotechniki na Politechnice (ETH) w Zurychu. Ma tytuł magistra, który otrzymał (1960 r.) na Laval University w Kanadzie, i tytuł doktora, który otrzymał (1963 r.) na University of Kalifornia. Jest współzałożycielem Wydziału Informatyki na Stanford University. W latach 1968-1981 piastował stanowisko profesora na ETH, gdzie zajmował się pracą dydaktyczną. Obecnie kieruje działem informatyki na tej uczelni.
Z komputerami i programowaniem profesor Wirth zetknął się na wykladach analizy numerycznej w Laval University. Używano tam wówczas komputera Alvac IIIE. Ponieważ był on notorycznie niesprawny, większość ćwiczeń r\z programowania robiono na papierze. Wirth szybko zrozumiał, że komputery, do których należy przyszłośc, muszą być niezawodne i jak najefektywniej oprogramowane. Postanowił poświęcić się programowaniu. W 1960 roku opracował gramatykę precedencyjną, poczym zajął się językami programowania.
Pierwszym stworzonym przez Wirtha językiem był Euler - przedstawiony nie tylko na papierze, ale też wdrożony na komputerach IBM 704 i Boroughs B500, stanowiący punkt wyjścia do opracowania języków programowania strukturalnego.
W 1967 roku Wirth wrócił do Szwajcarii i od 1968 roku zajął się Pascalem. Kompilator Pascala został przedstawiony w 1970 roku, a języka Pascal zaczęto uczyć na ETH już w 1972 roku. Dziś jest on uważany za najważniejszy współczesny język programowania.
Odniósłszy wszelkie sukcesy z Pascalem, Wirth zainteresował się przetwarzaniem wieloprogramowym. Wynikiem jego prac był język Modula-2. Pierwszy kompilator tego języka powstał w 1979 roku do pracy na PDP-11.
W 1980 roku Wirth opracował Lilith - kombinację Pascala i Moduli-2, a później Oberona, którego struktura była rozszerzeniem podstawowej struktury Moduli-2.
Dziś profesor Niklas Wirth jest uwazany za jednego z największych uczonych swiata w dziedzinie informatyki, a jego dzieło - Pascal - za najważniejszy język programowania. Jego marzeniem jest stworzenie bardziej strukturalnego, bardziej przyjaznego i mocniejszego języka niż ten ostatni.
Niklas Wirth - informacja
Informacja dostępna komputerowi stanowi pewien wybrany zbiór danych o świecie rzeczywistym, mianowicie zbiór danych uważanych za istotne do rozwiązania rozważanego problemu […]. Dane te reprezentują model abstrakcyjny w tym sensie, ze pewne właściwości obiektów rzeczywistych są ignorowane, ponieważ nie są związane z badanym problemem. Ten model abstrakcyjny jest więc również pewnym uproszczeniem zespołu faktów.
Prz rozwiązywaniu problemu - czy to za pomoca komputera, czy też bez niego - trzeba dokonac wyboru abstrakcyjnego modelu rzeczywistości, czyli zdefiniowac zbiór danych mających reprezentować rzeczywistą sytuację. Wybór ten powinien być podporządkowany problemowi, który ma być rozwiązany. Potem następuje wybór reprezentacji tych informacji. Ten wybór jest z kolei podyktowany narzędziem, które służy do rozwiązania problemu, czylo możliwościami komputera. W większości przypadków oba te kroki nie są całkowicie niezależne.
Niklas Wirth - Programy
Programy stanowią w końcu skonkretyzowane sformułowania abstrakcyjnych algorytmów na podstawie określonej reprezentacji i struktur danych.
Głównym założeniem tej teorii (teorii przedstawionej w pracy C.A.R. Hoare: Notes on data structuring [w] dahl Dijkstry, Hoare: structured programming, New York, Academic Press 1972, na której opiera swoje rozumowanie Wirth - przyp. RM) jest, że dane reprezentują przede wszystkim pewne abstrakcje obiektów rzeczywistych, zdefiniowane jako struktury abstrakcyjne niekoniecznie realizowane w językach programowania. Podczas tworzenia programu reprezentacja danych jest stopniowo precyzowana - jednocześnie z udoskonaleniem algorytmu - w coraz większym stopniu dostosowywana do ograniczeń narzuconych przez dany system programowania.
Manovich: interfejs
Używając terminów semiotycznych, można powiedzieć, ze interfejs komputera funkcjonuje jak kod, za którego pośrednictwem kulturowe przekazy oddaje się w różnych mediach. Kiedy korzystamy z Internetu, wszystko, do czego mamy dostęp - teksty, muzyka, wideo, wirtualne przestrzenie - przechodzi przez interfejs przeglądarki, a potem przez interfejs systemu operacyjnego. (141)
Nieprzezroczystość kodu - determinujący wpływ kodu na zawartość przekazu (teoria Whorfa-Sapira, Jurija Łotmana hemisfera, logocentryzm Jurija Derridy, teoria mediów Marshalla McLuhanna, lingwistyka kognitywna i język jako system metafor Georga Lakoffa, do których można dorzucić jeszcze Rolanda Barthesa czy Jeana baudrillarda)
Opozycja interfejs - treść, jako wariant klasycznej opozycji forma - treść - nowy paradoks:
Obecność „wymiaru informatycznego” (kwantyzowanych danch) uzasania rozdzielenie poziomu treści i interfejsu, ale np. istnienie dynamicznych, a nawet interaktywnych i nieprzewidywalnychdzieł sztuki np. Sommerem i Mignon, lub Sims, sugeruje ich nierozdzielność.
Interfejs a klasyczne definicje formy
Sposoby rozumienia pojęcia formy uporządkowane i zebrane przez Władysława Tatarkiewicza:
Forma A: Układ części. Jej przeciwieństwem są elementy, składniki, które forma A łączy, zespala w całość.
Forma B: to, co bezpośrednio zmysłowo dane; np. w poezji dźwięk słów należy do formy, treść słów- do treści.
Forma C: granica czy kontur przedmiotu. Jej korelatem jest materia, materiał.
Forma D: istota pojęciowa przedmiotu, entelechia - w sensie Arystotelesowskim, Materią jest to, co przypadkowe w przedmiocie.
Forma E: wkład umysłu do poznawanego przedmiotu. Przeciwieństwem tej formy jest to, co dane z zewnątrz przez doświadczenie. Koncepcja Kanta.
„[…] interfejs człowiek-komputer stał się głównym semiotycznym kodem społeczeństwa informacyjnego oraz jego metanarzędziem […]” (s. 143)
Język interfejsów kulturowych:
Ponieważ dystrybucja wszystkich form kultury coraz częściej wykorzystuje komputery, stopniowo - po drugiej stronie interfejsu - stykamy się z danymi przede wszystkim kulturowymi: tekstami, zdjęciami, filmami, muzyką, wirtualnymi środowiskami. Pod rugiej stronie interfejsu nie mamy już komputera, ale różne obiekty kulturowe zamienione na postac cfrowa. Będę używał terminu interfejs kulturowy do opisania interfejsu człowiek-komputer-kultura, czyli sposobu, w jaki komputer udostępnia dane kulturowe i pozwala nam na na interakcje z nimi. Interfejsy kulturowe to miedzy innymi interfejsy użwane przez projektantów stron Inter-netowych, płyt CD-ROM i DVD, encyklopedii multimedialnych, muzeów i czasopism online czy gier komputerowych. (148)
Jest zbudowany z innych, znanych już form kultury, takich jak druk, kino czy tradycyjny interfejs człowiek-komputer. (149)
Druk przynosi organizację strony: „prostokątnej powierzchni zawierającej pewną ilość informacji, zaprojektowanej do oglądania w pewnej kolejności i powiązanej z innymi stronami.”, która w dalszym rozwoju rozszerza swe możliwości, aż osiąga wyrafinowanie skomplikowanej strony internetowej i zmienia dramatycznie system organizacji danych z hierarchicznej, opartej na porządku, narzucającej „progresję narracyjną” na swobodna ale „płaską”, pozbawiona jakiegokolwiek ładu, „spacjalizowaną” to znaczy odrzucającą wszelką narrację, indyferentną pod względem logiki następstw i rozłożoną w pozbawionej wymiaru czasu przestrzeni.
Kino dostarcza pomysłu ruchomej kamery, która pozwala przenosić się w przestrzeni, podkreślając zresztą „spacjalizowany” typ operacji, oraz ideą prostokątnego kadru, który kino odziedziczyło po zachodnim malarstwie i wieloma innymi konceptami. Dziedzictwo kina jest szczególnie bogate: „kinowe sposoby percepcji, łaczenia czasu i przestrzeni, przedstawiania ludzkiej pamięci, myśli i emocji stały się sposobem na życie milionów ludzi żyjących w epoce komputerów. Estetyczne strategie kina stały się głównymi zasadami organizującymi oprogramowanie komputerowe. Okno wychodzące na fikcyjny świat kinowej narracji stalo się oknem na pejzaż danych. To, co kiedys było kinem, teraz jest interfejsem człowiek - komputer.”
HCI (Human - Computer Interface): reprezentacja vs. Sterowanie
„Ta koncepcja ekranu [strona WWW napisana za pomoca HTML - przyp. RM] łączy dwie odmienne onwencje obrazowe - starszą tradycję malarskiego iluzjonizmu, zgodnie z która ekran to okno wychodzące na wirtualny świat, coś przeznaczonego do oglądania, a nie wykonywania jakichś czynności, oraz druga, znacznie młodszą konwencję graficznego interfejsu, zamieniająca ekran w zespół urządzeń sterujących o ściśle wyznaczonych funkcjach, czyli wirtualny panel kontrolno-sterowniczy. W rezultacie ekran komputera staje się polem bitwy między wieloma niezgodnymi ze sobą definicjami: głębią i powierzchnią, przezroczystością i nieprzezroczystością, obrazem jako iluzyjną przestrzenią i obrazem jako narzędziem pracy.”
Interfejs - pierwsze próby
Xeros Star - pierwszy komercyjny komputer x graficznym interfejsem użytkownika, ze znanymi dzisiaj ikonami i komputerową myszą (1981)
Xeros Alto - komputer stworzony w Xeros PARC w 1973, jest uważany za pierwszy komputer osobisty.
Lisa - komputer osobisty zaprojektowany przez Apple Computer z graficznym interfejsem użytkownika. Premiera Lisy miała miejsce 19 stycznia 1983 roku.
Apple Mackintosh 128 - pierwszy z serii komputerów osobistych o nazwie Macintosh, premiera 1984.
W kierunku idei nowej „myślącej” maszyny
1945 - Vannevar Bush: As We May Think:
“suma ludzkiej wiedzy powiększa się z kolosalną szybkością, środki zaś, jakimi się posługujemy do znajdywania drogi w wynikającym stad labiryncie, są wciąż takie same jak w czasach staroświeckich żaglowców” (207)
1950 - pierwsze pomysły Douga Engelbarta:
„zacząłem szkicować system, w którym komputery kreślą nam symbole na ekranie, my zaś za pomoca przycisków, dźwigienek i przetworników możemy wędrować po różnych dziedzinach informacji. Układałem najprzeróżniejsze plany, co można byłoby zrobić, gdyby się dysponowało systemem podobnym do sugerowanego przez Vannevara Busha; jak można błoby ma przykład poszerzyć ten system i stworzyć środowisko przypominające teatr, w którym można byłoby siedzieć z kolegami i wymieniac informacje. Mój Boże! Pomyślmy tylko, o ile łatwiej byłoby rozwiązywac problemy!” (208)
1963 - Doug Engelbert: „a Conceptual Framawork for the Augmentation of Man's Intellect” (ramy koncepcyjne wzmacniania ludzkiego intelektu) (213)
1968 - historyczny pokaz interfejsu Ebgelbarta: Fall Joint Computer Conference (Wsólna jesienna konferencja komputerowa), San Francisco
1973 - „Warsztat wzmacniania intelektu” - wraz z watsonem i Hortonem - inspiracja - Peter Drucker i jego koncepcja wiedzy jako głównego przedmiotu gospodarki
Kwestia „podziału czasu” jako techniki wykorzystującej potencjał komputera i będącej zarodkiem idei współprac, tej współpracy, która stanowiła oś wizji Engelbarta, tym razem biegnie osobna ścieżką w strone problemu komunikacji.
1968 - J.C.R. Licklider, R. Taylor „Komputer jako urządzenie komunikacyjne” - pierwszy, luźny pomysł „sieci międzygalaktycznej” Licklider opublikował już w 1966 r.
Operacje Manovicha
„Operacje wbudowane są w oprogramowanie, ale nie SA ograniczone tylko do niego. Użwa się ich nie tylko w komputerze, ale również w społecznym świecie poza nim. Nie są tylko technikami pracy nad danymi komputerowymi, lecz również ogólnymi sposobami pracy, sposobami myslenia, sposobami istnienia w epoce komputerowej.
Komunikacja miedzy szerszym światem społecznym a oprogramowaniem odbywa się w dwu kierunkach. Gdy używamy programów i funkcji w nie wbudowanych, stają się one częścią tego, jak rozumiemy siebie, innych i świat wokół nas. Strategie pracy z danymi komputerowymi stają się naszymi ogólnymi strategiami poznawczymi. Równoczesnie budowa oprogramowania interfejsu człowiek-komputer odzwierciedla szerszą logikę społeczną, ideologię i wyobrażenia współczesnego społeczeństwa. Zatem, jeśli jakies operacje obecne są w oprogramowaniu, możemy przypuszczać, że znajdziemy je również w kulturze.”
„kultura zamiast uzupełniac swe zasoby nowymi zapisami rzeczywistości, zajmuje się przetwarzaniem, ponownym łączeniem i analizowaniem zebranego wczesniej materiału utrwalonego w różnych mediach. […] Moim zdaniem ta nowa sytuacja kulturowa znalazła odbicie w powstającym w latach 80. oprogramowaniu, które przedkładało wybór z gotowych elementów nad tworzenie od podstaw. W znacznej mierze to własnie te programy umożliwiły powstanie postmodernizmu. […] kiedy wszystkie obiekty są projektowane, przechowywane i dystrybuowane przy użyciu jednego urządzenia, w tym przypadku komputera, znacznie łatwiej jest dokonywać zapożyczeń z istniejących obiektów.”
Aby poprzeć swoją tezę Manovich powołuje się na tekst Frederica Jamesona: Postmodernizma i społeczeństwo konsumpcyjne z 1985 roku.
Operacje Manovicha:
Selekcja - Sytuacja twórcy wchodzącego w skomplikowany dialog z zastana kulturą zamienia się w usystematyzowaną ofertę zasobów, menu, list, wtyczek, bibliotek, struktur drzewiastych itd.
Pojawia się kategoria użytkownika: „Jeśli dzieło to suma wszystkich możliwych ścieżek łączących jego elementy, to użytkownik wybierając jedną z nich, poznaje tylko część tej całości.” (s. 219)
Idea postmodernistycznego kolażu wskazuje czasowa zbieżność z technologią Photoshopa, choć „praktyka składania obiektów medialnych z istniejących wcześniej i dystrybuowanych komercyjnie elementów była znana już w produkcji mediów tradcyjnych, natomiast technologia nowych mediów wprowadziła kolejne standardy i znacznie tę praktykę ułatwiła.” (s. 222)
Obiekt medialny staje się „miękki”, ma wariacyjny charakter - jest produktem swobodnego flirtowania, jego wierną metaforą to „miks” a metaforą jego twórcy jest didżej.
Kompozytowanie - „jest przykładem bardziej ogólnej operacji charakterystycznej dla kultury komputerowej - łączenia wielu elementów, w wyniku czego powstaje jednolity obiekt. […]
Kompozytowanie - w szerszym sensie tego słowa - jest odpowiednikiem selekcji. Jeżeli typowy obiekt nowych mediów jest składany z elementów pochodzących z różnych źródeł, elementy te muszą być zharmonizowane i skorygowane tak, żeby do siebie pasowały.” (s. 232)
Obiekty nowych mediów mają więc immanentnie budowę modularną i mogą ją zachowywać także w procesie użytkowania.
Kompozytowanie wypiera montaż rozumiany jako świadome zestawianie oparte na logice granicy, wprowadza płynność i zatarcie granic.
Teleakcja - „Wysuwając na pierwszy plan telekomunikację - zarówno w czasie rzeczywistym, jak i asynchroniczną - traktowaną jak fundamentalna aktywność kulturowa, interent każe nam ponownie rozważyć paradygmat przedmiotu estetycznego. Czy estetyka musi się odwoływać do pojęcia reprezentacji? Czy sztuka musi prowadzić do wytworzenia przedmiotu? Czy formy komunikacji między użytkownikami mogą być przedmiotem estetyki? Dzlej, czy wyszukiwanie informacji przez użytkownika można rozumiec w kategoriach estetyki? Krótko mówiąc, jeżeli sytuacje - użytkownika mającego dostęp do informacji i użytkownika komunikującego się z innymi - są tak samo rozpowszechnione w kulturze komputerowej jak sytuacja kontaktu z reprezentacjami, czy możemy tak dalece rozszerzyć nasze teorie estetyczne, aby objęły one i te nowe stuacje?” (s. 263)
Teleoperacje Manovicha
Teleobecnosć - możliwość widzenia i działania na odległość
To raczej otwarcie tematu niż podsumowanie:
„Film, telekomunikacja, teleobecność - analizy Benjamina i Virilia pozwalają nam zrozumieć historyczne znaczenie tych technologii w kategoriach stopniowego pomniejszania, a w końcu zupełnego wyeliminowania tego, co obaj autorzy uwaąają za zasadniczy warunek ludzkiej percepcji - dystansu przestrzennego, odległośći między podmiotem, który patrzy, i obiektem, na który patrzy. To odczytanie dystansu zawartego w akcie widzenia jako czegos pozytywnego, jako nieodłącznego składnika kultury, jest ważną alternatywną w stosunku do dominującego w myśli współczesnej pogladu traktującego ów dystans negatywnie.” (2. 276)
Inne operacje, których Manovich nie omawia:
Sampling
Morfizacja
Manovich Formy:
W ciągu dwudziestu lat kultura zatoczyła krąg. W tworzeniu interfejsu komputera wykorzystano elementy naszego otoczenia, teraz konwencje interfejsu przenosza się z powrotem do fizycznej rzeczywistości. Ten sam proces występuje również w innych konwencjach, lub formach, komputerowych mediów. Zbiór dokumentów i nawigowalna przestrzeń, będące tradycyjnmi metodami organizowania danych i doświadczenia świata, stały się formami, które dzisiaj można znaleźć na całym obszarze nowych mediów. Pierwsza z tych form to baza danych, używana do przechowywania różnych rodzajów danych […]; druga to wirtualna, interaktywna przestrzeń 3D, wykorzystywana w grach komputerowych, symulatorach ruchu w parkach rozrywki, wirtualnej rzeczywistości, animacji komputerowej i interfejsach człowiek-komputer. […]
Dzisiaj - zgodnie z zasadą transkodowanie kulturowego - te dwie formy komputerowe migrują powrotem na obszar kultury, zarówno dosłownie, jak i w przenośni.
Baza danych i wirtualna, interaktywna przestrzeń 3D - to dwie formy projektowania komputerowego, które realizują dwa podstawowe cele: „dostęp doinformacji lub psychologiczne zaangażowanie w nierzeczywisty świat”. (s. 330)
Obiekty ze swiata rzeczywistego są reprezentowane w bazie danych za pomocą tzw. Modelu danych.
Bazy danych - podział ze względu na model danych:
Relacyjna
Obiektowa
Obiektowo-relacyjna
Semistrukturalna (XML)
Hierarchiczna
Sieciowa
Model hierarchiczny i sieciowy nie SA już stosowane w nowobudowanych systemach. Obecnie w bazach danych najczęściej stosuje się model relacyjny, obiektowo-relacyjny lub semistrukturalny.
Każdy model danych definiuje trzy podstawowe elementy, tj. struktury danych, operacje na danych i ograniczenia integralnościowe nakładane na dane.
Struktura danych słuzy do reprezentowania w bazie danych obiektów ze świata rzeczywistego. Przykładowo, grupa pracowników firmy może być reprezentowana w modelu obiektowym jako klasa, lub w modelu relacyjnym jako relacja. Poszczególni pracownicy SA reprezentowani odpowiednio jako wystąpienia klasy (w modelu obiektowym) lub krotki relacji (w modelu relacyjnym).
Każdy model danych posiada zbiór predefiniowanych operacji na danych. Przykładowo, w modelu relacyjnym operacje na danych oferowane przez model to: selekcja, projekcja, połączenie i operacje na zbiorach.
Ponadto, model danych umożliwia nałożenie ograniczeń integralnościowych na dane reprezentowane w nim dane. Przykładowo, dla relacji ze slajdu można zdefiniować ograniczenie integralnościowe zapewniające, że data rozpoczęcia projektu będzie zawsze mniejsza niż data jego zakończenia.
Baza danych:
„Nowa symboliczna forma ery komputerowej”, „nowy sposób nadawania struktury naszemu doświadczeniu siebie i świata” (334)
Dane (struktura danych) i algorytm to „dwie połówki ontologii świata według komputera” (340)
„Epoka komputerów stworzyła nowy kulturowy algorytm: rzeczywistość> media> dane> baza danych.” (341)
Baza danych i narracja:
„Baza danych rozumiana jako forma kulturowa przedstawia świat w postaci listy elementów, których w żaden sposób nie porządkuje. Natomiast narracja tworzy ciągi przyczynowo-skutkowe z pozornie nieuporządkowanych elementów (wydarzeń)”. Baza danych i narracja są zatem naturalnymi wrogami. Dążą do panowania nad tyli samymi obszrami ludzkiej kultury, a każda z nich uzurpuje sobie wyłączne prawo, by konstruować znaczenie świata. (342)
„obiekt nowych mediów składa się z jednego lub więcej interfejsów do bazy danych przechowującej materiały multimedialne. Jeśli zostanie skonstruowany tylko jeden interfejs, powstanie dzieło podobne do tradycyjnych dzieł sztuki, ale taka sytuacja jest raczej wyjątkiem niż reguła.” (344)
„Bez względu na to, czy obiekty nowych mediów przybierają formę linearnej narracji, interaktywnej narracji, bazy danych czy jakąś inną, w głębi, na poziomie struktury materialnej, we wszystkich tych przypadkach będą one bazami danych. W nowych mediach bazy danych obsługują wiele form kulturowych, które obejmują zakres od bezpośredniego tłumaczenia (czyli baza danych zostaje bazą danych) do formy, której logika jest przeciwieństwem logiki samego tworzenia - czyli narracji. Precyzując: baza danych może obsługiwać narracje, ale nie ma niczego w logice samego medium, co sprzyjałoby jej utworzeniu. Nic więc dziwnego, że bazy danych zajmują znaczący, jeśli nie największy obszar w pejzażu nowych mediów. Dziwić może jedynie to, że ów drugi kraniec spektrum - narracje - jeszcze w ogóle istnieje.”
Paradygmat czy syntagma (wg Barthesa)? Nowe media opierają się na logice paradygmatu, ale sprowadzają go najczęściej do logiki syntagmy.
Nawigowalna przestrzeń
„[…] obok bazy danych, nawigowalna przestrzeń jest kolejna kluczową formą nowych mediów. Stała się ona przejętym sposobem komunikowania się z danymi różnych rodzajów, interfejsem szeroko wykorzystywanym w grach komputerowych i symulatorach ruchu oraz potencjalna formą niemal wszystkich praktyk komputerowych. […] biblioteka wypierana jest prze cyberprzestrzeń, narracja zostaje zrównana z przemierzaniem przestrzeni w komputerowej wizualizacji, dane przedstawiane są w trzech wymiarach […]” (375)
„ Wprawdzie nowe media faworyzują używanie przestrzenia jako medium reprezentacji, jednak wirtualne przestrzenie nie są właściwie przestrzeniami, lecz raczej zbiorami poszczególnych obiektów. Można wyrazić to sloganem: w cyberprzestrzeni nie ma wolnej przestrzenia.” (376)
„[…] generowane komputerowo światy SA w rzeczywistości znacznie bardziej haptyczne i agregacyjne niż optyczne i systemowe.” (378)
„[…] chociaz wirtualne światy trójwymiarowe generowane są zwykle według zasad perspektywy linearnej, w rzeczywistości są zbiorami osobnych przedmiotów, niepowiązanych ze soba w żaden sposób. Z tego punktu widzenia powszechnie wysuwamy zarzut pod adresem komputerowej symulacji trójwymiarowej, że cofa ona nas do perspektywy renesansowej, a zatem że jest - z punktu widzenia XX-wiecznej abstrakcji - wsteczna, wydaje się nieuzasadniony. Jeśli mielibyśmy zastosować ewolucyjny paradygmat panofsky'ego do badań nad historią wirtualnej przestrzeni komputerowej, musimy dojść do wniosku, że nie osiągnęła ona jeszcze swojego etapu renesansu. Ciągle jest na etapie starożytnej Grecji, która nie może wyobrazić sobie przestrzeni jako całości. „ (381)
„Jeśli zaakceptujemy tę przestrzenną metaforę, zarówno XIX-wieczny flậneur, jak i amerykański odkrywca odrorzą się w postaci internauty.” (400)
Marc Aule: „supernowoczesność wytwarza nie-miejsca, to znaczy przestrzenie, które same w sobie nie są miejscami antropologicznymi i które, w odróżnieniu do baudelaire'owskiej nowoczesności, nie integruja się z wcześniejszymi miejscami” (Marc Aule, Non-places: introduction to an Anthmpology of Supermodemity, London, Verso, 1995, s. 78) (za Manovichem, 408)
nowoczesność |
„supernowoczesność” |
Narracja (hierarchia) |
Baza danych, hipermedia, sieć (spłaszczenie hierarchi) |
Przestrzeń obiektywna |
Przestrzeń subiektywna (trajektoria w przestrzeni) |
Architektura statyczna |
„architektura płynna” |
Geometria i typologia jako Teoretyczne modele analizy Kulturowej i społecznej |
Trajektoria, wektor i przepływ Jako kategorie teoretyczne |
„[…] dwie „supernowoczesne”” formy - baza danych i nawigowalna przestrzeń uzupełniaja się, jeśli chodzi o ich wpływ na formy nowoczesności. Z jednej strony narracja zostaje „spłaszczona” do postaci bazy danych, trajektoria prowadząca przez wydarzenia i/lub czas staje się płaska przestrzenią; z drugiej - płaska przestrzeń architektury lub topologii zostaje poddana narratywizacji, stając się podstawą dla trajektorii indywidualnych użytkowników.” (414)