Język mapy:
Elementy informacyjne (relacje wewnętrzne w sferze formalnego rysunku mapy):
Nazwy jednostkowe - określenie położenia miejsca na płaszczyźnie w odpowiednim układzie odniesienia (na lewo od południka, na północ od równika)
Predykaty jednoargumentowe - znaki różniące się wyrazem graficznym, pozwalają rozróżnić cechy jakościowe.
Relacje porównawcze - informują o wzajemnym położeniu co najmniej dwóch zjawisk
Informacje (relacje zewnętrzne – konfrontacja mapy z rzeczywistością)
Informacje proste – zawarte w poj. znaku i wyjaśnione w legendzie.
Mapy – system znaków (inf. prostych), gdzie ich rozmieszczenie odzwierciedla rozmieszczenie odpowiednich faktów w rzeczywistości (chorologia). Zachodzą relacje:
Oznaczenia (między miejscami na mapie a miejscami w przestrzeni – identyfikacji [A’-->A] oraz rozmieszczenia [A’-B’ --> A-B])
Orzekania (między predykatami a rolą miejsc w przestrzeni)
Odbijania (stosunek wyobrażenia rzeczywistości wytworzonego dzięki mapie)
Zależności:
Syntaktyczne – kompozycja mapy ma być prosta i posiadać spoisty układ trści (zgodność znaków z rzeczywistością, położenia w układzie, kierunków świata, zmniejszania ze skalą)
Semantyczne – stosunek znaku do rzeczywistości, polega na nadawaniu znakowi treści znaczeniowego; stosunki jedno-jednoznaczne oraz jedno-wieloznaczne. Zachodzą relacje oznaczenia i orzekania
Pragmatyczne – stosunek między mapą a użytkownikiem, relacja odbijania (konwencja orientacji mapy, znaczenia znaków, barwy)
Zależności izomorficzne (aby znak, a co za tym idzie mapa były czytelne dla odbiorcy)
Izomorfizm położenia – relacja między znakami a rzeczywistością
Izomorfizm postaci – dobór właściwego znaku do określonej rzeczy (pkty, linie, powierzchni)
Izomorfizm treści – grupowanie faktów wg cech jakościowych bądź ilościowych
Stopnie czytania mapy:
Widoczności – ogólny obraz rozmieszczenia znaków
Rozróżniania – odróżnianie poszcz. znaków
Rozpoznania – całkowite zrozumienie treści mapy
Stopnie zależą od możliwości czytelnika, czytelności mapy, zewnętrznych warunków czytania
Poziomy czytania mapy: od najbardziej do najmniej ważnych elementów mapy
Niezawodność rozpoznawania znaków:
Prostota
Elementy tego samego porządku widoczności (waga optyczna znaku przeniesiona na jego peryferie)
Podstawowe cechy konfiguracji znaków nie powinny dominować nad rozróżniającymi je cechami informatywnymi
W znaku powinna mieścić się optymalna ilość cech informatywnych
Nieprzestrzeganie tego może prowadzić do redundacji (rozwlekłość wyrażenia i nadmiar oznaczeń)
Rodzaje redundacji:
Merytoryczna – treść mapy rozbudowana ponad potrzebę
Sygmatyczna – znaki rozbudowane ponad potrzebę
Syntaktyczna – Oznaczenia na siebie zachodzą
Graficzne możliwości wyrazu:
Cechy ilościowe – wielkość
Cechy jakościowe – jasność, ziarnistość, barwa, orientacja\
Kształt
Dane statystyczne na mapie:
Ciągła skala wartości (każdy punkt ma indywidualną wartość)
Skokowa skala wartości (grupowanie wartości punktów w przedziały)
Model – informatyczna baza danych, która umożliwia nam uporządkowanie i zapis informacji oraz ich analizowanie (modelowanie danych). Rzeczywistość modelujemy do modelu, który z kolei wizualizujemy do przekazu (mapy).
Modele baz danych – zbiory zasad, wg których dane są definiowane, organizowane, przetwarzane i aktualizowane.: relacyjny, obiektowy, obiektowo-relacyjny. Jest elementem zewnętrznym w stosunku do modelu i jest od niego niezależny (tak jak modele wiedzy).
Modele danych przestrzennych – element wewnętrzny modelu. W takiej postaci zapisywane są modele rzeczywistości geograficznej, jeżeli mają się stać elementem GISu. Wyróżniamy:
Model wektorowy – opis danych za pomocą wektorów tworzących punkty, linie i powierzchnie, zarówno w 2D jak i 3D. Każdy wektor reprezentuje jakiś obiekt bazy danych. Idealne do GIS. Najlepiej modeluje obiekty o precyzyjnych konturach i kształtach; do modelowania obiektów ciągłych stosuje się odmianę TIN – sieć nieregularnych trójkątów, najczęściej do modelowania rzeźby terenu. Umożliwia zaawansowane analizy z różnych zakresów.
Model rastrowy – opis danych za pomocą pikseli. Zapis w postaci tablic pikseli i sieci typu GRID. Do modelowania obiektów ciągłych o nieprecyzyjnych konturach oraz danych fotograficznych i teledetekcyjnych. Umożliwia analizy specyficzne dla tablic danych.
Modele rzeczywistości geograficznej – każda postać opisu rzeczywistości geograficznej, która jest zwięzła, czytelna, formalna i abstrakcyjna (wyodrębnia cechy istotne):
Model mentalny – powstaje w umyśle człowieka na drodze własnych doświadczeń, pod wpływem bezpośredniego odbioru przestrzeni geograficznej – mapa mentalna.
Model materialny – zapisywany elektronicznie:
Model topograficzny (cyfrowy model krajobrazu DLM) - zawiera informacje o obiektach (zjawiskach) przestrzennych, których położenie określone zgodnie ze współrzędnymi związanymi z wybraną powierzchnią odniesienia i zachowuje ściśle to położenie. Nośnikiem informacji w tym modelu jest obiekt bazy danych - reprezentowany przez wektor (zbiór wektorów). Model ten charakteryzuje się ścisłą georeferencją co pozwala na pełne, precyzyjne i topologicznych własności obiektów oraz tworzenie (przy jego implementacji) struktur danych takich jak drzewa, sieci, wypełnienia (partycje). Model ten najlepiej oddaje relacje przestrzenne, jakie zachodzą między obiektami i może być podstawą analiz przestrzennych prowadzonych przy użyciu technik numerycznych. Stanowi on również podstawę uogólnień, przedmiot właściwej generalizacji danych przestrzennych (tzw. generalizacji modelu) i podstawę modelowania rzeczywistości geograficznej w bazach danych przestrzennych. Model tego typu nie jest dobrze czytelny w odbiorze wzrokowym, gdyż posługuje się wyłącznie wektorami, ale stanowi najlepszy sposób organizacji danych do wszelkich zastosowań prowadzonych w wektorowym modelu danych. Model topograficzny stanowi podstawową kategorię modeli rzeczywistości, najszerzej stosowaną w implementacji baz danych przestrzennych jako elementów GIS. Przy wizualizacji tego modelu należy oczywiście użyć notacji graficznych, gdyż bez nich nie można nic zaprezentować, ale w swojej istocie tak przekazany obraz nadal pozostanie modelem topograficznym, ponieważ brak jest całego etapu opracowania, redakcji i generalizacji prezentacji. Model ten stanowi więc zapis mapy bez obrazu, podstawę lub osnowę mapy w najszerszym tego słowa znaczeniu. Przykładem zastosowania modelu topograficznego jest organizacja danych w wektorowej bazie danych przestrzennych.
Model kartograficzny-znakowy (DCM) - przekazuje informacje o obiektach (zjawiskach) za pomocą ustalonych konwencji graficznych - systemu znaków kartograficznych, które są tu nośnikami informacji geograficznej. Jest więc obrazem przestrzeni geograficznej, który został przygotowany do bezpośredniego odbioru za pomocą zmysłów człowieka. Własności topologiczne prezentowanych obiektów są zachowywane w sposób pośredni - mogą być odczytywane metodą interpretacji obrazu. Obraz ten powstaje w wyniku redakcji kartograficznej i nosi jej znamiona np. w postaci graficznych korekcji, związanych z przesunięciami znaków w stosunku do ścisłego położenia prezentowanych obiektów. Może być zapisywany zarówno w wektorowym jak i rastrowym modelu danych. Tym samym terminem określa się często same zbiory danych przestrzennych (najczęściej zapisane w wektorowym modelu danych), które tworzone są pod kątem prezentacji graficznej (wizualizacji) danych, ale nie są jeszcze skonwencjonalizowane - nie zastosowano tu narzędzi komponujących (i udostępniających) obraz. Są to elektroniczne, cyfrowe zapisy map (dane odpowiednio uogólnione i częściowo zredagowane). których nie można zobaczyć ze względu na brak systemu znaków. Z całą pewnością takie zestawy danych można określić mianem modeli kartograficznych (choć jeszcze nie w pełni znakowych). Zaznaczmy również wyraźnie, że taki zestaw danych jest jedynie półproduktem, pozwalającym na przygotowanie prezentacji graficznej, a duży zakres prac redakcyjnych wykonuje się w nawiązaniu do konkretnego systemu znaków kartograficznych - wraz z etapem symbolizacji każdej prezentacji kartograficznej. Najlepszymi przykładami modelu tego typu są mapy geograficzne, które, wyposażone w odpowiednią funkcjonalność, mogą nosić znamiona prezentacji dynamicznych lub multimedialnych.
Model teledetekcyjny - często zwany także obrazowym (ang. image model), jest takim modelem rzeczywistości geograficznej, który przekazuje wygląd obszaru zarejestrowany w sposób automatyczny w różnych zakresach spektrum elektromagnetycznego. Nie ma tu zastosowania obiektowa klasyfikacja elementów treści, więc nie można też bezpośrednio modelować klas obiektów i ich atrybutów. Nośnikiem informacji w tym modelu jest ziarno (piksel obrazu, pojedynczy sygnał, drobina srebra obrazu fotograficznego itp.), które może być elementem obrazu (stąd „model obrazowy") lub zapisu nie wizualizowanego - np. element skaningu laserowego (LISAR). Najważniejsza cechą tych modeli (obok stosowania łatwo przetwarzanych struktur danych oraz pełnej automatyzacji pozyskiwania danych) jest -w przypadku danych topograficznych - stworzenie możliwości obejrzenia obrazu danego obszaru, a przez to nawiązania do własnych wyobrażeń przestrzennych i znaczny wpływ na model mentalny rzeczywistości.
Metodyka kartograficzna: sporządzanie, reprodukcja, analiza i interpretacja map.
Mapy tematyczne – uwypuklone elementy map ogólnogeo, graficzna interpretacja zjawisk i procesów. Przeznaczenie map tematycznych jest zaspokojenie różnorodnych potrzeb gosp. narodowej (planowanie, rolnictwo, górnictwo itd.; rozwiązywania problemów naukowo-badawczych, administracji i zarządzania). Do ich tworzenia stosuje się metody jakościowe i ilościowe.
Metody jakościowe przedstawień kartograficznych:
Metoda sygnaturowa – oznaczenie obiektów za pomocą znaków pktowych lub liniowych i rozróżnienie ich wyrazu graficznego odpowiednio do cech jakościowych
Sygnatury punktowe (mogą mieć sens lokalizacyjny lub informacyjny, np. jak jest inf pod nazwą miejscowości ze jest tam zamek, ale nie jest oznaczone jego położenie):
Geometryczne – kształt prostych figur, nie przypominają opisywanego obiektu, można z nich tworzyć sygnatury mieszane poprzez wpisanie w figury znaków symbolicznych, obrazkowych, literowych lub innych figur prostych. Sygnatury geometryczne można łatwo grupować wg kształtu, aby podkreślić pewne rodziny obiektów. Stosuje się je gdy chcemy dokładnie umiejscowić obiekt, bo mają jasno określony środek ciężkości.
Symboliczne – rozwinięcie geometrycznych, w celu zwiększenia poglądowości znaków zgodnie z izomorfizmem postaci i treści (piekarnia-chleb). Łączone z geometrycznymi przekazują związki (kwadrat-górnictwo, stożek-ropa, stożek w kwadracie-wydobycie jej)
Obrazkowe – nawiązują kształtem do zewn wyglądu obiektu. Przez schematyzowanie granica między obrazkowymi a symbolicznymi zaciera się. Stosuje się, gdy nie jest wymagane dokładne umiejscowienie, ale przemawianie (mapy szkolne, propagandowe)
Literowe – ułatwiają skojarzenia (U-univ), są rozpoznawalne szeroko (H-hotel; Sn, Fe itd)
Sygnatury liniowe (odróżniamy przez kolor, jasność, deseń oraz samo położenie i kształt linii)
Sygnatury ilościowe – ilość obiektów na jednostce powierzchni, długość sygnatur liniowych, przypisanie określonych cech ilościowych przez różną agresywność optyczną znaków (od diagramów skokowych różnią się tym, że nie zmienia się ich wielkość).
Metoda zasięgów – oznaczenie obszaru występowania zjawiska
Zasięgi:
Liniowy – wykorzystujemy tylko linie, mogą być zasięgi zamknięte i otwarte
Sygnaturowy – wewnątrz zasięgu liniowego jest sygnatura informująca o treści jego
Plamowy – wypełnienie zasięgu znakiem powierzchniowym (kolor, deseń)
Opisowy – określa jedynie w dużym przybliżeniu
Metoda chorochromatyczna (powierzchniowa) – rozwinięcie zasięgów (wyróżniony cały obszar tworzy mozaikę, nie ma nakładania się obszarów. Bardzo często stosowana do map szkolnych, wielkoskalowych, przy takich zjawiskach jak pokrycie terenu, gleby itd.
Metody ilościowe
Kropkowa – rozmieszczenie i wielkość zjawisk o charakterze rozproszonym
Dazymetrczna – charakterystykę zjawiska przedstawia się nie w granicach istniejących, ale tworzy się nowe obszary na których to obrazuje się dana charakterystykę. Obszary te przedstawiają zjawiska w jednorodności i lepiej określonych granicach. Powinna być stosowana, gdzie występują znaczne zróżnicowania, a istniejące obszary, które można wykorzystać, mają zbyt zróznicowaną powierzchnię.
Izolinii – krzywe przechodzące przez pkty o tej samej wartości liczbowej zjawiska.
Kartogram – średnia intensywność zjawiska w granicach określonych jednostek przestrzennych. Łatwy do wykonania i baaardzo częsty. Wywołuje wrażenie równomiernego rozmieszczenia zjawiska w obrębie jednostek odniesienia i gwałtownej zmiany intensywności na granicy. Większe jednostki odniesienia wywołują u odbiorcy wrażenie większej intensywności zjawiska.
Metody:
Naturalnych przerw – minimalizacja zmienności w obrębie klasy
Kwantyli – każdej klasie przyporządkowuje identyczną liczbę obiektów
Stałej rozpiętości – równa rozpiętość klas
Odchylenia standardowego – na ile konkretne dane różnią się od odchylenia stand.
Podział kartogramów:
Właściwe
Proste
Złożone
Ciągłe
Pseudokartogramy
Kartodiagram – sposób przedstawienia zjawiska odniesionego do punktu, linii i pow. za pomocą diagramów i wykresów na mapie, których rozmiary są proporcjonalne do wielkości zjawiska. Wyróżniamy kartodiagramy proste (przedstawiają jedno zjawisko), złożone i strukturalne (ukazuje strukturę poszczególnych el. zjawiska, które tworzą pewną całość).
Kartodiagramy:
Punktowe
Powierzchniowe
Liniowe
Generalizacja. Proces wyboru danych (tych najważniejszych) i ich przekształcenia w celu zachowania przekazu kartograficznego utraconego na skutek zmniejszenia skali mapy. Jest jedną z trzech nierozwiązywalnych raf w kartografii. Cechuje się dużą indywidualnością (wynik zależy od redaktora, nie istnieje zbiór uniwersalnych reguł, jedyną reguła sprawdzającą się jest „przy min środków max efektów”; potrzeba reguły sformułować we współczesnej kartografii). Najważniejszy cel generalizacji: dokonać takiego wyboru i redukcji danych, aby uzyskać mapę wyrażającą podstawowe cechu elementów i relacje między nimi oraz zapewnia odpowiednią czytelność treści. Rodzaje:
Ilościowa – progresywna redukcja zawartości mapy
Jakościowa – uogólnianie pojęć przez zastąpienie pojęć elementarnych nadrzędnymi
Procesy stosowane w generalizacji
wybór – selekcja el. treści; pozostawienie lub pominięcie pewnych danych
upraszczanie – redukcja liczby punktów opisujących obiekt liniowy lub granicę obszaru
uogólnienie – przechodzenie od kategorii niższego rzędu do kategorii wyższego rzędu
Opis istniejących algorytmów upraszczania
Niezależne algorytmy punktowe – nie wyjaśniają stosunków matematycznych z sąsiadującymi parami współrzędnych, działają niezależnie od topologii
N-ta procedura punktowa Toblera – algorytm wybierał co n-tą parę współrzędnych.
Lokalne procedury przetwarzania – używają właściwości sąsiadujących punktów do określonego wyboru lub odrzucenia
Algorytm Jenksa – algorytm odległości działający w oparciu o triadę par współrzędnych. Budowana jest linia od pktu 1 do 3 i prostopadła od tej linii do 2. Jeżeli ta prostopadła jest większa niż tolerancja pkt zostaje, jeżeli mniejsza pkt znika. Ma to mały wpływ na geometrię linii.
Procedury warunkowego rozszerzonego przetwarzania lokalnego – badają nie tylko sąsiadujące bezpośrednio współrzędne i oceniają grupy linii. Obszar badań zależy od odległości, kąta lub liczby kryteriów punktowych.
Algorytm Langa – wymaga dwóch wartości tolerancji od użytkownika: liczba pktów naprzód (n) i parametr odległości. Tworzony jest wektor p1-p1+n i obliczana jest prostopadła dł. do wszystkich pktów pośrednich. Jeżeli którakolwiek z prostopadłych jest większa niż tolerancja, wektor tworzy się między p1-p1+n-1 i znowu mierzy odległości prostopadłe. I tak, aż każda odl prostopadła będzie mniejsza od tolerancji. Linia jest tworzona, pkty pośrednie usuwane i badana kolejna linia.
Procedury bezwarunkowego rozszerzonego przetwarzania lokalnego – badają nie tylko sąsiadujące bezpośrednio współrzędne i oceniają grupy linii. Obszar badań jest ograniczony przez właściwości geomorfologiczne upraszczanej łamanej.
Algorytm Reumanna-Witkama – obszar poszukiwań determinują dwie proste równoległe o zadanym odstępie. Linia generalizowana przetwarzana jest dopóty, dopóki nie przetnie którejś z prostych równoległych.
Procedury globalne – rozważają całą linię lub wyszczególniony w przetwarzaniu segment linii. Iteracyjnie wybiera krytyczne punkty.
Algorytm Douglasa – solidna procedura. Użytkownik ustala wartość tolerancji długości. W każdej iteracji identyfikowane są dwa punkty (kotwica i pływak), między którymi tworzy się korytarz i od niego mierzy się odl prostopadłe do pktów pośrednich. Jeżeli odl max leży poza korytarzem, to teraz ten pkt jest pływakiem. I tak do końca (gdy łączone będą pkty 1 i 2). Teraz pkt 2 staje się kotwicą, a pływakiem ostatni zapamiętany punkt z max odl prostopadłą. I teraz po kolei jeżeli jakiś punkt pomiędzy znajduje się w granicy tolerancji, to jest odrzucany. Zachowywane są pkty krytyczne dla geometrii. Pkt końcowy w poprzedniej iteracji staje się początkowym w nastepnej. Algorytm ten jest odpowiedni dla dokładnych odwzorowań.
Metoda Chrobaka – Założenie: w procesie upraszczania najważniejszym zadaniem jest zachowanie rozpoznawalności rysunku krzywej – będzie to pozwalało w sposób obiektywny przeprowadzić sposób upraszczania. Przy liniach zachowana jest hierarchia wierzchołków i topologia. Wyznacza się trójkąt (podstawa – początek i koniec linii, wysokość do najbardziej oddalonego punktu od podstawy i jej długość to min εj, czyli min wysokość w trójkącie elementarnym). I mamy dwie pary: poczatek-3 pkt, koniec-3 pkt. I tworzymy nastepne pary wierzchołków w dalszej hierarchii. Koniec etapu wyboru niezmienników – gdy sprawdzimy wszystkie punkty linii upraszczanej zachowując hierarchię. Zastosowany w procesie trójkąt pozwala zachować topologię wierzchołków linii. εj = s*Mj (s=0,5mm dla mapy klasycznej, 0,6 dla mapy komputerowej). Następnie badamy linię pierwotną w przedziałach sąsiednich wierzchołków na okoliczność, kiedy można go zastąpić:
- cięciwą utworzoną przez pocz i koń przedziału (suma boków w przedziale < 2 εj)
- dwoma odcinkami łączącymi pocz i koń z nowym pośr pktem leżącym na jednym z boków badanego przedziału linii pierwotnej (suma boków w przedziale ≥ 2 εj).
Ostatni etap – ocena dokładności, która jest możliwa dzięki faktom takim jak:
- wybór i usuwanie wierzchołków są określone jednoznacznie,
- kształt linii pierwotnej (przed generalizacją) różni się najmniej od rzeczywistości, jest zatem znana zmienna losowa opisująca najbardziej prawdopodobny przebieg linii,
- każde uogólnienie (uproszczenie) jest opisane wierzchołkami linii pierwotnej,
- określone są jednoznacznie najkrótsze odległości pomiędzy odrzucanymi punktami a pozostającymi wierzchołkami linii pierwotnej, które to odległości są zarazem pozornymi błędami procesu.
Operatory generalizacji graficznej: wygładzanie, agregacja, połączenie, scalenie, rozpad, wzmacnianie, przepiększanie, powiększenie, przesuwanie.
Progi generalizacji (ilość punktów pozostała po uproszczeniu):
Podobieństwa (100-95%)
Upraszczania (95-68%)
Schematyzacji (68-10%)
Symbolizacji (>10%)