Skrypt wykłady I III

Wykład I- Historia

Odłamek kości datowany na około 8500 lat p.n.e. odkryty w Afryce,

który prawdopodobnie ma wyryte karby przedstawiające

liczby pierwsze 11, 13, 17 i 19

Pierwszym znanym nam mechanizmem obliczeniowym był abakus,

wynaleziony prawdopodobnie przez Babilończyków w latach pomiędzy 1000 a 500 p.n.e., chociaż niektórzy twierdzą, iż w rzeczywistości wynaleźli go Chińczycy

Mechanizm Antikythera 100-150 p.n.e - Mechanizm zawierał około 30 kół z brązu zawierający inskrypcje astronomiczne.

Urządzenie mogło liczyć położenie kilku

gwiazd, Słońca i Księżyca oraz pomagać przewidywać pewne zjawiska (zaćmienia)

Notatniki , datujące się na rok około 1500 n.e. zawierały rysunki mechanicznego kalkulatora i na ich podstawie zbudowano

działający model urządzenia da Vinci.

Wiele źródeł podaje francuskiego

matematyka, fizyka i teologa, Błażeja Pascala jako wynalazcę pierwszej

mechanicznej maszyny liczącej, zwanej Maszyną Arytmetyczną.

Jednakże, obecnie wygląda na to, iż pierwszy mechaniczny kalkulator mógł być obmyślony przez Leonarda da Vinci na sto pięćdziesiąt lat przed maszyną Pascala.

Kości napiera:

Na początku lat 1600 szkocki matematyk John Napier wynalazł narzędzie nazwane Tabliczkami Napiera, które były tablicami mnożeń wyrytymi na pasach z drewna lub z kości.

Napier wynalazł również logarytmy, bardzo przydatne przy obliczeniach arytmetycznych.

W 1621 angielski matematyk i duchowny William Oughtred uŜył logarytmów Napiera

jako podstawy działania suwaka logarytmicznego

1625 - Mechaniczny Kalkulator Wilhelma Schickarda

Do mnożenia użył on zbioru obracających się, cylindrycznych Kości Napiera. Dodawanie wykonywane było poprzez obracanie tarcz cyfrowych umieszczonych w dolnej części maszyny.

Tarcze te połączone były z wewnętrznymi kołami za pomocą zębów umieszczonych na obwodzie i powodujących powstawanie przeniesień podczas przejścia tarczy z 9 na 0.

Odejmowanie wykonywało się obracając tarcze wstecz.

1640 - Maszyna Arytmetyczna Błażeja Pascala

W roku 1640 Pascal rozpoczął projektowanie urządzenia, które miało pomóc jego ojcu w dodawaniu kwot pieniężnych.

Pierwszy działający model, Maszyna Arytmetyczna, został przedstawiony w roku 1642, a przez następne dziesięć lat Pascal wykonał jeszcze piętnaście takich urządzeń.

Urządzenie Pascala mogło jedynie dodawać i odejmować, natomiast operacje mnożenia oraz dzielenia były realizowane za pomocą serii dodawań lub odejmowań.

Leibniz rozwinął pomysły Pascala i w roku 1671 przedstawił Rachmistrza Krokowego, urządzenie, które oprócz dodawania i odejmowania mogło mnożyć, dzielić oraz obliczać pierwiastki kwadratowe przy pomocy serii dodawań.

Urządzenia Pascala i Leibniza były protoplastami dzisiejszych komputerów biurowych i na ich podstawie opierano wytwarzanie arytmometrów mechanicznych aż do początku lat 1970 gdy pojawiły się w końcu ich elektroniczne odpowiedniki o przystępnej cenie.

W 1714 roku brytyjski inżynier Henry Mill uzyskał patent na projekt przyrządu który potrafi drukować oddzielne litery na tyle czyste i dokładne, że można je pomylić z tymi z drukarni. Za twórcę praktycznej maszyny do pisania uważany jest Amerykanin, Christopher Latham Sholes, który (przy współpracy Carlosa Gliddena i Samuela W. Soule'a) skonstruował w 1867 roku jej pierwszy użyteczny model.

1800 - Perforowane Karty Jacquarda

NA POCZĄTKU 1800 ROKU JOSEPH-MARIEJACQUARD

WYNALAZŁ METODĘ AUTOMATYCZNEGO STEROWANIA

UKŁADEM WĄTKU I OSNOWY NICI NA KROSNACH JEDWABNYCH,

KTÓRA POLEGAŁA NA ZAPISIE WZORÓW DZIUREK

NA ZESTAWIE SPECJALNYCH KART Z WYBITYMI OTWORAMI..

Maszyna żakardowa stanowi rodzaj pierwowzoru tkackiego prototypu komputera.

1822 - Maszyna Różnicowa Charlesa Babbage'a

Pierwsze urządzenie, które można nazwać komputerem we współczesnym znaczeniu tego słowa, zostało obmyślone w 1822 roku przez ekscentrycznego, angielskiego matematyka i wynalazcę, Charlesa Babbage'a.

Model Maszyny Różnicowej

Po ponad 150 latach od narodzin tej koncepcji zespół naukowców z Londyńskiego Muzeum Nauki w końcu zbudował według oryginalnych planów jedną z pierwszych maszyn różnicowych Babbage'a. Ostateczna maszyna, zbudowana z kutego żelaza, brązu i stali, składała się z 4000 elementów, ważyła trzy tony oraz miała 10 stóp szerokości i 6 wysokości.

Urządzenie to wykonało pierwszą serię obliczeń na początku lat 1990 i dało wyniki z dokładnością do 31 cyfr, co daleko wykracza poza dokładność zwykłego, kieszonkowego kalkulatora. O jego nieprzydatności świadczy jednak fakt, że każde obliczenie wymaga wykonania wielu obrotów korbą.

Pierwsza Programistka

Z Babbage'em współpracowała Augusta Ada Lovelace, córka angielskiego poety, Lorda Byrona. Ada, będąc doskonałą matematyczką oraz jedną z niewielu osób w pełni rozumiejących wizję Babbage'a, napisała program dla Maszyny Analitycznej Babbage’a (Maszyna Analityczna miała używać pętli utworzonych z serii kart perforowanych Jacquard'a w celu sterowania automatycznym kalkulatorem, który mógł podejmować decyzje na podstawie wyników poprzednich obliczeń).

Gdyby Maszyna Analityczna kiedykolwiek w rzeczywistości działała, program Ady mógłby obliczyć matematyczny ciąg, znany jako liczby Bernoulli'ego. Z uwagi na to dzieło, Ada jest obecnie uważana za pierwszą programistkę komputerów i w roku 1979 jej imieniem został nazwany nowoczesny język programowania - ADA.

Dane na papierze

1847 do 1854 - George Boole wymyśla Algebrę Boole'a

1857 – Wheatstone używa taśmy papierowej do przechowywania danych

1883 do 1906 - Wynalezienie

lampy próżniowej

W roku 1879 legendarny amerykański wynalazca Thomas Alva Edison publicznie przedstawił po raz pierwszy swoją jasno świecącą żarówkę elektryczną.

W roku 1906 amerykański wynalazca, Lee de Forest, wprowadził do lampy próżniowej trzecią elektrodę zwaną siatką. W wyniku powstała trioda, której można było używać

zarówno jako wzmacniacza, jak i przełącznika, a de Forest zbudował wiele wczesnych nadajników radiowych wykorzystując właśnie te triody

TRIODYDE FORESTA ZREWOLUCJONIZOWAŁY NADAWANIE AUDYCJI RADIOWYCH, LECZ PRZEZNACZONE BYŁY DO JESZCZE WYŻSZYCH CELÓW, PONIEWAŻ ICH ZDOLNOŚĆ DO ODGRYWANIA

ROLI PRZEŁĄCZNIKÓW MIAŁA OGROMNY WPŁYW NA CYFROWE OBLICZENIA.

IBM i HP

1844 – Samuel Morse przesyła informację z Waszyngtonu do Baltimore

1858 – poprowadzono linie telegraficzną przez Ocean Atlantycki

1876 – patent na telefon dla Grahama Bella

1895 – transmisja sygnałów radiowych przez Gugliemo Marconi’ego

1924 – firma Tabulating Machine Company zmienia nazwę na IBM

1927 – pierwsza transmisja obrazu TV

1929 – powstają pierwsze telewizory kolorowe

1938 – William Hewlett i David Packard zakładają firmę HP

Wykład II Definicje

Informatyka

Stara definicja encyklopedyczna głosi:

„Informatyka zajmuje się całokształtem przechowywania, przesyłania, przetwarzania i interpretowania informacji. Wyróżnia się w niej dwa działy, dotyczące sprzętu i oprogramowania”.

Większość z tego, co robią informatycy nie bardzo do tej definicji pasuje.

INFORMATYKA – nauka zajmując się przetwarzaniem informacji. – W. Turski

Informatyka

Definicja z Wikipedii: Informatyka (ang. computer science, computing science, information technology, informatics) – dziedzina nauki i techniki zajmująca się przetwarzaniem informacji – w tym technologiami przetwarzania informacji oraz technologiami wytwarzania systemów przetwarzających informacje, pierwotnie będąca częścią matematyki, rozwinięta do osobnej dyscypliny nauki, pozostającej jednak nadal w ścisłym związku z matematyką, która dostarcza podstaw teoretycznych przetwarzania informacji.

Informatyka

Definicja opracowana w 1989 roku przez Association for Computing Machinery:

„Informatyka to systematyczne badanie procesów algorytmicznych, które charakteryzują i przetwarzają informację, teoria, analiza, projektowanie, badanie efektywności, implementacja i zastosowania procesów algorytmicznych.

Podstawowe pytanie informatyki to: co można (efektywnie) zalgorytmizować” ?

Część wspólna definicji

Informatyka zajmuje się całokształtem przechowywania,

przesyłania, przetwarzania i interpretowania informacji.

INFORMATYKA – nauka zajmując się przetwarzaniem informacji.

– dziedzina nauki i techniki zajmująca się przetwarzaniem informacji – w tym technologiami przetwarzania informacji.

Informatyka to systematyczne badanie procesów

algorytmicznych, które charakteryzują i przetwarzają informację.

Informacja

Informacja (łac. informatio - wyobrażenie, pojęcie) to pojęcie o wielu definicjach w różnych dziedzinach. Zasadniczo istnieją dwa podstawowe sposoby rozumienia tego terminu. Pierwszy, który można nazwać obiektywnym i wywodzi się z fizyki i matematyki, gdzie informacja oznacza pewną własność fizyczną lub strukturalną obiektów, i drugi, subiektywny(kognitywistyczny), gdzie informacją jest to, co umysł jest w stanie przetworzyć i wykorzystać do własnych celów.

Informacja

INFORMACJA – wszystko to co zmniejsza naszą niepewność. (lub: zinterpretowane na podstawie posiadanej wiedzy, uporządkowane dane) – W.Turski.

Ilość informacji

Autor teorii informacji – Claude Shannon:

„Ilość informacji jest ujemną wartością logarytmu przy podstawie 2 prawdopodobieństwa zajścia pewnego zdarzenia” $I = \log_{2}\frac{1}{\ p(A)} = {- log}_{2}p(A)$

gdzie: I – ilość informacji

P – prawdopodobieństwo wystąpienia zdarzenia

Trzeba zwrócić uwagę na związek ilości informacji i prawdopodobieństwa.

Im zdarzenie jest mniej prawdopodobne, tym więcej niesie informacji.

Ilość informacji

W przypadku zdarzenia o charakterze binarnym typu „tak lub „nie”, 0 lub 1: P(A)= $\frac{1}{2}$

Podstawiając takie prawdopodobieństwo do poprzedniego otrzymujemy: $1 - \log_{2\frac{1}{\begin{matrix} 1 \\ 2 \\ \end{matrix}} - 1\ \lbrack\text{bit}\rbrack}\ $

ilość informacji równą podstawowej jednostce informacji (dla informatyki) – jednemu bitowi.

Entropia

Informacja jest niezmiennie powiązana z pojęciem entropii.

Entropia układu jest miarą chaosu (nieuporządkowania), dla informacji jest jednak miarą zorganizowania układu.

Entropia

Entropia w teorii informacji - miara niepewności związana z poszczególnymi realizacjami zmiennej losowej. Oznacza średnią ilość informacji, przypadającą na pojedynczy znak przekazu.

Własności entropii:

jest nieujemna

jest maksymalna, gdy prawdopodobieństwa zajść zdarzeń są takie same

jest równa 0, gdy stany systemu przyjmują wartości 0 albo 1

własność superpozycji - gdy dwa systemy są niezależne to entropia sumy systemów równa się sumie entropii.

Wiadomość -> komunikat

WIADOMOŚĆ – relacja między obiektem obserwowanym a obserwującym.

DANE – nie poddane interpretacji obserwacje świata rzeczywistego.

KOMUNIKAT – wystąpienie wiadomości w określonej postaci fizycznej.

Wiedza

WIEDZA – relacje, fakty, założenia, heurystyka i modele otrzymane w wyniku analizy danych.

Wiedza może także zostać zinterpretowana jako zbiór faktów, relacji miedzy tymi faktami, założeń i modeli. Fakty i relacje są potrzebne do rozwiązywania problemów.

Wiedza jest gromadzona w bazie wiedzy

Rodzaje baz wiedzy

Można wyróżnić następujące rodzaje baz wiedzy: baza tekstów;

baza modeli (stochastycznych i deterministycznych); baza wiedzy zdroworozsądkowej (heurystyka).

W systemach komputerowych wiedza może posiadać reprezentację:

Proceduralną (zbiór procedur z danej dziedziny) Deklaratywną (wnioski, fakty, stwierdzenia, reguły)

Mózg <-> komputer

Istnieje podstawowa różnica między przetwarzaniem informacji w mózgu, a przetwarzaniem jej w komputerze.

Przetwarzanie informacji w mózgu – równoległe. Przetwarzanie informacji w komputerze – szeregowe.

Bity i bajty

Bit” = binary unit, czyli jednostka dwójkowa, tak/nie.

Ciąg bitów wystarczy by przekazać dowolną wiadomość: np. za pomocą tam-tamów czy telegrafu.

Alfabet polski ma 35 liter, uwzględniając małe i duże litery + znaki specjalne mamy prawie 100 znaków.

•Bramki tranzystorów przyjmują tylko dwa stany: przewodzą lub nie, są binarne.

1 bit: 0, 1, rozróżnia 2 znaki.

2 bity: 00, 01, 10, 11, rozróżniają 4 znaki.

3 bity: 000, 001, 010, 011, 100, 101, 110, 111, rozróżniają 8 znaków. 4 bity: 0000 ... 1111, rozróżniają 16 znaków.

8 bitów pozwala odróżnić 28 = 16 x 16 = 256 znaków.

Ciąg 8 bitów = 1 Bajt, wygodna jednostka do pamiętania podstawowych symboli.

Jednostki ilości danych

Bit – podstawowa jednostka w operacjach, wskazująca na obecność (1) albo brak (0) sygnału

Bajt – 23 bitów = 8 bitów (najmniejsza, adresowana jednostka informacji)

Kilobajt – 210 bajtów = 1 024 bajty

Megabajt – 220 bajtów = 1 048 576 bajty

Gigabajt – 230 bajtów = 1 073 741 824 bajty

Terabajt - – 240 bajtów = 1 099 511 627 776 bajty

Przykład: 700 Mb = 716800 kb = 734003200 bajty

Ośmiobitowy bajt po raz pierwszy pojawił się pod koniec 1956 roku, a został rozpowszechniony i uznany jako standard w 1964 r.

po tym jak IBM wprowadził System/360.

Systemy liczenia

Dwójkowy system liczbowy (inaczej binarny) to pozycyjny system liczbowy, w którym podstawą jest liczba 2. Do zapisu liczb potrzebne są więc tylko dwie cyfry: 0 i 1.

Ósemkowy system liczbowy to pozycyjny system liczbowy o podstawie 8. System ósemkowy jest czasem nazywany oktalnym od słowa octal.

Do zapisu liczb używa się w nim ośmiu cyfr, od 0 do 7.

Szesnastkowy system liczbowy (czasem nazywany heksadecymalnym, skrót hex) – pozycyjny system liczbowy, w którym podstawą jest liczba 16. Skrót hex pochodzi od angielskiej nazwy hexadecimal. Do zapisu liczb w tym systemie potrzebne jest szesnaście cyfr. Poza cyframi dziesiętnymi od 0 do 9 używa się pierwszych sześciu liter alfabetu łacińskiego: A, B, C, D, E, F (dużych lub małych).

Dwójkowy system liczbowy

Dwójkowy system liczbowy to pozycyjny system liczbowy, w którym podstawą pozycji są kolejne potęgi liczby 2.

Do zapisu liczb potrzebne są więc tylko dwa znaki: 0 i 1.

Powszechnie używany w informatyce.

1x23 + 0x22 + 1x21 + 0x20 = 8+2 = 10.

Obliczanie wartości dziesiętnej liczby zapisanej w systemie dwójkowym

43210

11110 = 11110 = 1x24 + 1x23+ 1x22 + 1x21 + 0x20 =

1 x 16 + 1 x 8 + 1 x 4 + 1 x 2 + 0 x 1 = 16 + 8 + 4 + 2 = 30

Ponieważ 0 x 2n =0, oraz 1 x 2n = 2n wystarczy jeśli zsumuje się tylko te potęgi dwójki, przy których współczynnik wynosi

Ósemkowy system liczbowy

Jak w każdym pozycyjnym systemie liczbowym, liczby zapisuje się tu jako ciągi cyfr, z których każda jest mnożnikiem kolejnej potęgi liczby będącej podstawą systemu, np. liczba zapisana w dziesiętnym systemie liczbowym jako 100, w ósemkowym przybiera postać 144, gdyż:

1×82 + 4×81 + 4×80 = 64 + 32 + 4 = 100.

Przykład zamiany liczby z systemu dziesiętnego na system ósemkowy:

100/8 12 i 4 reszty = 4

12/8 1 i 4 reszty = 4

1/8 0 i 1 reszty= 1

Teraz czytamy od dołu: 144 w systemie oktalnym to 100 w systemie dziesiętnym.

Szesnastkowy system liczbowy

Jak w każdym pozycyjnym systemie liczbowym, liczby zapisuje się tu jako ciągi znaków, z których każdy jest mnożnikiem kolejnej potęgi liczby stanowiącej podstawę systemu. Np. liczba zapisana w dziesiętnym systemie liczbowym jako 1000, w systemie szesnastkowym przybiera postać 3E8, gdyż:


3x 162 + 14x161 + 8x160 = 768 + 224 + 8 = 1000

Wartość pojedynczego bajta można opisać używając tylko dwóch cyfr szesnastkowych i odwrotnie - dowolne dwie cyfry szesnastkowe można zapisać jako bajt. W ten sposób kolejne bajty można łatwo przedstawić w postaci ciągu cyfr szesnastkowych. Jednocześnie zapis 4 bitów można prosto przełożyć na jedną cyfrę szesnastkową.

System szesnastkowy sprawdza się szczególnie przy zapisie dużych liczb takich jak adresy pamięci, zakresy parametrów itp.

Na przykład:

216 = 65.536dec = 1.0000hex

224 = 16.777.216dec = 100.0000hex

232 = 4.294.967.296dec = 1.0000.0000hex

216-1 = 65.535dec = FFFFhex

224-1 = 16.777.215dec = FF.FFFFhex 232-1 = 4.294.967.295dec = FFFF.FFFFhex

FFFFhex, FF.FFFFhex i FFFF.FFFFhex są krótsze i łatwiejsze do zapamiętania.

Przeliczenie 2,8,16

Przeliczanie systemu dwójkowego na ósemkowy i szesnastkowy nie wymaga szczególnych zabiegów, bowiem w systemie ósemkowym każdą cyfrę opisują 3 bity, natomiast w systemie szesnastkowym 4 bity. Wystarczy podzielić liczbę dwójkową na pola o odpowiedniej szerokości i policzyć wartość każdego z nich;

np. 11000101012 = 001 100 010 1012 = 14258

11000101012 = 0011 0001 01012 = 31516

Standardy reprezentowania

znaków alfanumerycznych

ASCII - American Standard Code for Information Exchange, używa 7 bitów.

ANSI - American National Standards Institute.

Starsze standardy, np. EBCDIC (Extended Binary-Coded-Decimal Interchange Code), na nielicznych już komputerach centralnych.

Rozszerzony standard ASCII: 8 bitów.

Różne rozszerzenia:

DOS: Code Page, czyli strona kodowa 852, zwana Latin 2 Windows 3/95: CP-1250, Central-European encoding

Oficjalny standard: ISO-8859-2, nieco odmienne, stosowany przez zwolenników walki z Microsoftem i komplikowania sobie życia.

Od 1992 roku standard Unicode, 2 bajty/znak.

W jednym pliku można zapisać 2562=65536 znaków, w tym około 3000 znaków definiowalnych przez użytkownika.

Unicode jest używany w systemach operacyjnych Windows NT, Novell Netware, Windows 98 i nowszych wersjach 95, pakietach Office'97. Widać to po wielkości plików.

Unicode

Unicode (zwany czasem po polsku Unikod) - komputerowy zestaw znaków mający w zamierzeniu obejmować wszystkie pisma używane na świecie. Definiują go dwa standardy - Unicode oraz ISO 10646. Znaki obu standardów są identyczne. Standardy te różnią się w drobnych kwestiach, m.in. Unicode określa sposób składu.

Rozwijany jest przez konsorcjum, w którego skład wchodzą ważne firmy komputerowe, producenci oprogramowania, instytuty naukowe, agencje międzynarodowe oraz grupy zainteresowanych użytkowników. Konsorcjum współpracuje z organizacją ISO.

Jednostki szybkości komputera

FLOPS (ang. FLoating point Operations Per Second) – liczba operacji zmiennoprzecinkowych na sekundę, jednostka wydajności komputerów, a dokładniej wydajności układów realizujących obliczenia zmiennoprzecinkowe.

Stosuje się

Mflops =milion flops, Gflops =miliard flops, Tflops =bilion flops, Pflops =biliard flops

Najszybszy pojedynczy komputer :Blue Gene/L - 280,6 Tflops

Dla porównania, w miarę typowy nowoczesny komputer osobisty (np. z procesorem Pentium 4, czy Athlon 64 i częstotliwości zegara około 2 GHz) ma wydajność rzędu paru GFLOPS-ów.

Kalkulator – około 10 flops

MIPS (Milion Instructions Per Second - milion instrukcji na sekundę) –

to także jedna z jednostek pomiaru wydajności systemu komputerowego.

FPS

Frames per second (FPS) - liczba ramek na sekundę

miara prędkości wyświetlania ruchomych obrazów

Obraz

W dosłownym rozumieniu fizycznym, obraz jest zwartym, jednorodnym i przestrzennie uporządkowanym zbiorem sygnałów związanych z określonym nośnikiem energetycznym lub materialnym podłożem i nacechowanych określoną wartością fotometryczną.

Standard obrazu

Trójkę liczb całkowitych: I,J,K wyrażających kolejno: liczbę wierszy, liczbę kolumn i liczbę poziomów luminancji obrazu dyskretnego, nazywamy standardem obrazu.

Standard obrazu ma bliski związek z maksymalną ilością informacji przenoszonej przez obraz:


imax = I * J * log2K[bitow]

Dla przykładu: obraz o standardzie[800,600,256] może zawierać 800*600*log2256 = 3 840 000 bitów = 480 000 bajtów = 468,75kB.

Przestrzeń barw - widma fal elektromagnetycznych z zakresu od 380 do 780 nm (tj. światło widzialne) znalazły swe matematyczne modele w postaci trójwymiarowych przestrzeni barw. Dzięki tym modelom barwę można opisać nie tylko przez podanie jej widma, ale przez modele w różnym stopniu zbliżone do ludzkiej percepcji barwy, związanej z fizjologią oka ludzkiego. Najważniejsze przestrzenie barw ujęto w normach międzynarodowych. Stosuje się je w różnych dziedzinach przemysłu: farbiarskim, tekstylnym, spożywczym, fotografii itd.

Grafika rastrowa (bitmapa)- sposób zapisu obrazów w postaci prostokątnej tablicy wartości, opisujących kolory poszczególnych punktów obrazu (prostokątów składowych). Jakość wynikowego obrazu zależy od ilości prostokątów, na które podzielony jest cały obraz.

Grafika wektorowa (obiektowa) - wszelkie obrazy tworzone są za pomocą figur geometrycznych. Jest to grafika generowana w całości komputerowo i nie ma ona bezpośredniego przełożenia na obrazowanie obiektów z naturyobraz w tej grafice składa się ze stosu elementów ułożonych w odpowiedniej kolejności ten rodzaj grafiki nadaje się idealnie do tworzenia ilustracji (kopiowanie z natury zdjęć i innych elementów jest domeną grafiki bitmapowej)

Grafika wektorowa jest grafiką w pełni skalowalną, co oznacza, iż można obrazy wektorowe powiększać

oraz zmieniać ich proporcje bez uszczerbku dla jakości

Przykładowe formaty

Grafika rastrowa – formaty stratne:

JPEG (Joint Photographic Experts Group) najpopularniejszy format plików graficznych z kompresją stratną

TIFF (Tagged Image File Format) - popularny format plików graficznych udostępniający wiele rodzajów kompresji

Grafika rastrowa – formaty bezstratne: PNG (Portable Network Graphics)

GIF (Graphics Interchange Format) + TIFF Bez kompresji – BMP (BitMap) oraz TIFF

Grafika Wektorowa

SVG (Scalable Vector Graphics) - format oparty na języku XML; promowany jako standard grafiki wektorowej

Macromedia Flash - najpopularniejszy format grafiki wektorowej

PS i EPS – PostScript i Encapsulated PS - uniwersalny język opisu strony opracowany przez firmę Adobe Systems Incorporated,

będący obecnie standardem w zastosowaniach poligraficznych

Grafika rastrowa

Piksel

wyraz utworzony ze zbitki dwóch angielskich słów: picture+element) jest to najmniejszy element obrazu bitmapowego. Jeden piksel to bardzo mały kwadrat (rzadziej: prostokąt) wypełniony w całości jednolitym kolorem. Piksel stanowi także najmniejszy element obrazu wyświetlanego na monitorze komputera.

Grafika wektorowa

Rysunek zapisany wektorowo jest przechowywany jako zespół standardowych elementów, takich jak linie (proste bądź krzywe), obszary, napisy, znaczniki itp. Obraz przedstawiany na urządzeniu (monitor, drukarka, ploter) jest „kreślony” element po elemencie.

rozmiar (-100, -100, 100, 100)

kolor (czarny)

okrąg (0, 0, 50)

półokrąg górny (25, 0, 25)

półokrąg dolny (-25, 0, 25)

wypełnij obszar (0, -25)

Grafika wektorowa

Podczas powiększania obrazu rastrowego będzie w końcu widać poszczególne piksele, natomiast podczas powiększania obrazu wektorowego będzie widać ostre kształty figur geometrycznych, z których obraz jest zbudowany.

Kompresja

Kompresja danych – polega na zmianie spooóbu zapisu informacji w taki sposób, aby zmniejszyć redundancję i tym samym objętość zbioru, niezmieniając przenoszonych informacji.

Innymi słowy chodzi o wyrażenie tego samego zestawu informacji, lecz za pomocą mniejszej liczby bitów. Działaniem przeciwnym do kompresji jest dekompresja.

Kompresja dzieli się na bezstratną - w której z postaci skompresowanej można odzyskać identyczną postać pierwotną,

oraz stratną - w której takie odzyskanie jest niemożliwe,

jednak główne właściwości które nas interesują zostają zachowane

Systemy kompresji stratnej obrazu: JPEG

MPEG (ang. MovingPictureExpertsGroup) – zatwierdzony przez ISO format zapisu danych zawierających obraz i dźwięk. Opracowany dość dawno przez grupę niezależnych ekspertów formatuŜywanyjestdozapisufilmówVideoCD,DVDitransmisjitelewizjicyfrowej(MPEG2).

Systemy kompresji stratnej dźwięku:

RealAudio MP3

Kompresja bezstratna

Kompresja bezstratna (ang. lossless compression) to ogólna nazwa metod upakowania informacji do postaci zawierającej zmniejszoną liczbę bitów, pod warunkiem, że metoda ta gwarantuje, że informację można z tej postaci odtworzyć do identycznej postaci pierwotnej.

Algorytmy kompresji bezstratnej

Kodowanie Huffmana

Kodowanie arytmetyczne

Kodowanie Shannona, Shannona-Fano

LZ77, LZSS, LZP

LZ78, LZW, LZMW, LZAP

LZMA

PNG

RLE

PPM

Deflate

Bzip2 (oparty m.in. o transformaty Burrowsa-Wheelera i Move To Front)

Co kompresujemy ?

Mowa (np. w telefonii komórkowej)

Muzyka (np. piosenki w formacie MP3)

Wideo (np. filmy na DVD)

Teksty (np. udostępniane w archiwach takich jak Project Gutenberg)

Pliki wykonywalne (np. wersje instalacyjne programowania)

Bazy danych

System informatyczny – jest to zbiór powiązanych ze sobą elementów, którego funkcją jest przetwarzanie danych przy użyciu techniki komputerowej. Na systemy informatyczne składają się obecnie takie elementy jak:

sprzęt oprogramowanie zasoby osobowe elementy informacyjne elementy organizacyjne

Sprzęt

Sprzęt – obecnie głównie komputery, oraz urządzenia służące do przechowywania danych

urządzenia służące do komunikacji między sprzętowymi elementami systemu

urządzenia służące do komunikacji między ludźmi a komputerami

urządzenia służące do odbierania danych ze świata zewnętrznego – nie od ludzi (na przykład czujniki elektroniczne, kamery, skanery)

urządzenia służące do wywierania wpływu przez systemy informatyczne na świat zewnętrzny – elementy wykonawcze (na przykład silniki sterowane komputerowo, roboty przemysłowe, podłączony do komputera ekspres do kawy, sterowniki urządzeń mechanicznych)

urządzenia służące do przetwarzania danych nie będące komputerami

Wykład III Technologia

Lampa elektronowa

Trioda (1906 – De Forest) – katoda jest nagrzewana przez elektryczny żarnik, co powoduje emisję elektronów, które są następnie przyciągane przez siatkę. Siatka steruje przepływem elektronów. Napięcie (-) na siatce – elektrony są odpychane do katody; (+) są przyciągane do anody.

Wniosek: wskutek zmiany napięcia siatki możliwe jest kontrolowanie stanu końcowego anody.

Tranzystor

Wynalezienie tranzystora było jednym z największych odkryć doprowadzających do rewolucji w świecie komputerów osobistych.

1947 – budowa pierwszego tranzystora – Bell Laboratory (John Bardeen, Walter Brattain). Kilka miesięcy później William Shockley projektuje tranzystor złączowy.

1956 – cała trójka odbiera nagrodę Nobla w dziedzinie fizyki.

Tranzystor - trójelektrodowy półprzewodnikowy element elektroniczny, posiadający zdolność wzmacniania sygnału elektrycznego. Według oficjalnej dokumentacji z Laboratoriów Bella nazwa urządzenia wywodzi się od słów transkonduktancja (transconductance) i warystor (varistor), jako że "element logicznie należy do rodziny warystorów i posiada transkonduktancję typową dla elementu z współczynnikiem wzmocnienia co czyni taką nazwę opisową"

Tranzystor bipolarny

Tranzystor bipolarny – tranzystor, który zbudowany jest z trzech warstw półprzewodników o różnym rodzaju przewodnictwa, tworzących dwa złącza PN; sposób polaryzacji złącz determinuje stan pracy tranzystora.

Tranzystor posiada trzy końcówki przyłączone do warstw półprzewodnika, nazywane: emiter (ozn. E),

baza (ozn. B), kolektor (ozn. C).

Ze względu na kolejność warstw półprzewodnika rozróżnia się dwa typy tranzystorów: pnp oraz npn; w tranzystorach npn nośnikiem prądu są elektrony, w tranzystorach pnp dziury.

Tak jak i tranzystory bipolarne są elementami półprzewodnikowymi lecz różnią się od bipolarnych tym, że są sterowane polem elektrycznym co oznacza, że nie pobierają mocy na wejściu.

Pomimo takiej różnicy oba rodzaje tranzystorów mają wspólną cechę: są to elementy działające na zasadzie sterowania przepływem ładunku. W obu przypadkach są to elementy trzy końcówkowe, w których przewodność między dwoma końcówkami zależy od liczby nośników ładunków znajdujących się między nimi, a z kolei liczba nośników ładunków zależy od wartości napięcia doprowadzonego do elektrody sterującej zwanej bazą w tranzystorach bipolarnych lub bramką w tranzystorach polowych.

Nazwy poszczególnych elektrod to: D - dren, S - źródło, G - bramka. Elektrody te spełniają podobne funkcje jak odpowiadające im elektrody w tranzystorze bipolarnym. Kolektorowi C odpowiada dren D, emiterowi E odpowiada źródło S, a bazie B odpowiada bramka G.

MOSFET

MOSFET (Metal-Oxide Semiconductor Field-Effect Transistor) – technologia produkcji tranzystorów polowych z izolowaną bramką i obwodów układów scalonych. Jest to aktualnie podstawowa technologia produkcji większości układów scalonych stosowanych w komputerach i stanowi element technologii CMOS.

Technologia MOSFET zakłada montaż tranzystorów z warstw materiału nakładanych na krzemowy podkład. Niektóre z warstw zawierają krzem z pewnymi zanieczyszczeniami dodawanymi w procesie zwanym domieszkowaniem lub bombardowaniem jonami; w innych warstwach znajduje się dwutlenek krzemu (jako izolator), krzem polikrystaliczny (jako elektroda) oraz metale pełniące rolę przewodów łączących tranzystory z innymi komponentami. Domieszkowanie i ułożenie różnych warstw krzemu pozwalają pełnić im rolę raz przewodnika a raz izolatora – krzem to półprzewodnik.

W technologii MOSFET można wyprodukować tranzystory typu NMOS lub PMOS w zależności od układu domieszkowanych warstw krzemu.

NMOS

W podłożu – płytce słabo domieszkowanego półprzewodnika typu P tworzone są dwa małe obszary o przeciwnym typie przewodnictwa – odpowiednio N+ (N+ oznacza silne domieszkowanie tych obszarów). Te silnie domieszkowane obszary tworzą dren oraz źródło do których doprowadzane są kontakty. Powierzchnia półprzewodnika pomiędzy drenem i źródłem jest pokryta cienką warstwą dielektryka (izolatora), grubość tej warstwy jest rzędu kilkunastu nanometrów. Na dielektryk napylana jest warstwa materiału przewodzącego (metalu) tworząca bramkę.

CMOS

CMOS (ang. Complementary MOS) – technologia wytwarzania układów scalonych, głównie cyfrowych, składających się z tranzystorów MOS o przeciwnym typie przewodnictwa i połączonych w taki sposób, że w ustalonym stanie logicznym przewodzi tylko jeden z nich. Dzięki temu układ statystycznie nie pobiera żadnej mocy (pomijając niewielki prąd wyłączenia tranzystora), a prąd ze źródła zasilania płynie tylko w momencie przełączania – gdy przez bardzo krótką chwilę przewodzą jednocześnie oba tranzystory. Tracona w układach CMOS moc wzrasta wraz z częstotliwością przełączania, co wiąże się z przeładowywaniem wszystkich pojemności, szczególnie pojemności obciążających wyjścia.

Gordon Moor – Informuje

W pierwotnej wersji jego informacja mówiła o 12 miesiącach i nie nazywała się ani „prawem”, ani w szczególności „Moore’a”. Nazwy tej użył kilka lat później profesor California Institute of Technology, Carver Mead (Ł. Bigo, 2006, s. 1). Została ona opublikowane na łamach czasopisma „Electronics Magazine” w artykule pt.: „Cramming more components onto integrated circuits” i brzmiała ona w tłumaczeniu następująco

„Złożoność komponentów o minimalnych kosztach będzie się podwajała co roku. Z pewnością w krótkim okresie czasu, spodziewać się można, że ta częstotliwość będzie się utrzymywała, lub się zwiększy. W dłuższym okresie czasu, częstotliwość zwiększania jest mniej pewna, jednak nie ma powodu, aby sądzić, że nie pozostanie ona stała przez co najmniej 10 lat. To oznacza, że w 1975 roku liczba tranzystorów w jednym układzie scalonym dostępnym po minimalnych kosztach wyniesie 65 000. Wierzę, że tak wielki układ może zostać zbudowany na pojedynczym waflu.”(G. Moore, 1965, s. 2)


Wyszukiwarka

Podobne podstrony:
wyklad III(2), Prawo, prawo karne, Prawo karne - notatki i skrypty
TBL WYKŁAD III Freud
wykład III Ubezpieczenia na życie2011
wykład III pns psychopatologia
WYKLAD III diagnoza psychologiczna
MAKROEKONOMIA WYKŁAD III
Zarzadzanie strategiczne w organizacjach publicznych wyklad III listopad 2010
FARMAKOLOGIA WYKŁAD III RAT MED ST
FPP wykład III
wykład III bud ciało i szybkość
BHP - wykład III - biomechanika, materiauy
Wyklad 8, III rok, Diagnostyka laboratoryjna, Wykłady diagnostyka
wyklad III- uklad wydalniczy, Biologia, zoologia
zadanie 1, wykład III
Podstawy programowania (wykład III)

więcej podobnych podstron