Podstawowe jednostki informacji cyfrowej
bit (b) -przyjmuje wartość 0 lub 1
bajt (B) -8 bitów (np. 11110000)
słowo -16 bitów (np. 1111000011111110)
Zamiana liczby dziesiętnej na binarna i odwrotnie - patrz slajdy
Kod uzupełnień do 2 (U2)
Ciąg bitów: an-1an-2... a1 a0 gdzie ai
{0,1}
X10= -2n-1an-1+ 2n-2an-2+ ... + 21a1 +20a0
na n bitach X10
[-2n-1,2n-1-1]
np. 1011u2= -1*23+ 0*22+ 1*21+ 1*20= -5
Ciąg bitów: an-1an-2... a1 a0 gdzie ai
{0,1}
X10= -an-1+ (1/21)an-2+ ... + (1/2n-2)a1 +(1/2n-1)a0
na nbitach X10[-1,1-1/2n-1]
np. 1011u2= -1 + 0*(1/21)+ 1*(1/22)+ 1*(1/23) = -0.625
Arytmetyka binarna (+, -, *, /) - patrz slajdy
Informatyka zajmuje się całokształtem przechowywania, przesyłania, przetwarzania i interpretowania informacji. Wyróżnia się w niej dwa działy, dotyczące sprzętu i oprogramowania.
Informatyka, to systematyczne badanie procesów algorytmicznych, które charakteryzują i przetwarzają informację, teoria, analiza, projektowanie, badanie efektywności, implementacja i zastosowania procesów algorytmicznych.
Informatyka jest abstrakcją.
Abstrakcja, czyli nauka o tworzeniu właściwego modelu reprezentującego problem i wynajdowaniu odpowiedniej techniki mechanicznego jego rozwiązywania. Informatycy tworzą abstrakcje rzeczywistych problemów w formach które mogą być rozumiane i przetwarzane w pamięci komputera.
Abstrakcja oznacza pewne uproszczenie, zastąpienie skomplikowanych i szczegółowych okoliczności występujących w świecie rzeczywistym zrozumiałym modelem umożliwiającym rozwiązanie naszego problemu.
Abstrahujemy od szczegółów które nie maja wpływu lub mają minimalny wpływ na rozwiązanie problemu. Opracowanie odpowiedniego modelu ułatwia zajęcie się istotą problemu.
Algorytm - technika wykorzystywana do otrzymywania rozwiązań na podstawie operacji wykonywanych na danych reprezentowanych przez abstrakcje modelu danych, struktury danych lub na inne sposoby.
Euklides w IV w. p.n.e. określił metodę wyznaczania największego wspólnego dzielnika dwóch liczb -znaną jako tzw. algorytm Euklidesa.
Algorytmika to nauka o tworzeniu algorytmów.
Za jej prekursora możemy uznać Euklidesa.
Słowo „algorytm” wywodzi się od nazwiska perskiego matematyka (łac. Algorismus), który żył w IX wieku p.n.e. i któremu przypisuje się podanie reguł dodawania, odejmowania, mnożenia i dzielenia zwykłych liczb dziesiętnych.
Alan Turing w 1936 opisał tok myślenia prowadzący od obliczeń wykonywanych ręcznie do obliczeń wykonywanych przez prostą maszynę.
Teza Turinga: na zdefiniowanej maszynie można zrealizować każdy algorytm.
Maszyna Turinga jest uniwersalnym modelem wszelkich obliczeń. Po dzień dzisiejszy odzwierciedla działanie komputerów.
Architektura von Neumana:
Podstawowe elementy to: pamięć złożona z elementów przyjmujących stany 0 i 1 (system dwójkowy), arytmometr zdolny wykonywać działania arytmetyczne i logiczne, blok odpowiedzialny za sterowanie, urządzenia wprowadzania danych i wyprowadzania wyników.
Program wg von Neumana - zbiór reguł (poleceń, przepisów), według których maja się odbywać obliczenia a wynik tych obliczeń przechowywany jest w pamięci.
Kolejne rozkazy pobierane są sekwencyjnie przez jednostkę sterującą, rozpoznawane, a następnie wykonywane.
Program podczas swego działania może zmienić zawartość dowolnego obszaru pamięci.
Komputery 0 generacji -zasadniczym elementem był przekaźnik elektromagnetyczny.
Komputery I generacji -komputery zbudowane na lampach elektronowych.
Komputery II generacji -zbudowane są na tranzystorach.
Komputery III generacji -oparte są na układach scalonych.
Komputery IV generacji -oparte są na mikroprocesorach.
Komputery V generacji łączą olbrzymią integrację układów z zaawansowanym przetwarzaniem, włącznie ze sztuczną inteligencją i rozproszonym przetwarzaniem danych. (miniaturyzacja sprzętu, zwiększanie możliwości obliczeniowych, przetwarzanie równoległe)
Generacja VI (nowe architektury, neurokomputery, biokomputery, obliczenia przy pomocy DNA, komputery kwantowe)
Kierunki rozwoju (?)
Problem niezawodności oprogramowania, systemów komputerowych (inżynieria oprogramowania).
Zagadnienia związane z sieciami, z mobilnością fizyczna systemów
oprogramowania. Z tym związane są problemy przekazywania danych, bezpieczeństwa, szyfrowania, kryptografii.
Bogactwo danych i zarządzania nimi -wydobycie prawdziwie użytecznej wiedzy.
System liczbowy - sposób zapisywania i nazywania liczb oraz zbiór reguł umożliwiających wykonywanie działań na tych liczbach.
system addytywny
system pozycyjno -wagowy
Systemy addytywne posiadają osobne symbole dla pierwszych kilku małych liczb, następnie posiadają kolejne symbole dla ich wielokrotności.
W systemach tych liczby tworzy się przez "dodawanie" kolejnych symboli i stąd ich nazwa.
Np. Jeżeli "X"=10,"V"=5,"I"=1 to XVI = 10+5+1 = 16 (rzymski system liczbowy)
System pozycyjny to taki, w którym znaczenie znaków zależy od ich pozycji.
System wagowy to taki, w którym każdej pozycji cyfry przypisana jest inna waga.
Liczbę przedstawia się jako ciąg cyfr, przy czym wartość tej liczby zależy zarówno od cyfr jak i miejsca, na którym się one znajdują w tym ciągu.
Np. Liczba 2010 w dziesiętnym systemie liczbowym, w którym podstawą pozycji jest 10:
2 x 103+ 0 x 102+ 1 x 101+ 0 x 100= 2 x 1000 + 1 x 10
Liczbę całkowitą L w systemie pozycyjnym o podstawie (bazie) r zapisujemy w postaci: (an-1…a1a0)r
Unikalną reprezentacją liczby o wartości L jest zbiór cyfr
{an-1,…,a1,a0) takich, że:
gdzie: m, n
C
m ≥ 0, n ≥ 0, m ≤ n, N ≥ 2, a {0,....,N-1}
N nazywamy podstawą systemu, zaś a jest elementem zbioru cyfr dostępnych w danym systemie
W systemie dziesiętnym: N = 10, a
{0, 1, 2, 3, 4, 5, 6, 7, 8, 9}
Algorytm Hornera obliczania dziesiętnej wartości liczby C
n -liczba cyfr w zapisie pozycyjnym danej liczby
p -podstawa systemu pozycyjnego, w którym jest zapisana liczba
ci -cyfra stojąca na i-tej pozycji.
Pozycja o numerze 0 jest pierwszą pozycją od strony prawej.
w -obliczana wartość liczby 1.
1.w ← 0
2.i ← n -1
3.w ← ci + w x p
4.jeśli i = 0, to koniec, w zawiera wartość liczby
5.i ← i -1
6.wróć do punktu 3
Obliczenia - patrz slajdy
Znajdowanie rozwinięcia liczby o podstawie p
w -wartość liczby
p -podstawa systemu pozycyjnego
ci-cyfra na i-tej pozycji w systemie pozycyjnym o podstawie p
1. i ← 0
2. ci←reszta z dzielenia w / p
3. w ←wynik dzielenia całkowitego w / p
4. jeśli w = 0, to kończymy, wszystkie cyfry znalezione
5. i ←i + 1
6. wróć do punktu 2
Obliczenia - patrz slajdy
16.Informacja:
•Czynnik, któremu człowiek może przypisać określony sens (znaczenie) w celu wykorzystania do różnych celów.
•Wszystko to, co może być zużytkowane do bardziej sprawnego wyboru działań prowadzących do realizacji pewnego celu.
•Zbiór danych zebranych w celu ich przetworzenia i otrzymania wyników (nowych informacji).
•Wielkość abstrakcyjna, która może być przechowywana, przesyłana i przetwarzana w pewnych obiektach a także stosowana do sterowania obiektami (obiekty: organizmy żywe, urządzenia techniczne, systemy obiektów).
17.Wiadomość jest rodzajem nośnika (sposobem zapisu) informacji, informacja jest zaś treścią wiadomości.
18.Komunikat jest odpowiednio zakodowaną wiadomością, zawierającą pewną ilość informacji.
19.Ilość informacji
Fundamentalną koncepcją teorii informacji jest przyjęcie, że informacja zawarta w przekazie zwana zawartością informacyjną jest definiowalną i mierzalną wielkością matematyczną.
Określenie zawartość nie odnosi się do znaczenia przekazywanej wiadomości, ale do prawdopodobieństwa, że określona wiadomość zostanie odebrana (odczytana) z całego zbioru możliwych wiadomości.
Największa wartość zawartości informacyjnej odnosi się do wiadomości, która jest najmniej prawdopodobna.
20. Źródła informacji
Źródła analogowe - np. termometr, barometr, struny głosowe, instrumenty muzyczne
Źródła cyfrowe - np. klawiatura, telegraf
Generuje znak, koduje go w postaci sygnału i wysyła znak (jeden po drugim w czasie).
Modelem generacji jest zdarzenie losowe.
Zakładamy dyskretne i stacjonarne zdarzenia losowe, tzn.: znaki są wybierane ze skończonego zbioru, z niezależnym od czasu prawdopodobieństwem.
Na przesyłany sygnał oddziałują różne sygnały losowe, tzw. sygnały zakłócające -odebrany przez odbiornik sygnał może by różny od sygnału nadanego.
21. Kanały przesyłowe informacji
•Powietrze
•Linie telefoniczne
•Linie radiowe
•Ethernet
•Światłowód
•CD
•DVD
•Dyski magnetyczne
•Pamięć operacyjna
•Przestrzeń „kosmiczna”
22. Kodowanie -zapisywanie informacji w określony sposób.
23. Entropia informacyjna
Informacja docierająca od nadawcy do odbiorcy, ulega różnorakim modyfikacjom, czasami wręcz zniekształceniom, do których przyczyniają się zarówno sami uczestnicy procesu komunikowania, jak i otoczenie fizyczne, a nawet kod.
Zakłócenia tego rodzaju nazywane są entropią informacyjną lub szumem. Jeżeli źródło może nadawać n różnych komunikatów, to jego entropią informacyjną źródła nazywamy wartością oczekiwaną ilości informacji w komunikatach z tego źródła.
Pojęcie entropii zostało zapożyczone z termodynamiki do określenia średniej zawartości informacyjnej wiadomości z określonego źródła.
Entropia może być rozumiana intuicyjnie jako miara nieuporządkowania systemu.
W teorii informacji entropia wiadomości równa się średniej zawartości informacyjnej.
Jeśli w jakimś zbiorze informacji prawdopodobieństwo ich wystąpienia jest równe, to całkowitą entropię wyrażamy:
H = _
N - liczba możliwych informacji w zestawie
24. Redundacja
Redundancja to ilość informacji przekraczająca wymagane do rozwiązania problemu minimum.
Redundancja jest niezbędna do odtworzenia danych po ich częściowej utracie lub uszkodzeniu, do wykrycia uszkodzenia (bit parzystości, suma kontrolna, kod nadmiarowy).
Usuwanie nieprzydatnej redundancji to kompresja danych.
25. Jednostki informacji:
bit (b)
bajt (B) -8 bitów
słowo -16 bitów
słowo podwójne -32 bity
słowo poczwórne -64 bity
Słowo komputerowe -ilość informacji przetwarzanej przez komputer.
Komputery 8-, 16-, 32-, 64-bitowe: oznacza wielkość grupy danych, którą komputer może operować jako całością.
W informatyce nazwy przedrostków nie odpowiadają jednostkom z układu SI:
kilo = 1000 = 103
mega = 1000000 = 106 = kilo x 1000
giga = 1000000000 = 109 = mega x 1000
tera = 1000000000000 = 1012 = giga x 1000
Kilo = 1024 = 210
Mega = 1048576 = 220= Kilo x 1024
Giga = 1073741824 = 230= Mega x 1024
Tera = 1099511627776 = 240= Giga x 1024