Infa - spr wykłady, STUDIA


  1. Podstawowe jednostki informacji cyfrowej

  1. Zamiana liczby dziesiętnej na binarna i odwrotnie - patrz slajdy

  1. Kod uzupełnień do 2 (U2)

X10= -2n-1an-1+ 2n-2an-2+ ... + 21a1 +20a0

na n bitach X100x01 graphic
[-2n-1,2n-1-1]

np. 1011u2= -1*23+ 0*22+ 1*21+ 1*20= -5

X10= -an-1+ (1/21)an-2+ ... + (1/2n-2)a1 +(1/2n-1)a0

na nbitach X10[-1,1-1/2n-1]

np. 1011u2= -1 + 0*(1/21)+ 1*(1/22)+ 1*(1/23) = -0.625

  1. Arytmetyka binarna (+, -, *, /) - patrz slajdy

  1. Informatyka zajmuje się całokształtem przechowywania, przesyłania, przetwarzania i interpretowania informacji. Wyróżnia się w niej dwa działy, dotyczące sprzętu i oprogramowania.

Informatyka, to systematyczne badanie procesów algorytmicznych, które charakteryzują i przetwarzają informację, teoria, analiza, projektowanie, badanie efektywności, implementacja i zastosowania procesów algorytmicznych.

Informatyka jest abstrakcją.

  1. Abstrakcja, czyli nauka o tworzeniu właściwego modelu reprezentującego problem i wynajdowaniu odpowiedniej techniki mechanicznego jego rozwiązywania. Informatycy tworzą abstrakcje rzeczywistych problemów w formach które mogą być rozumiane i przetwarzane w pamięci komputera.

Abstrakcja oznacza pewne uproszczenie, zastąpienie skomplikowanych i szczegółowych okoliczności występujących w świecie rzeczywistym zrozumiałym modelem umożliwiającym rozwiązanie naszego problemu.

Abstrahujemy od szczegółów które nie maja wpływu lub mają minimalny wpływ na rozwiązanie problemu. Opracowanie odpowiedniego modelu ułatwia zajęcie się istotą problemu.

  1. Algorytm - technika wykorzystywana do otrzymywania rozwiązań na podstawie operacji wykonywanych na danych reprezentowanych przez abstrakcje modelu danych, struktury danych lub na inne sposoby.

Euklides w IV w. p.n.e. określił metodę wyznaczania największego wspólnego dzielnika dwóch liczb -znaną jako tzw. algorytm Euklidesa.

Algorytmika to nauka o tworzeniu algorytmów.

Za jej prekursora możemy uznać Euklidesa.

Słowo „algorytm” wywodzi się od nazwiska perskiego matematyka (łac. Algorismus), który żył w IX wieku p.n.e. i któremu przypisuje się podanie reguł dodawania, odejmowania, mnożenia i dzielenia zwykłych liczb dziesiętnych.

  1. Alan Turing w 1936 opisał tok myślenia prowadzący od obliczeń wykonywanych ręcznie do obliczeń wykonywanych przez prostą maszynę.

Teza Turinga: na zdefiniowanej maszynie można zrealizować każdy algorytm.

Maszyna Turinga jest uniwersalnym modelem wszelkich obliczeń. Po dzień dzisiejszy odzwierciedla działanie komputerów.

  1. Architektura von Neumana:

Podstawowe elementy to: pamięć złożona z elementów przyjmujących stany 0 i 1 (system dwójkowy), arytmometr zdolny wykonywać działania arytmetyczne i logiczne, blok odpowiedzialny za sterowanie, urządzenia wprowadzania danych i wyprowadzania wyników.

  1. Program wg von Neumana - zbiór reguł (poleceń, przepisów), według których maja się odbywać obliczenia a wynik tych obliczeń przechowywany jest w pamięci.

Kolejne rozkazy pobierane są sekwencyjnie przez jednostkę sterującą, rozpoznawane, a następnie wykonywane.

Program podczas swego działania może zmienić zawartość dowolnego obszaru pamięci.

  1. Komputery 0 generacji -zasadniczym elementem był przekaźnik elektromagnetyczny.

Komputery I generacji -komputery zbudowane na lampach elektronowych.

Komputery II generacji -zbudowane są na tranzystorach.

Komputery III generacji -oparte są na układach scalonych.

Komputery IV generacji -oparte są na mikroprocesorach.

Komputery V generacji łączą olbrzymią integrację układów z zaawansowanym przetwarzaniem, włącznie ze sztuczną inteligencją i rozproszonym przetwarzaniem danych. (miniaturyzacja sprzętu, zwiększanie możliwości obliczeniowych, przetwarzanie równoległe)

Generacja VI (nowe architektury, neurokomputery, biokomputery, obliczenia przy pomocy DNA, komputery kwantowe)

  1. Kierunki rozwoju (?)

Problem niezawodności oprogramowania, systemów komputerowych (inżynieria oprogramowania).

Zagadnienia związane z sieciami, z mobilnością fizyczna systemów

oprogramowania. Z tym związane są problemy przekazywania danych, bezpieczeństwa, szyfrowania, kryptografii.

Bogactwo danych i zarządzania nimi -wydobycie prawdziwie użytecznej wiedzy.

  1. System liczbowy - sposób zapisywania i nazywania liczb oraz zbiór reguł umożliwiających wykonywanie działań na tych liczbach.

Systemy addytywne posiadają osobne symbole dla pierwszych kilku małych liczb, następnie posiadają kolejne symbole dla ich wielokrotności.

W systemach tych liczby tworzy się przez "dodawanie" kolejnych symboli i stąd ich nazwa.

Np. Jeżeli "X"=10,"V"=5,"I"=1 to XVI = 10+5+1 = 16 (rzymski system liczbowy)

System pozycyjny to taki, w którym znaczenie znaków zależy od ich pozycji.

System wagowy to taki, w którym każdej pozycji cyfry przypisana jest inna waga.

Liczbę przedstawia się jako ciąg cyfr, przy czym wartość tej liczby zależy zarówno od cyfr jak i miejsca, na którym się one znajdują w tym ciągu.

Np. Liczba 2010 w dziesiętnym systemie liczbowym, w którym podstawą pozycji jest 10:

2 x 103+ 0 x 102+ 1 x 101+ 0 x 100= 2 x 1000 + 1 x 10

Liczbę całkowitą L w systemie pozycyjnym o podstawie (bazie) r zapisujemy w postaci: (an-1…a1a0)r

Unikalną reprezentacją liczby o wartości L jest zbiór cyfr

{an-1,…,a1,a0) takich, że:

0x01 graphic

gdzie: m, n0x01 graphic
C

m ≥ 0, n ≥ 0, m ≤ n, N ≥ 2, a {0,....,N-1}

N nazywamy podstawą systemu, zaś a jest elementem zbioru cyfr dostępnych w danym systemie

W systemie dziesiętnym: N = 10, a0x01 graphic
{0, 1, 2, 3, 4, 5, 6, 7, 8, 9}

  1. Algorytm Hornera obliczania dziesiętnej wartości liczby C

n -liczba cyfr w zapisie pozycyjnym danej liczby

p -podstawa systemu pozycyjnego, w którym jest zapisana liczba

ci -cyfra stojąca na i-tej pozycji.

Pozycja o numerze 0 jest pierwszą pozycją od strony prawej.

w -obliczana wartość liczby 1.

1.w ← 0

2.i ← n -1

3.w ← ci + w x p

4.jeśli i = 0, to koniec, w zawiera wartość liczby

5.i ← i -1

6.wróć do punktu 3

Obliczenia - patrz slajdy

  1. Znajdowanie rozwinięcia liczby o podstawie p

w -wartość liczby

p -podstawa systemu pozycyjnego

ci-cyfra na i-tej pozycji w systemie pozycyjnym o podstawie p

1. i ← 0

2. ci←reszta z dzielenia w / p

3. w ←wynik dzielenia całkowitego w / p

4. jeśli w = 0, to kończymy, wszystkie cyfry znalezione

5. i ←i + 1

6. wróć do punktu 2

Obliczenia - patrz slajdy

16.Informacja:

•Czynnik, któremu człowiek może przypisać określony sens (znaczenie) w celu wykorzystania do różnych celów.

•Wszystko to, co może być zużytkowane do bardziej sprawnego wyboru działań prowadzących do realizacji pewnego celu.

•Zbiór danych zebranych w celu ich przetworzenia i otrzymania wyników (nowych informacji).

•Wielkość abstrakcyjna, która może być przechowywana, przesyłana i przetwarzana w pewnych obiektach a także stosowana do sterowania obiektami (obiekty: organizmy żywe, urządzenia techniczne, systemy obiektów).

17.Wiadomość jest rodzajem nośnika (sposobem zapisu) informacji, informacja jest zaś treścią wiadomości.

18.Komunikat jest odpowiednio zakodowaną wiadomością, zawierającą pewną ilość informacji.

19.Ilość informacji

Fundamentalną koncepcją teorii informacji jest przyjęcie, że informacja zawarta w przekazie zwana zawartością informacyjną jest definiowalną i mierzalną wielkością matematyczną.

Określenie zawartość nie odnosi się do znaczenia przekazywanej wiadomości, ale do prawdopodobieństwa, że określona wiadomość zostanie odebrana (odczytana) z całego zbioru możliwych wiadomości.

Największa wartość zawartości informacyjnej odnosi się do wiadomości, która jest najmniej prawdopodobna.

20. Źródła informacji

Źródła analogowe - np. termometr, barometr, struny głosowe, instrumenty muzyczne

Źródła cyfrowe - np. klawiatura, telegraf

Generuje znak, koduje go w postaci sygnału i wysyła znak (jeden po drugim w czasie).

Modelem generacji jest zdarzenie losowe.

Zakładamy dyskretne i stacjonarne zdarzenia losowe, tzn.: znaki są wybierane ze skończonego zbioru, z niezależnym od czasu prawdopodobieństwem.

Na przesyłany sygnał oddziałują różne sygnały losowe, tzw. sygnały zakłócające -odebrany przez odbiornik sygnał może by różny od sygnału nadanego.

21. Kanały przesyłowe informacji

•Powietrze

•Linie telefoniczne

•Linie radiowe

•Ethernet

•Światłowód

•CD

•DVD

•Dyski magnetyczne

•Pamięć operacyjna

•Przestrzeń „kosmiczna”

22. Kodowanie -zapisywanie informacji w określony sposób.

23. Entropia informacyjna

Informacja docierająca od nadawcy do odbiorcy, ulega różnorakim modyfikacjom, czasami wręcz zniekształceniom, do których przyczyniają się zarówno sami uczestnicy procesu komunikowania, jak i otoczenie fizyczne, a nawet kod.

Zakłócenia tego rodzaju nazywane są entropią informacyjną lub szumem. Jeżeli źródło może nadawać n różnych komunikatów, to jego entropią informacyjną źródła nazywamy wartością oczekiwaną ilości informacji w komunikatach z tego źródła.

Pojęcie entropii zostało zapożyczone z termodynamiki do określenia średniej zawartości informacyjnej wiadomości z określonego źródła.

Entropia może być rozumiana intuicyjnie jako miara nieuporządkowania systemu.

W teorii informacji entropia wiadomości równa się średniej zawartości informacyjnej.

Jeśli w jakimś zbiorze informacji prawdopodobieństwo ich wystąpienia jest równe, to całkowitą entropię wyrażamy:

H = _

N - liczba możliwych informacji w zestawie

24. Redundacja

Redundancja to ilość informacji przekraczająca wymagane do rozwiązania problemu minimum.

Redundancja jest niezbędna do odtworzenia danych po ich częściowej utracie lub uszkodzeniu, do wykrycia uszkodzenia (bit parzystości, suma kontrolna, kod nadmiarowy).

Usuwanie nieprzydatnej redundancji to kompresja danych.

25. Jednostki informacji:

bit (b)

bajt (B) -8 bitów

słowo -16 bitów

słowo podwójne -32 bity

słowo poczwórne -64 bity

Słowo komputerowe -ilość informacji przetwarzanej przez komputer.

Komputery 8-, 16-, 32-, 64-bitowe: oznacza wielkość grupy danych, którą komputer może operować jako całością.

W informatyce nazwy przedrostków nie odpowiadają jednostkom z układu SI:

kilo = 1000 = 103

mega = 1000000 = 106 = kilo x 1000

giga = 1000000000 = 109 = mega x 1000

tera = 1000000000000 = 1012 = giga x 1000

Kilo = 1024 = 210

Mega = 1048576 = 220= Kilo x 1024

Giga = 1073741824 = 230= Mega x 1024

Tera = 1099511627776 = 240= Giga x 1024



Wyszukiwarka

Podobne podstrony:
MIKRO ŚCIĄGI Z WYKŁADU, studia, studia II rok, mikrobiologia, mikro egz, Ściągi RAZY 2
Prawo inżynierskie i ochrona własności intelektualnych. Wykład 3, Studia, Politechnika Łódzka - Pend
WYKLAD 4, Studia, Hydrologia
ZAKRES SPR- BIOL, Studia
Ekonomika- wykład 6, studia AGH, ZiIP, Inżynier, Ekonomika, Wykłady
rynek walutowy wykłady, Studia
wyklad 7, studia
Filozofia wykład 2, Studia, ZiIP, SEMESTR V, Fizozofia
zal 2006 wykład, Studia - Automatyka, Automatyka napędu elektrycznego
Wykład (5), Studia - administracja, Organizacja i zarządzanie
spr rurki, studia, nano, 3rok, 6sem, polimery w medycynie
chf wykład 6, Studia, Chemia, fizyczna, wykłady
FILOZOFIA wyklad , Studia, etyka i filozofia
spr nr 7-1, Studia, geodezja wyższa
politologia religii Wykład9, studia
Kolokwium1 - Nowak(wyklad), Studia WIT - Informatyka, Programowanie C
Wykład (8), Studia - administracja, Organizacja i zarządzanie
zarzadzanie wyklad 2, studia, Maja, Studia, II rok, IV semestr, Organizacja i Zarzadzanie

więcej podobnych podstron