Informatyka termin ten powstał z połączenia pojęć informatyka i automatyka.
Traktując to dosyć dosłownie, można powiedzieć, że informatyka zajmuje się automatyzacją procesów przeważania informacji. Zatem u podstaw zrozumienia sensu informatyki leży informacja. W teorii informacji przyjmuje się że informacja jest pojęciem pierwotnym a więc nie definiowanym podobnie jak materia czy energia. Wg. J. p. Informatyka to czynnik dzięki któremu ludzie i urządzenia mogą sprawnie i celowo działać. Definicja ta ma charakter bardzo i niezbyt dobrze oddaje istotę pojęcia w sensie.
Informatyka to znaczenie jakie nadawca lub odbiorca przypisuje pewnej kolekcji danych.
Informatyka jest zbiorem danych zebranych w celu ich przetwarzania i otrzymania wyników
Ponieważ przedmiotem informatyki jest automatyzacja przeważania informacji niezbędnymi do tego są:
urządzenia do przetwarzania informacji komputery (hardware)
metody przetwarzania informacji (software)
Informatyka to dziedzina wiedzy zajmująca się przetwarzanie informacji za pomocą komputerów i odpowiedniego oprogramowania. Zbieranie, przekształcanie przechowywanie przesyłanie, udostępnianie.
KODOWANIE I PRZETWAZANIE INFORMACJI
Istotną cechą informacji jest to, że jest ona wyrażana za pomocą różnego typu symboli. Najczęściej to symbole znaków języków naturalnych, pojęć języków specjalistycznych (matematyki, logiki, ekonomii).
Zdecydowana większość informacji ma charakter tekstu (znaków pisarskich) lub liczb (ciągów cyfr). Tego typu symbole nie mogą być w sposób bezpośredni wykorzystywane w automatycznym przetwarzaniu z użyciem komputerów.
Komputer potrafi w zasadzie przetwarzać dane wykorzystując podstawowe działania arytmetyczne i operacje logiczne na liczbach. Informacje logiczne na liczbach. Informacje o charakterze tekstowym trzeba wiec przekształcać w liczby używając do tego celu odpowiedniego kodu.
We współczesnych komputerach do badania tekstu stosuje się specjalne opracowany alfabet komputerowy sztandarowy kod wymiany informacji ASCII (American Standard Code information interchange) którą każdemu znakowi przyporządkowuje liczbę od 0 do 255. Kod ASCII podzielił dostępne w nim znaki i symbole na trzy grupy:
0-31 to znaki specjalne sterujące np. drukarka które nie mają odpowiedników alfabecie
32-127 to małe litery alfabetu (32-47) cyfry (48-57) wielkie litery, alfabety (97-122), inne znaki pisarskie (123-127)
128-255 to rozszerzony kod znaków ASCII który obejmuje znaki narodowe diakrytyczne, takie jak polskie ą ę ó ś ..., specjalne % & $ semigraficzne symbole matematyczne niektóre grecki.
Aby informacja tekstowa zakodowana w postaci liczb mogła być przetwarzana przez komputer musimy wykonać na niej takie same operacje jak na liczbach.
System liczenia naturalnym dla człowieka jest system dziesiętny.
System dziesiątkowy złożony jest z cyfr 0123456789
Układ dwójkowy złożony z cyfr 01 bit
Układ szesnastkowy czyli heksadecymalny 0123456789ABCDEF
ALGORYTM I PROGRAM
Warunkiem niezbędnym prawidłowego funkcjonowania komputera jest opracowanie sposobów rozwiązania zadań stawianych przed komputerem
Algorytm to zbiór reguł postępowania operacji które realizowane w określonej kolejności pozwalają wykonać postawione zadanie.
Istotnymi cechami algorytmu są:
możliwość wielokrotnego rozwiązywania podobnych problemów
skończona liczba operacji
z góry ustalona poprzez układ warunków kolejność operacji
jednoznaczność operacji
Strukturę algorytmu wyróżniamy:
w formie opisowej w języku naturalnym
w języku formalnym (matematyki lub logiki)
w formie schematu blokowego
Bit jest bardzo małą jednostką informacji dlatego powszechnie stosuje się jednostki wielokrotne:
1 bajt 1B=8 Bitów
1 kilo bajt 1KB=210 B 1024 bajt
1 mega bajt 1MB=220 B 1048576 bajtów
1 giga bajt 1GB=230 B 1073741824 bajty
1 terabajt 1 TB=240 B 1099511627776 bajtów
0,1 1 bit
10110111= 8 bitów=1bajt=1B
Zapis algorytmu w formie programu może się odbywać w różny sposób:
1). Z wykorzystaniem języka proceduralnego
Są to języki o sformalizowanej składni w których za pomocą słów kluczowych w języku naturalnym (angielskim), definiuje się dane zmienne i procedury algorytmu. Przykładowe języki to FORTAN, ADA, BASIC, PASCAL.
2). Z wykorzystaniem języka zorientowanego obiektowo
Są to języki będące odmianami języków proceduralnych w których definiuje się obiekty a im przypisuje się właściwości i metody. Przykładowe języki to: OBJECT-PASCAL, C++,VISUALBASIC
3). Z wykorzystaniem języka nie proceduralnego
W tych językach nie definiuje się procedur lecz polecenia lub wyniki jakie mają być otrzymane. Przykładowe języki to: SQL - do obsługi bazy danych
4). Z wykorzystaniem języków specjalizowanych
Języki te tworzy się specjalnie do realizowania określonego typu zadań. Przykładowe języki to: LISP, PROLOG
5). Z wykorzystaniem języka symbolicznego (aremiera) Arembier wykorzystuje w instrukcjach programowych symbole ułatwiające programiście kojarzenie kodu operacji z symbolami literowymi instrukcji. Procesor w którym ma być realizowany program posiada wewnętrzną listę rozkazów (operacji) które potrafi wykonać. Są one oznaczane odpowiednimi kodami.
KOMPUTERY I GENERACJI
Pierwszy o nazwie MARK I zbudował Harvard Aiken w latach 1939 - 1944 na UH w USA. Zawierał 3 tyś. Przełączników elektronicznych, 750 tyś. Lamp elektronowych i 800 km przewodów. Pracowała w systemie dziesiątkowym liczył z dokładnością do 23 cyfr znaczących. Wykonywał 3 dodawania na sekundę, potrzebował 6 sekund do wykonanie mnożenia a 12 do dzielenia. Pierwszy komputer działający w systemie dwójkowym EDVAC (Electronic Variable Automatic Computer). Zbudowano pod kierunkiem Johno von Neumana na Uniwersytecie Prinectan w USA.
KOMPUTERY II GENERACJI
Powstały w latach pięćdziesiątych dzięki wynalezieniu tranzystorów elementów półprzewodników. Pierwszą maszynę zbudowano w Bell Laboratories w 1954 r. Koncern IBM (Inernational Busines Machines) zbudował w 1958 modele 7070 7090, które z uwagi na rozmiary i cenę jako pierwsze komputery komercyjne, znalazły zastosowanie w gospodarce
KOMPUTERY IIIGENERACJI
Powstały w połowie lat sześćdziesiątych wraz z pojawieniem się układów scalonych posiadają na jednej płytce krzemowej moduły takie wzmacniacze generatory bramki logiczne itp.). W miarę miniaturyzacji układów scalonych od SSI (Small Scale Integration) - komputer IBM System 360 do MSI (Midle Scalle Integration) - komputer DDP11 firmy DEC komputery stawały się coraz szybsze bardziej niezawodne i tańsze.
KOMPUTERY IV GENERACJI
Oparte były o wielkość mikroprocesora który na jednej płytce krzemowej zawierał od kilkuset do kilku tyś. Diod tranzystorów i elementów logicznych a z otoczeniem komunikował się za pomocą określonej liczby wypowiedzeń. W tej generacji komputerów mikroprocesory LSI (Large Scale Integration) Uzupełnione o pamięć operacyjną zegar i sterowniki urządzeń zewnętrznych funkcjonalnie odpowiadały dzisiejszym komputerom osobistym.
KOMPUTERY V GENERACJI
Wykorzystując mikroprocesory o bardziej złożonej strukturze VLSI (Very Large Scale Integration). Są coraz szybsze, mniejsze i tańsze. W komputerach osobistych wykorzystywano początkowo mikroprocesory 8,16,32 bitowe a aktualnie wykorzystuje się procesory 64 bitowe.
Chcąc porównać moc obliczeniową tych mikroprocesorów trzeba pamiętać że musimy tu porównać liczby 28, 216,232,264. Jeżeli przyjąć za ilustrację tego porównania ze każdej z liczb przypisuje się liczbę maleńkich kropek, umieszczanych na papierze jedna obok drugiej to:
216 - odpowiada pokrytej kropkami powierzchni wielkości znaczka pocztowego
232 - to powierzchnia blatu sporego biurka
264 - to powierzchnia sporego państwa np. Grecja
Tempo postępu w dziedzinie elektroniki mikroprocesowej można określić przymiotnikiem szalone.