1642
rok - Blaise Pascal skonstruował jedną z pierwszych
maszyn matematycznych-
sumator
arytmetyczny.
1822
rok - Brytyjski matematyk Charles Babbage zaprezentował model
maszyny
różnicowej,
który miał różnice drugiego rzędu i osiem miejsc po przecinku.
Zajął się on następnie maszyną o różnicach siódmego rzędu i
290 miejscach po przecinku, poniósł jednak porażkę przy
rozwiązywaniu problemu wykonania skomplikowanego napędu zębatego.
1833
rok - Charles Babbage przedstawił pomysł pierwszej cyfrowej maszyny
analitycznej. Nie została ona nigdy zbudowana. Projekt przewidywał
jednak istotne składniki nowoczesnego przetwarzania danych.
1930
rok - W Massachusetts Institute of Technology w Cambridge (USA) grupa
naukowców pod kierownictwem inżyniera elektryka Vannevara Busha
konstruuje pierwszy
- pracujący elektromechanicznie - komputer analogowy.
1936 rok -Francuz R. Valtat zgłosił do opatentowania maszynę
liczącą, której zasada działania oparta była na systemie
dwójkowym.
1937
rok-Niemiec Konrad Zuse zbudował elektromechaniczną
maszynę liczącą opartą na systemie dwójkowym.
1940
rok - Alianci zbudowali pierwszą nadającą się do użytku maszynę
deszyfrującą.
1941
rok - Niemiecki inżynier Konrad Zuse zaprezentował swoją cyfrową
maszynę liczącą "Zuse
Z3".Była
to pierwsza sterowana programowo maszyna matematyczna ,o wysokich
parametrach eksploatacyjnych. "Zuse Z3" posiadała binarny
mechanizm liczący z prawie 600 przekaźnikami jako bistabilnymi
elementami i pamięcią z około 1400 przekaźnikami.
1942
rok- Amerykanin John
V. Atanasoff ukończył pierwszą sprawną elektroniczną
maszynę liczącą w technice lampowej.
Jest
to pierwsza maszyna w której użyto wyłącznie elementy
elektroniczne.
Liczby
zapamiętywane były w układzie dziesiętnym.
1943 rok - Niemiecki inżynier Henning Schreyer zgłosił do
opatentowania pełnoelektroniczną pamięć i urządzenie liczące z
lampami jarzeniowymi. Schreyer od 1937 r. wspólnie z Konradem Zuse
zajmował się konstruowaniem układu połączeń lampowych do
przetwarzania danych. Teraz opracował on ideę budowy
pełnoelektronicznej maszyny liczącej. Jednak w czasie wojny w
Niemczech brakowało środków na realizację jego planów.
1944
rok - Węgiersko-amerykański matematyk i chemik John von
Neuman rozpoczął
próby z modelem pierwszej
maszyny liczącej z
pamięcią EDVAC
(Electronic Discrete Variable Automatic Computer). W
urządzeniu kodowano program, składający się z serii pojedynczych
instrukcji. Program zawierał instrukcje warunkowe, które
umożliwiały tworzenie pętli. Każda instrukcja programowa mogła
być zmieniona przez samą maszynę, jak każdy inny argument
operacji. Z takim sposobem działania maszyna zdecydowanie górowała
nad wszystkimi dotychczasowymi maszynami matematycznymi.
Fizyk
Howard Hathavay oddał do użytku na Universytecie Harvarda cyfrową
maszynę liczącą. Nazywała
się MARK
I
bądź ASCC - miała potężne wymiary i była pierwszą sterowaną
programowo maszyną liczącą USA.
1945
rok- Na Uniwersytecie Pensylwania uruchomiono pierwszą
wielką elektroniczną maszynę liczącą wiata
ENIAC
(Electronic Numerical Integrator and Computer). Zbudowana została
przez Johna Prespera Ecckerta i Johna Williama Mauchly. Do czasu aż
wszystkie jej zespoły stały się całkowicie zdolne do użytku,
minęły jeszcze dwa lata. Wielka maszyna matematyczna wyposażona
była w lampy elektronowe i liczyła 2000 razy szybciej niż komputer
z elektromechanicznymi przekaźnikami. ENIAC zajmował powierzchnię
zasadniczą 140 m.kw., posiadał przeszło 18000 lamp elektronowych,
1500 przekaźników i zużywał 150 kW mocy.
Niemiecki
inżynier Konrad Zuse zakończył prace nad swoją maszyną liczącą
" Zuse Z4". Komputer był rozwinięciem poprzedniego typu
Z3.
W 1946 roku John von Neumann zaproponował architekturę, według której są budowane komputery do dnia dzisiejszego- architekturę von neumannowską. W pamięci komputera przechowywane miały być zarówno dane podlegające danych przetwarzaniu, jak i program, który te dane miał przetwarzać. Porzucono więc wreszcie programowanie sprzętowe i zastąpiono je programowaniem wewnętrznym, poprzez umieszczenie w pamięci maszyny programu sterującego przetwarzaniem danych. Architektura von neumannowska wyróżniała trzy elementy składowe: pamięć złożoną z elementów przyjmujących stany 0 i 1, arytmometr wykonujący działania arytmetyczno-logiczne i jednostkę sterującą. Wszystkim sterował program umieszczany w pamięci. Stanowiło to przełom w stosunku do wcześniejszych koncepcji, w których program zapisywano na kartach perforowanych i bezpośrednio z nich odczytywany i uruchamiany. W maszynie von neumannowskiej program i dane znajdowały się w pamięci fizycznej, a program mógł modyfikować zawartość pamięci i samego siebie. Program był ciągiem instrukcji pobieranych i rozpoznawanych przez jednostkę sterującą w takt zegara. Praca maszyny oparta była na modelu maszyny Turinga, Neumann znał jej schemat teoretyczny.
W
1949
roku w oparciu o tę architekturę powstaje komputer EDSAC.
1947
rok - W Stanach Zjednoczonych zbudowano maszynę liczącą "
Mark
II
" w technice przekaźnikowej.
W
tym samym Amerykańska
firma IBM buduje komputer SSEC z 12500 lampami i 21400 przekaźnikami.
Jest on sterowany za pomocą tamy dziurkowanej. Umożliwiono
ingerencję w program.
1948 rok - W toku rozwoju elektronicznych maszyn liczących, opartych
na dwójkowym systemie liczbowym, znaczenie praktyczne zyskuje
ugruntowana już przed ok. stu laty algebra Boole'a. Posługuje się
ona wartościami logicznymi "Tak / Nie" lub " 0 / 1".
Ten " krok binarny" określa matematyk John W. Tukey jako "
bit" ( binarny digit ). Bit staje się jednostką informacji w
przetwarzaniu danych.
IBM
604
jest pierwszą dużą maszyną liczącą sterowaną tamą
perforowaną.
1949
rok - Na Uniwersytecie Manchester ( Anglia ) pod kierownictwem
Maurica V. Wilkesa skonstruowano po trzech latach pierwszy komputer
lampowy z programowalną pamięcią EDSAC
( Electronic Delay Storage Automatic Computer ). Powstaje on według
architektury von neumannowskiej.
W
tym samym czasie IBM uruchamia w Nowym Jorku pod kierownictwem Johna
Prespera Eckerta układ
z programowalną pamięcią
- SSEC
( Selective Sequence Electronic Calculator).
EDSAC
pracuje z 4500 lampami elektronowymi, a SSEC z 12500 lampami
elektronowymi i 21400 przekaźnikami. Nowością w tych komputerach
jest to, że tak przebieg programu jak i obróbka danych są
zakodowane w pamięci maszyny, program zawiera rozkazy warunkowe,
które umożliwiają rozgałęzienia i skoki i wreszcie każdy rozkaz
programowy z operacyjną częścią adresową może samodzielnie
zmienić.
Koncepcję
tych komputerów opracował już w 1944 r. matematyk amerykański
pochodzenia węgierskiego John von Neumann. Jednakże jego urządzenie
EDVAC rozpoczyna pracę dopiero w roku 1952. Np. w 1945 r. Zuse
sformułował ogólny algorytmiczny język formuł, który
uwzględniał możliwe warianty programowania pamięci. Pod koniec
lat czterdziestych pojawiają się w elektrotechnice drukowane
połączenia. Ścieżki przewodzące są drukowane za pomocą lakieru
odpornego na kwasy na cienkiej płytce izolatora ( żywica epoksydowa
) z naniesioną warstwą miedziową.
1950 rok - " Univac I " firmy Eckert and Mauchly Computer
Company jest komputerem produkowanym seryjnie.
Komputer
" Mark III " używa tamy magnetycznej zamiast kart
perforowanych.
1951
rok - Na Uniwersytecie Harwarda w Cambridge ( Massachusetts )
matematyk Howard H. Aiken uruchomił swoją maszynę cyfrową MARK
III.
Urządzenie to było kontynuacją urządzeń poprzednich MARK I i
MARK II, które Aiken budował już od roku 1939.
1952
rok - Howard H. Aiken uruchomił w USA lampową
maszynę liczącą MARK IV.
1954
rok - J.W. Backus stworzył język komputerowy FORTRAN
( formula translator ). Umożliwia on dialog pomiędzy użytkownikiem
a bankiem danych bez konieczności korzystania z pomocy programisty.
FORTRAN jest skomplikowanym językiem komputerowym, który nie tylko
przekazuje maszynie polecenia, lecz zawiera w sobie szereg wzorów
ułatwiających programowanie.
1955
rok - W Bell Telephone Laboratory w USA rozpoczęła pracę pierwsza
tranzystorowa maszyna licząca " Tradic "
skonstruowana przez zespół pod kierownictwem J. H. Felkera.
Wkrótce
pojawiły się na rynku tranzystorowe komputery (" 7090 IBM"
i "Gamma 60 Bull ").
1956 rok - Niemiecka firma Zuse KG rozpoczęła seryjną produkcję
maszyn liczących " Zuse Z 11".
W
Bell Laboratory wykonano tranzystorowy komputer "
Leprechaun".
IBM
( International Business Machines Corporation ) zbudował komputer
na płycie magnetycznej.
1958
rok - Opracowano komputerowy język
programowania ALGOL
( Algorithmic Language ). Podobnie jak FORTRAN - ALGOL jest językiem
problemowo zorientowanym, ale nie bardziej niż te, które są
specjalistycznymi językami naukowo-technicznymi. Ma on inną
strukturę niż FORTRAN.
1960
rok - Zostaje opracowany język
programowania COBOL
( Common Business Oriented Language ). COBOL używa stosunkowo dużej
liczby symboli słownych.
1961
rok - IBM przedstawia swoją metodę
" Tele - processing".
Za pomocą tej metody dane, przekazywane poprzez telefon,
przetwarzane są bezpośrednio przez komputer. Zwiastuje to technikę
o zasięgu krajowym, a nawet światowym. Zasada jest prosta. Każdy
komputer współpracuje z tzw. urządzeniami peryferyjnymi. Należą
do nich jednostki wprowadzania i wyprowadzania informacji.
Jednostkami wprowadzania mogą być np. klawiatura, czytnik kart
dziurkowanych czy magnetycznych. Jako jednostki wyprowadzania
informacji wchodzą w rachubę drukarki, monitory ekranowe,
dziurkarki czy magnetofony.
1962 rok - Maleńkie tranzystory zwiększają prędkość
elektronicznego przetwarzania danych ( trzecia generacja komputerów
).
American
Airlines wprowadza na komputerze międzynarodowy system rezerwacji
lotów oparty na zdalnym przetwarzaniu danych.
1963
rok - Firma IBM buduje szybką drukarkę
wierszową " IBM 1403 ",
przystosowaną do pracy z komputerem, która pisze 600 wierszy w
ciągu minuty.
Nowością
w tym urządzeniu jest układ czcionek. Są one umieszczone na
łańcuchu, będący w stałym obiegu, poprzecznie do kierunku ruchu.
Łańcuch porusza się poziomo przed papierem do zadrukowania.
Magnesy odbijające przyciskają poszczególne czcionki przez
kolorową tamę do powierzchni zadrukowywanej wtedy, gdy czcionka,
wybrana przez komputer, znajduje się w odpowiednim położeniu.
1965 rok - Nowe dziedziny dla zastosowania komputera docierają do
wiadomości społecznej: w Berlinie zostaje uruchomiony pierwszy w
Europie komputer do kierowania ruchem drogowym, a z okazji wyborów
do Bundestagu przed zliczeniem głosów komputer opracowuje prognozy
wyników wyborów.
1966
rok - Wynaleziono nowy
typ pamięci
dla elektronicznych urządzeń przetwarzania danych.
Pamięć składa
się z warstwy kryształów granatu grubości
1 µm,
z domieszką żelaza,
która przez epitaksję naniesiona jest na nienamagnesowany granat.
Namagnesowanie określonego miejsca pamięci jest oceniane jako "
1", jego brak jako " 0 ".
1967
rok - Anglik Norman Kitz zaprezentował "
Anita Mark 8 " pierwszą elektroniczną biurkową maszynę
matematyczną.
Wynalazek Kitza był możliwy dzięki osiągnięciom dokonanym w tym
zakresie w USA w 1965 roku.
1968
rok - Monolityczne układy przełączające zastępują
minitranzystory i hybrydowe układy scalone. Zaczyna się czwarta
generacja komputera. Podczas gdy komputery drugiej generacji
wykonywały na sekundę 1300 dodawań, a trzeciej 160 000 dodawań,
to nowe urządzenia wykonują ponad 300 000.
IBM
zbudowało pierwszą
elektroniczną maszynę liczącą " System 360 " w technice
monolitu,
a więc przy zastosowaniu zintegrowanych układów.
1969
rok - Informatyk Cragon w USA tworzy tzw. LSI-
komputer celem zastosowania go w dziedzinie geofizyki. LSI znaczy
Large Scale Integration, a więc integracja na dużą skalę. W
zintegrowanych połączeniach stopień integracji daje informację
odnośnie liczby elementów układu na jednostkę powierzchni.
Zazwyczaj jest on podawany w ilości funkcji tranzystorowych na "
chip" ( chip - struktura półprzewodnikowa ).
1971
rok - Texas Instruments wyprodukował pierwszy
kalkulator kieszonkowy
wykorzystując do tego pierwszy mikroprocesor. Zasada działania
kalkulatora z mikroprocesorem daje się porównać z zasadą
działania większych komputerów. Różnice polegają na mniejszych
i bardziej ograniczonych możliwościach, mniejszych wymiarach,
mniejszej ilości i prostszych urządzeniach peryferyjnych i
mniejszych kosztach wytwarzania kalkulatora kieszonkowego. Mieści w
sobie, obok mikroprocesora również inne zintegrowane z nim obwody,
m.in. pamięć.
IBM
opracował stacje przetwarzania danych sprzężone z centralą
elektronicznego przetwarzania danych, tzw. terminale.
Terminale składają się przeważnie z monitora i klawiatury,
pozwalają wielu oddalonym od siebie użytkownikom na dostęp do
centralnego urządzenia obliczeniowego.
W
USA powstał pierwszy
mikroprocesor
na wiecie MCS - 4 ( PMOS ) wyprodukowany przez firmę Intel.
Mikroprocesor jest układem scalonym tzn. obejmuje on w sobie funkcje
od 5000 do 100 000 tranzystorów. Spełnia zadanie tzw. jednostki
centralnej w komputerach ( CPU - Central Processing Unit ). CPU
zajmuje się centralnym sterowaniem przebiegu i koordynacją całego
systemu komputera, wydając na zewnątrz ( najczęściej )
sekwencyjnie poszczególne rozkazy zapamiętywanego programu.
Mikroprocesor taki, będący scaloną jednostką funkcyjną, jest
tylko częścią mikrokomputera.
1972
rok - Amerykański inżynier elektryk Bushnell stworzył pierwszą
grę komputerową.
Elektroniczne maszyny liczące mogą rozwiązywać problemy logiczne.
Gry komputerowe z punktu widzenia stosowanej przy ich tworzeniu
logiki i sposobu realizacji zadania, można podzielić na : gry
zręcznościowe i strategiczne.
Na
początku lat siedemdziesiątych upowszechnił się w elektronicznym
przetwarzaniu danych międzynarodowy " Multi - User -System".
System ten znany również jako system abonencki, odnosi się do
systemu operacyjnego urządzeń komputerowych. System operacyjny
komputera, to pakiet programów, który kontroluje i steruje
przebiegiem programów użytkowych.
1974
rok - Wraz z modelem " HP 35" amerykańska firma
elektroniczna Hewlett- Packard wypuściła na rynek pierwszy
programowany kalkulator kieszonkowy.
Do kalkulatora dołączono ponad 100 stronicowy, podręcznik obsługi.
Obok objaśnienia sposobu działania skomentowano liczne funkcje
matematyczno - naukowe, które zostały trwale zaprogramowane w
kalkulatorze.
1976
rok - Technika ECL ( Emitter Coupled Logic ) umożliwiła firmie
Motorola wyprodukowanie mikroprocesora
typu 10 800,
który przewyższa wszystkie dotychczasowe układy scalone pod
względem prędkości działania. Układy scalone typu bipolarnego
zmontowano opierając się na logice RTL bądź DTL. Wkrótce musiały
one prawie bez wyjątku ustąpić typowi TTL ( układ tranzystor -
tranzystor logiczny ). Układy TTL miały tranzystory z wieloma
emiterami, które działały na wspólnej bazie i wspólnym
kolektorze. Te tranzystory wielo - emitrowe sterowały tranzystorami
przełącznikowymi, które ze swej strony sterowały systemem trzech
tranzystorów mocy. Technika ECL ( " układ logiczny o
sprzężeniu emiterowym" ) jest nowym wariantem TTL.
1979
- Prawie równocześnie, ale niezależnie od siebie , D.A.B.Miller i
S.D. Smith w Wielkiej Brytanii oraz H.M.Gibbs w USA opisali metodę
produkcji optycznych tranzystorów, tzw. transphasorów.
W swej funkcji odpowiadają one elementom budowy tranzystorów,
uruchamiają jednak strumień protonów a nie elektronów.
Transphasory są pierwszym krokiem w rozwoju systemu optycznego
przekazywania danych i optycznych komputerów. Ich prędkość pracy
przewyższa w znaczący sposób elektroniczny system, gdyż protony
poruszają się szybciej niż elektrony. Daje to możliwość budowy
bardzo szybkich komputerów.
1980
rok - Brytyjscy inżynierowie wprowadzili na rynek komputer
osobisty ( Sinclair ZX - 80).
Japońskie
firmy Sharp, Casio, Sanyo i Panasonic oraz amerykańskie
przedsiębiorstwo Tandy wprowadziły na rynek pierwsze
kieszonkowe komputery.
Te " podręczne' urządzenia mają w zasadzie wszystkie
właciwości dużych komputerów. Jedynie ich pojemność jest ze
względu na wielkość pamięci mniejsza oraz pracują one wolniej
niż duże komputery. Komputery kieszonkowe mają na stałe
zaprogramowane funkcje liczące od działań zakresu podstawowego do
różnych kompleksowych funkcji matematycznych. Obok tego są
zaprogramowane w bardziej rozwiniętym języku komputerowym.
Najczęściej jest to uproszczona wersja rozpowszechnionego języka
programowania BASIC, Urządzenia te współpracują z zewnętrzną
pamięcią i drukarką. Wyposażone są przeważnie w ekran LCD i
wykorzystują monitory telewizyjne.
Najnowocześniejsze
elementy pamięci mają pojemność 64 000 bitów. Układy scalone o
dużej skali integracji mają bardzo szerokie zastosowanie: ROM (
read only memory) mają dane zapisane przez producenta. Można je
tylko odczytywać. PROM ( programmable ROM ) pozwalają na zapis
pewnych funkcji przez użytkownika. Zawartość zachowana jest na
stałe. EPROM ( erasable PROM ) umożliwia kasowanie zawartości
promieniami UV i ponowny zapis nowych danych. EAROM ( electrically
alterable ROM ) pozwala usunąć zapis przy wykorzystaniu do tego
celu sygnałów elektrycznych. Obok układów ROM istnieją także
RAM ( random access mmemory - pamięć o dostępie swobodnym )
pozwalające na wielokrotne zapisywanie i odczytywanie informacji.
Pamięci typu ROM po wyłączeniu zasilania nie tracą zapisanych
informacji, w pamięciach RAM ulegają one zniszczeniu.
1983
rok - Firma Apple zaprezentowała komputer
biurowy Lisa wyposażony w myszkę,
która częściowo zastępuje klawiaturę.
Jako
peryferyjne pamięci dyskowe komputerów osobistych upowszechniły
się w dużym stopniu dyskietki (ang. floppy
disks).
Dyskietka składa się z giętkiego krążka plastikowego pokrytego
nośnikiem magnetycznym i plastikowej mocnej osłonki ( koperty ) z
zamontowaną na ściance wewnętrznej częścią samoczyszczącą lub
też poprawiającą moment obrotowy dysku.
1985 rok - W połowie lat osiemdziesiątych duża część biur
przestawiła się na pracę z wykorzystaniem sprzętu
elektronicznego. Na ogół dla podstawowego wyposażenia normalnego
biura w urzędzie, biura pocztowego czy sekretariatu, nie były to
już żadne maszyny do pisania z pamięcią, lecz komputer biurowy.
1987 rok - W ramach programu węzłowego Niemieckiej Wspólnoty
Badawczej niemieccy naukowcy zajmowali się skonstruowaniem
optyelektronicznego komputera. Tego rodzaju systemy mogą zastąpić
dotychczasową technikę komputerową. Podstawowym materiałem
dzisiejszej elektroniki jest krzem. Jego elektryczne właściwości
pozwalają na produkcję elementów układu, w którym można
przełączać między stanem przewodzącym i nieprzewodzącym. Z
takich łączników buduje się logiczny układ połączeń.
Optoelektronika wykorzystuje łączniki świetlne, które jako
nośniki informacji nie wykorzystują przepływu elektronów, lecz
przepływ fotonów.
1988
rok - Na Uniwersytecie Cambridge w Wielkiej Brytanii powstał
tranzystor,
do którego budowy zastosowano poliacetylen,
który umożliwia zmniejszenie wymiarów obwodu scalonego o 99
%.
Firma
IBM przygotowuje eksperymentalny tranzystor, mniejszy od wszystkich
dotychczasowych.
Międzynarodowy
tytuł arcymistrzowski zdobył pierwszy w świecie komputer "
Deep Thought " ( Głęboka myśl ) symulujący grę w szachy.
Miniona dekada charakteryzuje się nieustannym udoskonalaniem
programów komputerowych do gier strategicznych, w tym do gry w
szachy.
1990 rok - Amerykańska firma AT&T Bell Laboratories przygotowuje
pierwszy na świecie cyfrowy procesor optyczny. W środku każdego
komputera znajduje się procesor, który koordynuje pracę zespołów
komputera. Mikroprocesor jest o wiele mniejszą i bardziej niezależną
odmianą centralnego systemu sterującego, gdyż powierza mu się
kierowanie różnymi, skomplikowanymi urządzeniami
elektronicznymi.
1991
rok - Amerykańska firma Texas Imnstruments zaprezentowała
urządzenie,
dzięki któremu można przedstawić grafikę komputerową w trzech
wymiarach.
Najważniejszą częścią przyrządu jest wirująca skona płyta
szklana, która w następstwie efektu stereoskopowego postrzegana
jest jako pełen cylinder szklany.
Pierwsze
komputery ważyły tony, miały znacznie mniejszą pamięć niż
nowoczesne mikrokomputery oraz zużywały milion razy więcej
energii.