Historia komputerów referat


Historia komputerów

Pierwowzorem maszyn liczących są używane w X. w. p.n.e. systematyczne metody znajdowania wyniku najprostszych operacji za pomocą specjalnie przygotowanych i poukładanych kamieni. Początkowo kamienie układano w rzędach na piasku tworząc w ten sposób plansze obliczeniowe, zwane abakami (lub abakusami). Później zaczęto nawlekać kamienie na pręty, tworząc liczydła.

W XVI w. powstał pierwsza mechaniczna maszyna do liczenia, stworzona przez Wilhelma Schickarda.

1642 rok - Blaise Pascal skonstruował jedną z pierwszych maszyn matematycznych- sumator arytmetyczny, zwany też pascaliną.

W XVI w. Gottfried Wilhelm Leibniz skonstruował pierwszą mechaniczną maszynę mnożącą.

1822 rok - Brytyjski matematyk Charles Babbage zaprezentował model maszyny różnicowej, który miał różnice drugiego rzędu i osiem miejsc po przecinku. Zajął się on następnie maszyną o różnicach siódmego rzędu i 290 miejscach po przecinku, poniósł jednak porażkę przy rozwiązywaniu problemu wykonania skomplikowanego napędu zębatego.

1833 rok - Charles Babbage przedstawił pomysł pierwszej cyfrowej maszyny analitycznej. Nie została ona nigdy zbudowana. Projekt przewidywał jednak istotne składniki nowoczesnego przetwarzania danych.

1930 rok - W Massachusetts Institute of Technology w Cambridge (USA) grupa naukowców pod kierownictwem inżyniera elektryka Vannevara Busha konstruuje pierwszy pracujący elektromechanicznie komputer analogowy- analizator różniczkowy.

1936 rok -Francuz R. Valtat zgłosił do opatentowania maszynę liczącą, której zasada działania oparta była na systemie dwójkowym.

1937 rok-Niemiec Konrad Zuse zbudował elektromechaniczną maszynę liczącą opartą na systemie dwójkowym- Z1.

1940 rok - Alianci zbudowali pierwszą nadającą się do użytku maszynę deszyfrującą.

1941 rok - Niemiecki inżynier Konrad Zuse zaprezentował swoją cyfrową maszynę liczącą "Zuse Z3".Była to pierwsza sterowana programowo maszyna matematyczna ,o wysokich parametrach eksploatacyjnych. "Zuse Z3" posiadała binarny mechanizm liczący z prawie 600 przekaźnikami jako bistabilnymi elementami i pamięcią z około 1400 przekaźnikami.

1942 rok- Amerykanin John V. Atanasoff ukończył pierwszą sprawną elektroniczną maszynę liczącą w technice lampowej. Jest to pierwsza maszyna w której użyto wyłącznie elementy elektroniczne. Liczby zapamiętywane były w układzie dziesiętnym.

1943 rok - Niemiecki inżynier Henning Schreyer zgłosił do opatentowania pełnoelektroniczną pamięć i urządzenie liczące z lampami jarzeniowymi. Schreyer od 1937 r. wspólnie z Konradem Zuse zajmował się konstruowaniem układu połączeń lampowych do przetwarzania danych. Teraz opracował on ideę budowy pełnoelektronicznej maszyny liczącej. Jednak w czasie wojny w Niemczech brakowało John von Neumannśrodków na realizację jego planów.

1944 rok - Węgiersko-amerykański matematyk i chemik John von Neumann rozpoczął próby z modelem pierwszej maszyny liczącej z pamięcią EDVAC (Electronic Discrete Variable Automatic Computer). W urządzeniu kodowano program, składający się z serii pojedynczych instrukcji. Program zawierał instrukcje warunkowe, które umożliwiały tworzenie pętli. Każda instrukcja programowa mogła być zmieniona przez samą maszynę, jak każdy inny argument operacji. Z takim sposobem działania maszyna zdecydowanie górowała nad wszystkimi dotychczasowymi maszynami matematycznymi.

Fizyk Howard Hathaway oddał do użytku na Uniwersytecie Harvarda cyfrową maszynę liczącą. Nazywała się MARK I bądź ASCC - miała potężne wymiary i była pierwszą sterowaną programowo maszyną liczącą USA.

1945 rok - Na Uniwersytecie Pensylwania uruchomiono pierwszą wielką elektroniczną maszynę liczącą wiata ENIAC (Electronic Numerical Integrator and Computer). Zbudowana została przez Johna Prespera Eckerta i Johna Williama Mauchly. Do czasu aż wszystkie jej zespoły stały się całkowicie zdolne do użytku, minęły jeszcze dwa lata. Wielka maszyna matematyczna wyposażona była w lampy elektronowe i liczyła 2000 razy szybciej niż komputer z elektromechanicznymi przekaźnikami. ENIAC zajmował powierzchnię zasadniczą 140 m.kw., posiadał przeszło 18000 lamp elektronowych, 1500 przekaźników i zużywał 150 kW mocy.

Niemiecki inżynier Konrad Zuse zakończył prace nad swoją maszyną liczącą " Zuse Z4". Komputer był rozwinięciem poprzedniego typu Z3.

W 1946 roku John von Neumann zaproponował architekturę, według której są budowane komputery do dnia dzisiejszego- architekturę von neumannowską. W pamięci komputera przechowywane miały być zarówno dane podlegające danych przetwarzaniu, jak i program, który te dane miał przetwarzać. Porzucono więc wreszcie programowanie sprzętowe i zastąpiono je programowaniem wewnętrznym, poprzez umieszczenie w pamięci maszyny programu sterującego przetwarzaniem danych. Architektura von neumannowska wyróżniała trzy elementy składowe: pamięć złożoną z elementów przyjmujących stany 0 i 1, arytmometr wykonujący działania arytmetyczno-logiczne i jednostkę sterującą. Wszystkim sterował program umieszczany w pamięci. Stanowiło to przełom w stosunku do wcześniejszych koncepcji, w których program zapisywano na kartach perforowanych i bezpośrednio z nich odczytywany i uruchamiany. W maszynie von neumannowskiej program i dane znajdowały się w pamięci fizycznej, a program mógł modyfikować zawartość pamięci i samego siebie. Program był ciągiem instrukcji pobieranych i rozpoznawanych przez jednostkę sterującą w takt zegara. Praca maszyny oparta była na modelu maszyny Turinga, Neumann znał jej schemat teoretyczny.

W 1949 roku w oparciu o tę architekturę powstaje komputer EDSAC.

1947 rok - W Stanach Zjednoczonych zbudowano maszynę liczącą " Mark II " w technice przekaźnikowej.

W tym samym Amerykańska firma IBM buduje komputer SSEC z 12500 lampami i 21400 przekaźnikami. Jest on sterowany za pomocą tamy dziurkowanej. Umożliwiono ingerencję w program.

1948 rok - W toku rozwoju elektronicznych maszyn liczących, opartych na dwójkowym systemie liczbowym, znaczenie praktyczne zyskuje ugruntowana już przed ok. stu laty algebra Boole'a. Posługuje się ona wartościami logicznymi "Tak / Nie" lub " 0 / 1". Ten " krok binarny" określa matematyk John W. Tukey jako " bit" ( binarny digit ). Bit staje się jednostką informacji w przetwarzaniu danych.

IBM 604 jest pierwszą dużą maszyną liczącą sterowaną tamą perforowaną.

1949 rok - Na Uniwersytecie Manchester ( Anglia ) pod kierownictwem Maurica V. Wilkesa skonstruowano po trzech latach pierwszy komputer lampowy z programowalną pamięcią EDSAC ( Electronic Delay Storage Automatic Computer ). Powstaje on według architektury von neumannowskiej.

W tym samym czasie IBM uruchamia w Nowym Jorku pod kierownictwem Johna Prespera Eckerta układ z programowalną pamięcią - SSEC ( Selective Sequence Electronic Calculator).

EDSAC pracuje z 4500 lampami elektronowymi, a SSEC z 12500 lampami elektronowymi i 21400 przekaźnikami. Nowością w tych komputerach jest to, że tak przebieg programu jak i obróbka danych są zakodowane w pamięci maszyny, program zawiera rozkazy warunkowe, które umożliwiają rozgałęzienia i skoki i wreszcie każdy rozkaz programowy z operacyjną częścią adresową może samodzielnie zmienić.

Koncepcję tych komputerów opracował już w 1944 r. matematyk amerykański pochodzenia węgierskiego John von Neumann. Jednakże jego urządzenie EDVAC rozpoczyna pracę dopiero w roku 1952. Np. w 1945 r. Zuse sformułował ogólny algorytmiczny język formuł, który uwzględniał możliwe warianty programowania pamięci. Pod koniec lat czterdziestych pojawiają się w elektrotechnice drukowane połączenia. Ścieżki przewodzące są drukowane za pomocą lakieru odpornego na kwasy na cienkiej płytce izolatora ( żywica epoksydowa ) z naniesioną warstwą miedziową.

1950 rok - " Univac I " firmy Eckert and Mauchly Computer Company jest komputerem produkowanym seryjnie.

Komputer " Mark III " używa tamy magnetycznej zamiast kart perforowanych.

1951 rok - Na Uniwersytecie Harwarda w Cambridge ( Massachusetts ) matematyk Howard H. Aiken uruchomił swoją maszynę cyfrową MARK III. Urządzenie to było kontynuacją urządzeń poprzednich MARK I i MARK II, które Aiken budował już od roku 1939.

1952 rok - Howard H. Aiken uruchomił w USA lampową maszynę liczącą MARK IV.

1954 rok - J.W. Backus stworzył język komputerowy FORTRAN ( formula translator ). Umożliwia on dialog pomiędzy użytkownikiem a bankiem danych bez konieczności korzystania z pomocy programisty. FORTRAN jest skomplikowanym językiem komputerowym, który nie tylko przekazuje maszynie polecenia, lecz zawiera w sobie szereg wzorów ułatwiających programowanie.

1955 rok - W Bell Telephone Laboratory w USA rozpoczęła pracę pierwsza tranzystorowa maszyna licząca " Tradic " skonstruowana przez zespół pod kierownictwem J. H. Felkera.

Wkrótce pojawiły się na rynku tranzystorowe komputery (" 7090 IBM" i "Gamma 60 Bull ").

1956 rok - Niemiecka firma Zuse KG rozpoczęła seryjną produkcję maszyn liczących " Zuse Z 11".

W Bell Laboratory wykonano tranzystorowy komputer " Leprechaun".

IBM ( International Business Machines Corporation ) zbudował komputer na płycie magnetycznej.

1958 rok - Opracowano komputerowy język programowania ALGOL ( Algorithmic Language ). Podobnie jak FORTRAN - ALGOL jest językiem problemowo zorientowanym, ale nie bardziej niż te, które są specjalistycznymi językami naukowo-technicznymi. Ma on inną strukturę niż FORTRAN.

1960 rok - Zostaje opracowany język programowania COBOL ( Common Business Oriented Language ). COBOL używa stosunkowo dużej liczby symboli słownych.

1961 rok - IBM przedstawia swoją metodę " Tele - processing". Za pomocą tej metody dane, przekazywane poprzez telefon, przetwarzane są bezpośrednio przez komputer. Zwiastuje to technikę o zasięgu krajowym, a nawet światowym. Zasada jest prosta. Każdy komputer współpracuje z tzw. urządzeniami peryferyjnymi. Należą do nich jednostki wprowadzania i wyprowadzania informacji. Jednostkami wprowadzania mogą być np. klawiatura, czytnik kart dziurkowanych czy magnetycznych. Jako jednostki wyprowadzania informacji wchodzą w rachubę drukarki, monitory ekranowe, dziurkarki czy magnetofony.

1962 rok - Maleńkie tranzystory zwiększają prędkość elektronicznego przetwarzania danych ( trzecia generacja komputerów ).

American Airlines wprowadza na komputerze międzynarodowy system rezerwacji lotów oparty na zdalnym przetwarzaniu danych.

1963 rok - Firma IBM buduje szybką drukarkę wierszową " IBM 1403 ", przystosowaną do pracy z komputerem, która pisze 600 wierszy w ciągu minuty.

Nowością w tym urządzeniu jest układ czcionek. Są one umieszczone na łańcuchu, będący w stałym obiegu, poprzecznie do kierunku ruchu. Łańcuch porusza się poziomo przed papierem do zadrukowania. Magnesy odbijające przyciskają poszczególne czcionki przez kolorową tamę do powierzchni zadrukowywanej wtedy, gdy czcionka, wybrana przez komputer, znajduje się w odpowiednim położeniu.

1965 rok - Nowe dziedziny dla zastosowania komputera docierają do wiadomości społecznej: w Berlinie zostaje uruchomiony pierwszy w Europie komputer do kierowania ruchem drogowym, a z okazji wyborów do Bundestagu przed zliczeniem głosów komputer opracowuje prognozy wyników wyborów.

1966 rok - Wynaleziono nowy typ pamięci dla elektronicznych urządzeń przetwarzania danych. Pamięć składa się z warstwy kryształów granatu grubości 1 µm, z domieszką żelaza, która przez epitaksję naniesiona jest na nienamagnesowany granat. Namagnesowanie określonego miejsca pamięci jest oceniane jako " 1", jego brak jako " 0 ".

1967 rok - Anglik Norman Kitz zaprezentował " Anita Mark 8 " pierwszą elektroniczną biurkową maszynę matematyczną. Wynalazek Kitza był możliwy dzięki osiągnięciom dokonanym w tym zakresie w USA w 1965 roku.

1968 rok - Monolityczne układy przełączające zastępują minitranzystory i hybrydowe układy scalone. Zaczyna się czwarta generacja komputera. Podczas gdy komputery drugiej generacji wykonywały na sekundę 1300 dodawań, a trzeciej 160 000 dodawań, to nowe urządzenia wykonują ponad 300 000.

IBM zbudowało pierwszą elektroniczną maszynę liczącą " System 360 " w technice monolitu, a więc przy zastosowaniu zintegrowanych układów.

1969 rok - Informatyk Cragon w USA tworzy tzw. LSI- komputer celem zastosowania go w dziedzinie geofizyki. LSI znaczy Large Scale Integration, a więc integracja na dużą skalę. W zintegrowanych połączeniach stopień integracji daje informację odnośnie liczby elementów układu na jednostkę powierzchni. Zazwyczaj jest on podawany w ilości funkcji tranzystorowych na " chip" ( chip - struktura półprzewodnikowa ).

1971 rok - Texas Instruments wyprodukował pierwszy kalkulator kieszonkowy wykorzystując do tego pierwszy mikroprocesor. Zasada działania kalkulatora z mikroprocesorem daje się porównać z zasadą działania większych komputerów. Różnice polegają na mniejszych i bardziej ograniczonych możliwościach, mniejszych wymiarach, mniejszej ilości i prostszych urządzeniach peryferyjnych i mniejszych kosztach wytwarzania kalkulatora kieszonkowego. Mieści w sobie, obok mikroprocesora również inne zintegrowane z nim obwody, m.in. pamięć.

IBM opracował stacje przetwarzania danych sprzężone z centralą elektronicznego przetwarzania danych, tzw. terminale. Terminale składają się przeważnie z monitora i klawiatury, pozwalają wielu oddalonym od siebie użytkownikom na dostęp do centralnego urządzenia obliczeniowego.

W USA powstał pierwszy mikroprocesor na świecie MCS - 4 ( PMOS ) wyprodukowany przez firmę Intel. Mikroprocesor jest układem scalonym tzn. obejmuje on w sobie funkcje od 5000 do 100 000 tranzystorów. Spełnia zadanie tzw. jednostki centralnej w komputerach ( CPU - Central Processing Unit ). CPU zajmuje się centralnym sterowaniem przebiegu i koordynacją całego systemu komputera, wydając na zewnątrz ( najczęściej ) sekwencyjnie poszczególne rozkazy zapamiętywanego programu. Mikroprocesor taki, będący scaloną jednostką funkcyjną, jest tylko częścią mikrokomputera.

1972 rok - Amerykański inżynier elektryk Bushnell stworzył pierwszą grę komputerową. Elektroniczne maszyny liczące mogą rozwiązywać problemy logiczne. Gry komputerowe z punktu widzenia stosowanej przy ich tworzeniu logiki i sposobu realizacji zadania, można podzielić na : gry zręcznościowe i strategiczne.

Na początku lat siedemdziesiątych upowszechnił się w elektronicznym przetwarzaniu danych międzynarodowy " Multi - User -System". System ten znany również jako system abonencki, odnosi się do systemu operacyjnego urządzeń komputerowych. System operacyjny komputera, to pakiet programów, który kontroluje i steruje przebiegiem programów użytkowych.

1974 rok - Wraz z modelem " HP 35" amerykańska firma elektroniczna Hewlett- Packard wypuściła na rynek pierwszy programowany kalkulator kieszonkowy. Do kalkulatora dołączono ponad 100 stronicowy, podręcznik obsługi. Obok objaśnienia sposobu działania skomentowano liczne funkcje matematyczno - naukowe, które zostały trwale zaprogramowane w kalkulatorze.

1976 rok - Technika ECL ( Emitter Coupled Logic ) umożliwiła firmie Motorola wyprodukowanie mikroprocesora typu 10 800, który przewyższa wszystkie dotychczasowe układy scalone pod względem prędkości działania. Układy scalone typu bipolarnego zmontowano opierając się na logice RTL bądź DTL. Wkrótce musiały one prawie bez wyjątku ustąpić typowi TTL ( układ tranzystor - tranzystor logiczny ). Układy TTL miały tranzystory z wieloma emiterami, które działały na wspólnej bazie i wspólnym kolektorze. Te tranzystory wielo - emitrowe sterowały tranzystorami przełącznikowymi, które ze swej strony sterowały systemem trzech tranzystorów mocy. Technika ECL ( " układ logiczny o sprzężeniu emiterowym" ) jest nowym wariantem TTL.

1979 - Prawie równocześnie, ale niezależnie od siebie , D.A.B.Miller i S.D. Smith w Wielkiej Brytanii oraz H.M.Gibbs w USA opisali metodę produkcji optycznych tranzystorów, tzw. transphasorów. W swej funkcji odpowiadają one elementom budowy tranzystorów, uruchamiają jednak strumień protonów a nie elektronów. Transphasory są pierwszym krokiem w rozwoju systemu optycznego przekazywania danych i optycznych komputerów. Ich prędkość pracy przewyższa w znaczący sposób elektroniczny system, gdyż protony poruszają się szybciej niż elektrony. Daje to możliwość budowy bardzo szybkich komputerów.

1980 rok - Brytyjscy inżynierowie wprowadzili na rynek komputer osobisty ( Sinclair ZX - 80).

Japońskie firmy Sharp, Casio, Sanyo i Panasonic oraz amerykańskie przedsiębiorstwo Tandy wprowadziły na rynek pierwsze kieszonkowe komputery. Te " podręczne' urządzenia mają w zasadzie wszystkie właciwości dużych komputerów. Jedynie ich pojemność jest ze względu na wielkość pamięci mniejsza oraz pracują one wolniej niż duże komputery. Komputery kieszonkowe mają na stałe zaprogramowane funkcje liczące od działań zakresu podstawowego do różnych kompleksowych funkcji matematycznych. Obok tego są zaprogramowane w bardziej rozwiniętym języku komputerowym. Najczęściej jest to uproszczona wersja rozpowszechnionego języka programowania BASIC, Urządzenia te współpracują z zewnętrzną pamięcią i drukarką. Wyposażone są przeważnie w ekran LCD i wykorzystują monitory telewizyjne.

Najnowocześniejsze elementy pamięci mają pojemność 64 000 bitów. Układy scalone o dużej skali integracji mają bardzo szerokie zastosowanie: ROM ( read only memory) mają dane zapisane przez producenta. Można je tylko odczytywać. PROM ( programmable ROM ) pozwalają na zapis pewnych funkcji przez użytkownika. Zawartość zachowana jest na stałe. EPROM ( erasable PROM ) umożliwia kasowanie zawartości promieniami UV i ponowny zapis nowych danych. EAROM ( electrically alterable ROM ) pozwala usunąć zapis przy wykorzystaniu do tego celu sygnałów elektrycznych. Obok układów ROM istnieją także RAM ( random access mmemory - pamięć o dostępie swobodnym ) pozwalające na wielokrotne zapisywanie i odczytywanie informacji. Pamięci typu ROM po wyłączeniu zasilania nie tracą zapisanych informacji, w pamięciach RAM ulegają one zniszczeniu.

1983 rok - Firma Apple zaprezentowała komputer biurowy Lisa wyposażony w myszkę, która częściowo zastępuje klawiaturę.

Jako peryferyjne pamięci dyskowe komputerów osobistych upowszechniły się w dużym stopniu dyskietki (ang. floppy disks). Dyskietka składa się z giętkiego krążka plastikowego pokrytego nośnikiem magnetycznym i plastikowej mocnej osłonki ( koperty ) z zamontowaną na ściance wewnętrznej częścią samoczyszczącą lub też poprawiającą moment obrotowy dysku.

1985 rok - W połowie lat osiemdziesiątych duża część biur przestawiła się na pracę z wykorzystaniem sprzętu elektronicznego. Na ogół dla podstawowego wyposażenia normalnego biura w urzędzie, biura pocztowego czy sekretariatu, nie były to już żadne maszyny do pisania z pamięcią, lecz komputer biurowy.

1987 rok - W ramach programu węzłowego Niemieckiej Wspólnoty Badawczej niemieccy naukowcy zajmowali się skonstruowaniem optyelektronicznego komputera. Tego rodzaju systemy mogą zastąpić dotychczasową technikę komputerową. Podstawowym materiałem dzisiejszej elektroniki jest krzem. Jego elektryczne właściwości pozwalają na produkcję elementów układu, w którym można przełączać między stanem przewodzącym i nieprzewodzącym. Z takich łączników buduje się logiczny układ połączeń. Optoelektronika wykorzystuje łączniki świetlne, które jako nośniki informacji nie wykorzystują przepływu elektronów, lecz przepływ fotonów.

1988 rok - Na Uniwersytecie Cambridge w Wielkiej Brytanii powstał tranzystor, do którego budowy zastosowano poliacetylen, który umożliwia zmniejszenie wymiarów obwodu scalonego o 99 %.

Firma IBM przygotowuje eksperymentalny tranzystor, mniejszy od wszystkich dotychczasowych.

Międzynarodowy tytuł arcymistrzowski zdobył pierwszy w świecie komputer " Deep Thought " ( Głęboka myśl ) symulujący grę w szachy. Miniona dekada charakteryzuje się nieustannym udoskonalaniem programów komputerowych do gier strategicznych, w tym do gry w szachy.

1990 rok - Amerykańska firma AT&T Bell Laboratories przygotowuje pierwszy na świecie cyfrowy procesor optyczny. W środku każdego komputera znajduje się procesor, który koordynuje pracę zespołów komputera. Mikroprocesor jest o wiele mniejszą i bardziej niezależną odmianą centralnego systemu sterującego, gdyż powierza mu się kierowanie różnymi, skomplikowanymi urządzeniami elektronicznymi.

1991 rok - Amerykańska firma Texas Imnstruments zaprezentowała urządzenie, dzięki któremu można przedstawić grafikę komputerową w trzech wymiarach. Najważniejszą częścią przyrządu jest wirująca skona płyta szklana, która w następstwie efektu stereoskopowego postrzegana jest jako pełen cylinder szklany.

Pierwsze komputery ważyły tony, miały znacznie mniejszą pamięć niż nowoczesne mikrokomputery oraz zużywały milion razy więcej energii.



Wyszukiwarka

Podobne podstrony:
Historia komputerów referat
Grafika komputerowa referat
referaty Historia Kultury, referat o chłopach na hk, historia mydła
Historia Komputera
Historia Komputera
1 Historia komputeryzacji
Historia komputerów(1)
historia komputera
Historia komputerów
1a Historia komputera stara
INFORMATYKA sieci komputerowe REFERAT
HISTORIA KOMPUTERA 2
sieci komputerowe referat
68 Sieci komputerowe referat
Historia komputera
1. Historia komputerów (06.10.08), HISTORIA KOMPUTERÓW
Historia komputerów (2)

więcej podobnych podstron