|
HISTORIA MASZYN LICZĄCYCH |
Wielu socjologów uważa, że nic nie zmieniło tak życia współczesnego człowieka jak komputery. Można się oczywiście sprzeczać na temat ważności różnych wynalazków i ich wpływu na naszą codzienność, ale nie można zanegować faktu, że komputery na dobre i złe opanowują coraz to nowe dziedziny życia człowieka, a ich głównym zadaniem staje się wspomaganie działań człowieka. Dzisiejsze komputery to nie tylko maszyny liczące wspomagające prace badawcze ale także: kasy fiskalne w naszym sklepie, urządzenia sterujące miliardami połączeń telefonicznych, pomagające w skomplikowanych operacjach bankowych i wykonujące wiele innych działań w przemyśle, medycynie oraz wkraczające coraz częściej do naszych domów. Dla pełnego zrozumienia znaczenia komputerów istotne, a mam nadzieję, że również ciekawe, jest poznanie historii ich rozwoju oraz wpływu na rozwój cywilizacji.
Ludzkość wytwarza coraz więcej informacji. Tak wiele, że jej przetwarzanie, czyli pamiętanie, klasyfikowanie, poszukiwanie, obrazowanie i zestawianie jest ponad ludzkie siły. Dlatego tak duże znaczenie osiągnęły "maszyny", które radzą sobie z tym zadaniem lepiej i szybciej od człowieka - komputery. Komputery, czyli maszyny liczące ( z ang. compute - obliczać ) mają więcej lat niż się na ogół przypuszcza. Za przodków komputera uznać bowiem należy wszystkie urządzenia służące do liczenia.
|
Prawie 5000 lat temu w środkowej Azji powstało urządzenie liczące nazywane Abacus i uznawane za pierwsze mechaniczne urządzenie tego typu. Po polsku nazywamy je liczydłami i o dziwo - liczydła w niektórych regionach świata używane są do dzisiaj. Zbudowane w postaci nanizanych na sztywny pręt przesuwanych w trakcie wykonywania operacji kuleczek lub talerzyków liczyło w kombinowanym systemie dwójkowo-piątkowym. Liczydła straciły nieco swą popularność wraz z upowszechnieniem papieru i pióra. Niemniej jednak przetrwały w niektórych biurach do połowy lat 50-tych naszego wieku ze względu na niewielką cenę i prostotę. Jako ciekawostkę można podać fakt, że w "zawodach" zorganizowanych w 1946 r. w Japonii biegły rachmistrz posługujący się liczydłami był szybszy we wszystkich działaniach za wyjątkiem mnożenia od rachmistrza posługującego się arytmometrem. |
Wiemy, że Leonardo da Vinci był geniuszem, którego pomysły wykraczały daleko poza jego epokę, ale mało kto wie, że próbował on również skonstruować maszynę liczącą. 13 marca 1967 roku amerykańscy naukowcy pracujący w Madrycie w Bibliotece Narodowej Hiszpanii napotkali dwie nieznane dotąd prace Leonarda da Vinci nazwane "Codex Madrid". Dotyczyły one maszyny liczącej. Dr Roberto Guatelli znany ekspert w dziedzinie twórczości Leonarda, tworzący także repliki jego prac postanowił razem ze swoimi asystentami odtworzyć również i tą maszynę. Dokonano tego w 1968 r. jednak dzisiejsze dzieje tej repliki są nieznane i nie wiadomo gdzie ona się znajduje. Specjaliści zarzucali Guatellemu, że w swojej rekonstrukcji nadmiernie kierował się intuicją i współczesną wiedzą oraz, że wyszedł poza projekt Leonarda. Tak więc Leonardo da Vinci - geniusz epoki renesansu wniósł również wkład w rozwój maszyn liczących.
|
W roku 1642, Blaise Pascal (1623 -1662), mający wówczas 18 lat syn francuskiego poborcy podatkowego, skonstruował maszynę liczącą, nazwaną "Pascaline", która miała ułatwić ojcu obliczanie i sumowanie zebranych podatków. Pascal pracował nad nią wiele lat, ulepszał ją i wykonał sam kilkanaście egzemplarzy tego urządzenia. Maszyna Pascala miała tylko możliwość dodawania liczb ośmiocyfrowych |
W 1694 r. niemiecki matematyk i filozof, Gottfried Wilhem von Leibniz (1646 -1716), wykorzystał dowiadczenia Pascala do stworzenia maszyny, która mogła również wykonywać operacje mnożenia. Podobnie jak jego poprzednik, Leibniz wykorzystał do wykonywania operacji system odpowiednio sprzężonych mechanicznie i obracających się przekładni, krążków i dźwigni. Znając z notatek i opisów rozwiązanie Pascala mógł on udoskonalić jego konstrukcję.
W 1820 francuski konstruktor Xavier Thomas de Colmar skonstruował urządzenie nazywane potem popularnie arytmometrem, które mogło wykonywać cztery podstawowe operacje matematyczne. Arytmometry były powszechnie używane do I wojny światowej, a w wielu krajach w znacznie ulepszonej postaci (już jako urządzenia elektryczne) można je było spotkać w biurach i urzędach jeszcze w latach 60-tych naszego stulecia.
Za najwybitniejszego twórcę maszyn liczących, żyjącego przed erą elektroniczną, uważa się Anglika Charlesa Babbage'a (1791 - 1871). Swoją pierwszą maszynę nazwaną - maszyną różnicową, ( gdyż wykonywała obliczenia metodą różnicową ), konstruował przez ponad 10 lat. Trapiony jednak wieloma kłopotami rodzinnymi i finansowymi oraz nie mogąc do końca porozumieć się ze swoim głównym wykonawcą - konstruktorem Clementem zaprzestał dalszych prac nad nią w 1842 roku. Zmontowaną część maszyny (podobno nadal sprawną) można oglądać w Muzeum Nauk w Londynie. Należy dodać, że w odróżnieniu od maszyn Leibniza i Pascala, po ręcznym ustawieniu początkowego stanu, dalsze działania maszyny różnicowej nie wymagają już żadnej ingerencji użytkownika poza kręceniem korbą.
Koniec XIX wieku był początkiem rozwoju urządzeń mechanograficznych, których głównym przeznaczeniem było usprawnienie rachunków statystycznych, księgowych i biurowych. Zaczęło się w Stanach Zjednoczonych od Hermana Holleritha, który postanowił zautomatyzować prace statystyczne związane ze spisem ludności przeprowadzanym wtedy w Stanach co dziesięć lat. Hollerith sięgnął po elektryczność, jako źródło impulsów i energii, rozwinął postać karty perforowanej, na której zapisywano dane i zbudował elektryczny czytnik - sorter kart. Olbrzymim sukcesem Holleritha okazał się spis 1890 roku, którego wyniki zostały całkowicie opracowane za pomocą jego urządzeń na podstawie danych zebranych na jego kartach. W następnych latach Hollerith dostarczał lub wypożyczał swoje urządzenia do przeprowadzenia spisów w wielu krajach, w tym także w Europie, między innymi w Rosji. Na przełomie XIX i XX wieku powstało wiele firm, które początkowo oferowały maszyny sterowane kartami perforowanymi i z latami zyskiwały na swojej potędze a wiele z nich przetrwało do dzisiaj, jak na przykład IBM, Bull, Remington - Rand, Burroughs, a także NCR (kasy), i Bell (telefony). Udoskonalona i znormalizowana karta perforowana przez wiele dziesięcioleci była uniwersalnym nośnikiem informacji, a pierwsze maszyny mechaniczne do przetwarzania danych zapoczątkowały stale rosnący popyt na przetwarzanie informacji.
W latach II wojny światowej Alan Turing został włączony do grupy specjalistów zajmujących się w Wielkiej Brytanii deszyfracją kodów Enigmy - maszyny, którą Niemcy używali do kodowania meldunków i rozkazów rozsyłanych swoim jednostkom na wszystkich frontach. W 1941 roku działalność tej grupy przyczyniła się do zredukowania brytyjskich strat na morzach o 50%. Brytyjscy specjaliści korzystali z materiałów (wśród których był egzemplarz Enigmy oraz maszyna deszyfrująca zwana bombą) przekazanych im w 1939 roku przez grupę Polaków kierowaną przez Mariana Rejewskiego, zajmujących się od pięciu lat skonstruowaniem maszyny deszyfrującej. Chociaż Brtyjczycy udoskonalili maszynę deszyfrującą otrzymaną od Polaków, pozostawała ona nadal maszyną mechaniczną i jej działanie nie nadążało za ciągle udoskonalanymi i zmienianymi przez Niemców egzemplarzami Enigmy. Ocenia się że w szczytowym okresie II wojny światowej Niemcy używali ponad 70 tysięcy maszyn szyfrujących Enigma. Prace nad maszyną deszyfrującą Enigmę przyczyniły się do powstania pod koniec wojny w Wielkiej Brytanii kalkulatorów elektronicznych. Powstało kilka wersji maszyny o nazwie Coloss, których głównym konstruktorem był T.H. Fowers.
Były to już maszyny elektroniczne, w których wykorzystano arytmetykę binarną, sprawdzane były warunki logiczne (a więc można było projektować obliczenia z rozgałęzieniami), zawierały rejestry, mogły wykonywać programy (poprzez uruchomienie tablic rozdzielczych) i wyprowadzać wyniki na elektryczną maszynę do pisania.
W 1941 roku Konrad Zuse ukończył w Niemczech prace nad maszyną Z3, która wykonywała obliczenia na liczbach binarnych zapisanych w reprezentacji, nazywanej dzisiaj zmiennopozycyjną, sterowane programem zewnętrznym podawanym za pomocą perforowanej taśmy filmowej. Maszyna Z3 została całkowicie zniszczona w czasie bombardowania w 1945 roku. Następny model maszyny Zusego, Z4 przetrwał i działał do końca lat pięćdziesiątych.
John von Neumann (1903 - 1957), z pochodzenia Węgier, był w swoich czasach jednym z najwybitniejszych matematyków. W 1946 roku zainspirował on prace w projekcie EDVAC (ang. Electronic Discrete Variable Automatic Computer), których celem było zbudowanie komputera bez wad poprzednich konstrukcji. Zaproponowano architekturę, zwaną odtąd von neumannowską, według której buduje się komputery do dzisiaj. W komputerze von Neumanna można wyróżnić przynajmniej następujące elementy: pamięć złożoną z elementów przyjmujących stan 0 lub 1, arytrometr zdolny wykonywać działania arytmetyczne, logiczne i inne, sterowanie, wprowadzanie danych i wyprowadzanie wyników. Program, czyli zbiór instrukcji, według których mają odbywać się obliczenia, jest wpisywany do pamięci. Kolejne rozkazy programu są pobierane przez jednostkę sterującą komputerem w takt centralnego zegara i rozpoznawane zgodnie z mikroprogramem wpisanym w układ elektroniczny.
Postęp w elektronice umożliwił dalszy rozwój komputerów. W latach sześćdziesiątych lampy zastąpiono tranzystorami. Pierwszy tranzystorowy komputer zbudowano w 1956 roku w Massachusettes Institute of Technology. Z kolei układy scalone zastąpiły tranzystory (układ scalony zawierał w jednej obudowie kilkadziesiąt tranzystorów i innych elementów elektronicznych). Dalszy postęp produkcji tych układów pozwolił umieszczać w jednej "kostce" dziesiątki tysięcy tranzystorów. Obwody takie nazwano układami wielkiej skali integracji (VLSI z ang. - Very Large Scale of Integration).
Wymyślono termin: " generacja komputerów " i nazwano komputery lampowe mianem pierwszej generacji, tranzystorowe - drugiej, zbudowane z układów scalonych - trzeciej, a w technologii VLSI - czwartej. Postęp w technologii produkcji komputerów odbywał się tak szybko, że zaczęto mówić o rewolucji komputerowej. Wprowadzenie na rynek tanich układów scalonych umożliwiło powstanie mikrokomputerów, w których elementy przetwarzające informacje umieszczono w jednym układzie - mikroprocesorze.
Pierwsze komputery osobiste (PC z ang. Personal Computer) zostały opracowane przez IBM. Ponieważ firma ta nie miała nic przeciwko temu, by inne przedsiębiorstwa skorzystały z jej pomysłu i podążyły jej śladem, wielu producentów sprzedaje dziś własne komputery, które jednak są wciąż budowane według tej samej koncepcji firmy IBM. Ponieważ na rynku pojawiało się coraz więcej produktów, zaczęto pisać programy dla tego typu komputerów. Producenci sprzętu odpowiedzieli na to kolejną falą unowocześnionych komputerów typu IBM - PC. Proces ten rozwijał się na zasadzie lawiny: komputery, nowe komponenty i oprogramowanie są obecnie tworzone przez setki najróżniejszych producentów. Tym sposobem PC stał się najbardziej rozpowszechnionym typem komputera na świecie.
Niemal w tym samym czasie, którym narodził się PC, firma Apple zaczęła budować swój własny typ komputera osobistego, dzieło Steve Woźniaka i Steve Jobsa. System Apple nie był jednak zgodny z IBM - PC ani pod względem sprzętu, ani oprogramowania. Swój sukces zawdzięczał on faktowi, iż po raz pierwszy wykorzystano tam graficzny sposób komunikowania się z użytkownikiem bazujący na obrazkach i oknach - na rok przed rozpowszechnieniem się Windows firmy Microsoft. Komputery Apple od samego początku były systemami kompletnymi. Oznaczało to, że w ich przypadku nie było już konieczne kupowanie dodatkowych komponentów, aby na przykład osiągnąć dźwięk odpowiedniej jakości. W przeciwieństwie do ówczesnych komputerów PC - tów, komputery Apple były znacznie prostsze w obsłudze. Mac, jak chętnie nazywa się komputer firmy Apple, szybko stał się ulubionym narzędziem ludzi z kręgów twórczych. Używali go przede wszystkim architekci, muzycy i projektanci, którym najczęściej potrzebny był właśnie wydajny i łatwy w obsłudze komputer. Tak więc Mac wciąż pozostaje główną alternatywą dla komputerów typu IBM - PC, a fakt, iż w porównaniu z PC -tem jest mniej dostępny na rynku, wynika głównie stąd, że firma Apple nie udostępniła nikomu praw do kopii swojego projektu.
Większość producentów skorzystała co prawda z koncepcji peceta firmy IBM, niemniej niektórzy wyłamali się i podążyli własną drogą tworząc komputery osobiste niezgodne ze standardem. Stąd też oprogramowanie stworzone dla typowego komputera PC z reguły nie może być na nich uruchamiane. W zupełnym oderwaniu od standardu IBM - a powstały rozwiązania, które przewyższają pierwowzór czy to pod względem ceny, czy przydatności do gier, czy też obróbki dźwięku czy też grafiki. Niejeden z tego typu systemów był i wciąż jeszcze jest wspaniałym narzędziem, jednakże przeznaczonym wyłącznie dla specjalistów skupiających się na wykonywaniu określonej grupy zadań. Pierwsze komputery ważyły tony, miały znacznie mniejszą pamięć niż nowoczesne mikrokomputery oraz zużywały milion razy więcej energii.
Krótka historia maszyn liczących
Dodany: 2006-11-18
Artykuł napisany głównie na podstawie książki:
Robert Ligonniere: Prehistoria i historia komputerów. Od początków rachowania do pierwszych kalkulatorów elektronicznych. Przeł. R. Dulinicz. Ossolineum. Wrocław 1992.
Dzisiejszy wielofunkcyjny komputer wywodzi się z mechanicznych maszyn liczących, których poprzednikami były proste przyrządy do rachowania. Najstarszy z nich- abak, tabliczka do liczenia, znana w wielu wersjach- powstał, tak jak pismo, na Bliskim Wschodzie, między Mezopotamią a Indiami, w III tysiącleciu p.n.e. W tym samym czasie w Chinach zaczęto używać liczydła zwanego suanpan. W I w. p.n.e. Heron z Aleksandrii skonstruował pierwsze mechaniczne urządzenie liczące. Nie wykonywało ono jednak działań matematycznych, lecz odmierzało drogę przebytą przez pojazd kołowy. W 1275 roku hiszpański mnich Raimundus Lullus opisał maszynę, która miałaby logicznie wnioskować. Mogłaby między innymi udowodnić istnienie Boga. Taka maszyna była oczywiście niemożliwa do skonstruowania.
Konstrukcję bardziej skomplikowanych urządzeń ograniczał w Europie nie tylko niewystarczający rozwój techniki, ale również stan wiedzy matematycznej. Rzymski system zapisu cyfr nie posiadał tak z pozoru błahego drobiazgu jak cyfra zero. Dopiero w II połowie X w. mnich Gerbert z Aurillac przystosował arabski system zapisu cyfr, stworzył tabliczkę mnożenia i udoskonalił abak. Jego propozycja mogłaby pozostać niedostrzeżona, gdyby Gerbert nie został papieżem i jako Sylwester II nie zaczął rozpowszechniać w całej chrześcijańskiej Europie systemu numeracji dziesiętnej. Kolejnym wynalazkiem, który przyczynił się do rozpowszechnienia cyfr arabskich, był w XV w. druk. Drukarze ujednolicili formę cyfr i zaczęli stosować je w wydawnictwach książkowych.
Niemiec Wilhelm Schickard zaprojektował urządzenie liczące już w 1623 r. Za wynalazcę pierwszej mechanicznej maszyny liczącej uchodzi jednak powszechnie Francuz Blaise Pascal, który opracował jej prototyp w 1641 r. Odniósł też duży sukces komercyjny sprzedając ok. 50 egzemplarzy swojego wynalazku. Do rozwoju maszyn liczących przyczynił się też inny filozof- Gottfried Leibniz- który koncepcję urządzenia, opartego na systemie binarnym, opracował ok. 1670 r., zaś pierwszy egzemplarz wypuścił w 1694 r. W konstruowaniu maszyn liczących mieli także udział mieszkańcy ziem Polski i Litwy wyznania mojżeszowego. Jewna Jacobson, zegarmistrz z Nieświeża, skonstruował takie urządzenie ok. 1770 r., zaś Abraham Stern ok. 1810 r. Maszyny Sterna wykonywały cztery działania i wyciągały pierwiastki kwadratowe. W jednym z modeli wystarczyło wprowadzić dane, maszyna zaś sama wykonywała obliczenia i podawała wyniki. Urządzenia Sterna były jednak zbyt delikatne i nie znalazły szerszego zastosowania.
W roku 1725 miał miejsce inny ciekawy wynalazek- Francuz Basile Bouchon stworzył pierwszą maszynę programowaną przy użyciu nośnika pamięci. Nie była ona jednak związana z obliczeniami, lecz z przemysłem tkackim. W krosnach zastosował perforowany papier (dziurkowany) papier, który podnosił lub opuszczał odpowiednie igły, tworząc wzór tkaniny. Perforowane karty, jako nośnik pamięci, były stosowane w komputerach jeszcze w latach 70-tych XX wieku. Na początku XIX w. udoskonalone krosna, sterowane kartami perforowanymi, skonstruował również Francuz Joseph Marie Jacquard
Masowa produkcja mechanicznych maszyn liczących sięga roku 1820 i arytmometru Thomsona. W 1830 r. Charles Babbage opracował koncepcję maszyny różnicowej, która miała drukować wyniki na papierze. Opierając się na opisach Babbage'a Ada Augusta King, hrabina Lovelace, córka Lorda Bayrona, napisała w 1842 r. programy przeznaczone na maszynę analityczną. Urządzenie liczące, związane z przetwarzaniem danych, skonstruował w latach 80-tych XIX wieku Amerykanin Herman Hollerith. Pierwotnie służyło ono do opracowywania danych z powszechnych spisów ludności. Na perforowanych kartach zaznaczano dziurkami odpowiedzi na pytania. Igły w czytniku przechodziły przez otwory, wywołując impuls elektryczny, odbierany przez licznik. Hollerith założył w 1896 r. pierwsze przedsiębiorstwo przemysłowe o charakterze informatycznym, produkujące oczywiście jego maszyny. W roku 1924 firma otrzymała używaną do dziś nazwę IBM.
Warto też wspomnieć o innym XIX-wiecznym wynalazku- telegrafie. Telegraf szybko posłużył do przesyłania tekstu na odległość przy użyciu alfabetu Morse'a i można traktować go jako prekursora internetu. Rozwijał się bardzo szybko. W Stanach Zjednoczonych w roku 1854 było już 25 tysięcy kilometrów linii telegraficznych. Pierwsze udane połączenie Europy i Stanów Zjednoczonych kablem telegraficznym nastąpiło w 1866 r. Idea przesyłania danych za pomocą impulsów elektrycznych została jednak zastosowana w maszynach liczących dopiero w latach 60-tych XX wieku.
Rozwojowi urządzeń liczących w XX wieku sprzyjało zastosowanie binarnego systemu zapisu liczb, w którym do wyrażenia dowolnej liczby wystarczą dwa znaki. System taki znano już w Egipcie około roku 1650 p.n.e. w Europie pierwsze zapisy binarne w matematyce pojawiły się ok. 1600 r. Duży udział w rozwoju tego systemu miał też Leibniz.
Teoretyczny model współczesnego komputera przedstawił w 1936 r. Alan Turing. Koncepcję tę nazwano na jego cześć maszyną Turinga. W tym sammy czasie John von Neumann zaproponował oparcie komputerów na systemie binarnym. W roku 1945 Neumann przedstawił koncepcję programu umieszczanego w pamięci komputera. Norbert Wiener w latach 40-tych stworzył podwaliny nowej nauki- cybernetyki, która zajmuje się systemami sterowania oraz przetwarzaniem i przekazywaniem informacji.
Elektroniczne maszyny liczące zaczęto konstruować w latach 30-tych XX wieku. Jednym z pierwszych komputerów elektronicznych, a z pewnością najsłynniejszym, był amerykański ENIAC, którego budowę rozpoczęto w 1943 r. Impulsem do jego powstania stała potrzeba rozwiązywania na rzecz wojska skomplikowanych problemów balistycznych. ENIAC był ogromnych urządzeniem. Składał się z 18 000 tysięcy lamp, 70 000 oporników, 10 000 kondensatorów, 500 000 łączówek. Ważył 3 tony i pobierał 900 KW energii. Pierwsze maszyny liczące były warte kilkaset tysięcy dolarów i spełniały zadania wojskowe oraz matematyczne. Od nich rozpoczyna się historia współczesnych komputerów.