Wyjaśnij pojęcia: Protokoły warstwy aplikacji: HTTP, FTR
HTTP (HyperText Transfer Protocol)
Protokół leżący u podstaw działania World Wide Web. Określa sposób formatowania i przesyłania dokumentów oraz komendy sterujące pracą serwerów internetowych i przeglądarek. Przykładowo, po wpisaniu w przeglądarce URL strony WWW (rozpoczynającego się prefiksem "http://") do serwera zostaje przesłana komenda protokołu HTTP nakazująca odszukanie i wysłanie żądanego dokumentu.
Poważna wadę HTTP stanowi brak możliwości zapamiętywania informacji o wcześniejszych wywołaniach - każde polecenie wykonywane jest niezależnie od wyniku poprzednich. Uniemożliwia to w praktyce tworzenie witryn zdolnych w sposób interaktywny reagować na poczynania użytkownika. Stało się to głównym impulsem do opracowania nowych technologii, które pozwoliłyby ominąć te niedogodności (ActiveX, ASP, CGI, cookie, Java).
Większość przeglądarek oraz serwerów akceptuje najnowszą wersję protokołu - HTTP 1.1. Jedną z najważniejszych cech HTTP 1.1 jest możliwość utrzymywania stałego połączenia między serwerem i klientem. Przeglądarka może teraz w czasie jednego połączenia pobrać z serwera większą liczbę plików, podczas gdy wcześniejsza wersja protokołu wymagała nawiązywania nowego połączenia dla każdego pliku. Osiągnięto w ten sposób blisko 20 procentowe przyśpieszenie ładowania się dokumentów WWW.
FTP (File Transfer Protocol)
Działający na zasadzie klient-serwer protokół umożliwiający przesyłanie plików przez Internet. FTP jest najpopularniejszą metodą kopiowania plików z odległej maszyny do lokalnej lub odwrotnie.
Protokół FTP jest znacznie starszy niż stosowany w sieci WWW protokół HTTP, będąc obecnym w Internecie od samych jego początków (dokładniej - od 1971 roku). Obok poczty elektronicznej i Telnetu jest jedną z trzech podstawowych usług zaprojektowanych dla sieci ARPANet, poprzedniczki Internetu.
Aby użytkownik mógł pobrać plik z komputera znajdującego się w Sieci, konieczne jest, by komputer ten posiadał zainstalowane oprogramowanie zdolne rozpoznawać i realizować tego typu żądania nadchodzące z Internetu. Maszyna spełniająca te warunki nazywana jest serwerem FTP. Użytkownik łączy się z serwerem FTP za pomocą specjalnego programu, nazywanego klientem FTP.
Dawniej, kiedy nie było jeszcze programów graficznych, korzystanie z klienta FTP wymagało opanowania komend pochodzących z języka angielskiego. Przykładem takiego klienta działającego w trybie tekstowym jest dostarczany wraz z systemem Windows 95/98 program ftp.exe - można go uruchomić otwierając menu Start, wybierając polecenie Uruchom i wpisując w otwartym oknie ftp.
Współczesne, okienkowe wersje klientów FTP są już dużo prostsze w obsłudze. Posiadają one zazwyczaj okno podzielone na dwie części - po jednej stronie są widoczne katalogi lokalnego komputera, po drugiej zaś katalogi serwera FTP. Kopiowanie plików przez Internet sprowadza się wówczas do przeciągnięcia myszą ikony pliku między. Do działających na tej zasadzie popularnych klientów FTP należą m.in. programy FlashFXP oraz CuteFTP. Elementy klienta FTP zawierają także przeglądarki, choć pod tym względem nie mogą one równać się z dedykowanymi klientami FTP.
Sesja FTP składa się z trzech części. Pierwsza z nich to zalogowanie się na odległy komputer, kiedy to trzeba podać nazwę użytkownika i hasło. Na ich podstawie serwer FTP identyfikuje użytkownika i przydziela mu na czas sesji określone prawa dostępu do swoich zasobów. Posiadanie konta i związanych z nim odpowiednich uprawnień na komputerze docelowym jest warunkiem koniecznym do rozpoczęcia transmisji jakichkolwiek danych. Konto takie jest przydzielane przez administratora systemu.
Druga część sesji to już "właściwa" praca, podczas której wykonuje się operacje na odległych plikach i katalogach - kopiowanie, przenoszenie, zmiana nazwy, itp. Przed rozpoczęciem transmisji konieczne jest podanie identyfikatora użytkownika oraz hasła zabezpieczających odległy komputer przed niepowołanym dostępem. Na serwerach FTP z dostępem publicznym - tzw. anonimowym FTP - identyfikatorem użytkownika jest zazwyczaj anonymous a hasłem własny adres poczty elektronicznej.
Etap ostatni to zamknięcie sesji poleceniem close. Niektóre serwery wysyłają na zakończenie krótką statystykę, w której zawarte są m.in. informacje o czasie trwania sesji oraz ilości przesłanych danych.
Przesyłanie plików przez FTP może odbywać się na dwa sposoby - binarnie oraz w trybie ASCII. Pierwszy z nich przesyła plik "taki, jaki jest" - bez dokonywania w nim żadnych zmian. Drugi natomiast, w założeniach przeznaczony do transmisji zbiorów tekstowych, modyfikuje sposób kodowania niektórych bajtów. Należy pamiętać, że plik binarny (program, grafika, archiwum ZIP) przesłany w trybie ASCII nie będzie się już do niczego nadawał. Tryb binarny można natomiast bez obaw stosować do transmisji plików tekstowych.
Podobnie jak każdy komputer dostępny w Internecie serwer FTP posiada własny, indywidualny adres pozwalający go jednoznacznie zidentyfikować. Nazwa domenowa bardzo często (nie jest to regułą) rozpoczyna się od członu ftp, po którym następuje domena instytucji bądź firmy utrzymującej dany serwer, np. ftp.microsoft.com
Pełny adres internetowy (URL) wygląda nieco inaczej niż w przypadku serwerów WWW, bowiem zamiast prefiksu http:// jest używany ftp://. Pozostając przy poprzednim przykładzie, URL serwera FTP firmy Microsoft będzie miał postać: ftp://ftp.microsoft.com
Dalsze człony adresu (ścieżka dostępu do katalogu lub pliku) są już budowane podobnie do adresów w sieci WWW, np.: ftp://ftp.microsoft.com/pub/windows98/ie/setup.exe
Powyższe adresy wskazują na serwer anonimowy. Jeżeli dostęp do serwera wymaga podania nazwy użytkownika oraz hasła, należy dołączyć te dane do adresu w następujący sposób: ftp://uzytkownik:haslo@ftp.microsoft.com
Serwer FTP, na którym zgromadzono większą ilość plików udostępnianych określonej grupie użytkowników, jest określany często mianem archiwum FTP. Publiczne (anonimowe) archiwa FTP słyną przede wszystkim z bogatych zbiorów oprogramowania - począwszy od niewielkich rozmiarów programów użytkowych (graficznych, muzycznych, internetowych) poprzez dema gier, uaktualnienia dla pakietów antywirusowych, a skończywszy na całych systemach operacyjnych (np. Linux, FreeBSD).
Podstawową zaletą takich serwisów (oprócz bogactwa zawartości) jest ich aktualność - starannie prowadzone archiwa dysponują zawsze najnowszymi wersjami programów.
Omów instalację dowolnego systemu operacyjnego Linux na własnym komputerze. Podaj dystrybucję i skąd można pobrać daną wersję.
Do zainstalowania dystrybucji systemu potrzebne będą dwie dyskietki 1,44 MB oraz dwie partycje na dysku: Linux Native, czyli partycja, na której znajdą się pliki systemu oraz Linux Swap, czyli partycja pliku wymiany, na którą w przypadku komputera z 16 MB pamięci operacyjnej, powinniśmy przeznaczyć przynajmniej 32 MB przestrzeni dyskowej. Rozmiar partycji Linux Native zależy od tego, jakie elementy dystrybucji zechcemy zainstalować.
Podział dysku na partycje za pomocą standardowych narzędzi, niszczy jego zawartość, istnieją jednak programy do zmiany rozmiarów partycji "w locie" np.: PQMAGIC. Jeśli dysponujemy wystarczającą ilością wolnego miejsca na pierwszej partycji FAT, to do jej podziału bez utraty danych możemy wykorzystać program FIPS znajdujący się na CD-ROM-ie w katalogu LINUX\INSTALL\FIPS. Jeśli dysponujemy już dyskietkami oraz wolnym miejscem na dysku, nie zajętym przez żaden system plików ewentualnie gotowymi partycjami, możemy przystąpić do instalacji systemu.
1. Tworzenie dyskietek startowych. Umieszczamy pierwszą z dyskietek w napędzie i w katalogu LINUX/BOOTDSKS.144 wykonujemy polecenie: "rawrite bare.i a:". Spowoduje to utworzenie dyskietki startowej (nie można jej odczytać z poziomu MS-DOS) z obsługą napędów ATAPI CD-ROM. W katalogu tym znajdują się także obrazy dyskietek przeznaczonych do obsługi innych napędów. W przypadku problemów należy poszukać odpowiedniego obrazu opisanego w pliku readme.txt. Następnie wykonując w katalogu LINUX/ROOTDSKS polecenie: "rawrite color.gz a:" tworzymy drugą z wymaganych dyskietek. Teraz należy wystartować system z pierwszej dyskietki i gdy pojawi się zachęta "boot:" naciskamy Enter. Zostaniemy poproszeni o włożenie do napędu dyskietki "root" (druga dyskietka) i naciśnięcie Enter. Gdy pojawi się pytanie o nazwę użytkownika, wpisujemy "root".
2. Przygotowanie partycji. Partycje przygotowujemy za pomocą programu fdisk. Jeśli dysponujemy już odpowiednimi partycjami, wykorzystujemy opcję "t", do zmiany ich typu odpowiednio na Linux Swap i Linux Native . Jeśli chcemy utworzyć nowe partycje wykorzystujemy dwukrotnie opcję "n". Utworzone w ten sposób partycje są typu Linux Native i za pomocą opcji "t" musimy zmienić typ partycji przeznaczonej na plik wymiany na Linux Swap. Po wykonaniu tych czynności za pomocą opcji "w" wychodzimy z programu z zapamiętaniem zmian.
3. Zamontowanie napędu CD-ROM. Ta część instalacji pozwoli uniknąć problemów osobom, które nie miały dotychczas kontaktu z LINUX-em. W wierszu poleceń należy kolejno wpisać i potwierdzić klawiszem Enter polecenia. W przypadku, gdy napęd jest podłączony do drugiego kontrolera IDE, należy /dev/hdb zastąpić odpowiednio /dev/hdc (master) lub /dev/hdd (slave). System LINUX rozróżnia wielkość liter oraz w nazwach katalogów wykorzystuje znak "/" a nie jak DOS "\".
4. Uruchomienie programu instalacyjnego. Z wiersza poleceń wydajemy komendę "Setup". Z menu wybieramy opcję "ADD SWAP". Jeśli przygotowaliśmy partycję Linux Swap zostanie ona zaproponowana jako partycja pliku wymiany. Oczywiście zgadzamy się na to. Zgadzamy się także na inicjalizację partycji swap oraz kontynuację instalacji. Teraz przygotowujemy partycję Linux Native, wybierając wcześniej przygotowaną partycję i formatując ją za pomocą kolejnych ekranów programu instalacyjnego. Program zapyta, czy chcemy, aby partycje DOS-owe były automatycznie widoczne w systemie LINUX. Jeśli chcemy, to musimy przepisać nazwę partycji z górnej części okienka (np.:/dev/hda1) i po naciśnięciu klawisza Enter podać nazwę, pod jaką partycja ma być widoczna w drzewie katalogów LINUX-a. Po dodaniu wszystkich partycji wpisujemy literę "q" i naciskamy Enter.
5. Określanie położenia plików źródłowych, zestawów dysków oraz instalacja. Kolejnym krokiem jest podanie położenia plików źródłowych do instalacji. Wybieramy instalację z uprzednio zamontowanego katalogu i wpisujemy: "/cd_rom/linux/slakware". Teraz przechodzimy do wyboru zestawów dysków do instalacji. Zestaw A jest podstawowym i jedynym wymaganym zestawem dysków. Inne zestawy zawierają dodatkowe oprogramowanie, kod źródłowy, dokumentację, system X-windows itd. Po zaznaczeniu interesujących zestawów przechodzimy do opcji instalacji. Wybieramy "normal" i rozpoczyna się kopiowanie plików systemu. W czasie kopiowanie bezpieczniej jest odpowiadać twierdząco na pytania o kopiowanie dodatkowych plików. Po zakończeniu kopiowania zostaniemy zapytani o instalację jądra. Wybieramy "skip" i przechodzimy do konfiguracji systemu, w czasie której możemy skonfigurować modem, mysz, fonty, sieć (o ile zainstalowaliśmy odpowiednie zestawy dysków).
6. Instalacja LILO (LInux LOader). Ten etap jest niezwykle ważny, ponieważ LILO pozwala nam na uruchamianie sytemu LINUX, a także innych systemów, które znajdują się na naszych dyskach. Aby zainstalować LILO, musimy wykonać następujące kroki: wybrać z menu "begin" (nie podając dodatkowych parametrów), w tym miejscu musimy zdecydować, czy LILO umieścimy w MBR (Master Boot Record) dysku, czy też w sektorze startowym partycji linuksowej. To drugie rozwiązanie jest bezpieczniejsze i pozwala łatwiej przywrócić stan pierwotny, jednak wymaga ustawienia partycji Linux Native jako aktywnej (np.: DOS-owym fdiskiem). Następnie decydujemy, ile czasu system będzie czekał przed załadowaniem domyślnego sytemu. Kolejną czynnością jest wybranie z menu opcji "linux" przepisanie danych dotyczących partycji dysku z górnej części okienka, a następnie nadanie etykiety startowej. Powtarzamy te czynności dla opcji "dos" i partycji DOS-owej. Wybieramy opcję "install", co spowoduje zainstalowanie LILO. Pozostaje wybrać strefę czasową (Europe/Warsaw), wyjść z programu instalacyjnego i wykonać komendę "reboot". LINUX jest zainstalowany.
Dystrybucję Slackware można pobrać z :
ftp://sunsite.icm.edu.pl/pub/Linux/slackware/
Omów zalety i wady sieci przewodowych
Sieć komputerowa jest to zespół urządzeń przetwarzających dane, które mogą wymieniać między sobą informacje za pośrednictwem mediów transmisyjnych. Urządzeniami działającymi w sieciach mogą być zarówno komputery, drukarki, skanery jak i inne urządzenia. Do transmisji danych między tymi urządzeniami stosowane są kable miedziane, światłowody, podczerwień lub fale radiowe.
Korzyści stosowania sieci komputerowych.
WSPÓŁUŻYTKOWANIE SPRZĘTOWYCH ZASOBÓW SIECI. Zasoby sieci obejmują np. drukarki, plotery oraz urządzenia pamięci masowej. Sieć zapewnia łącza komunikacyjne, pozwalające użytkownikom współdzielić te urządzenia.
WSPÓŁUŻYTKOWANIE BAZ DANYCH. System zarządzania bazami danych jest idealną aplikacją dla sieci. Możliwość blokowania rekordów pozwala wielu użytkownikom na jednoczesny dostęp do pliku bez niszczenia danych. Blokowanie rekordów umożliwia jednoczesną edycję rekordu wyłącznie jednemu użytkownikowi.
WSPÓŁUŻYTKOWANIE PROGRAMÓW I PLIKÓW. Sieciowe wersje dużej części oprogramowania dostępne są w rozsądnej cenie. Program i jego pliki danych przechowywane są w serwerze plików, a dostęp do nich ma wielu użytkowników sieci.
OGRANICZENIE WYDATKÓW NA ZAKUP KOMPUTERÓW. Sieci umożliwiają zakup niedrogich, bezdyskowych stacji roboczych, które - do przechowywania danych - wykorzystują napędy dysków twardych serwera. Jest to sposób na zwiększenie liczby komputerów przy ograniczeniu kosztów.
GRUPY ROBOCZE. Sieć pozwala stworzyć grupy użytkowników, niekoniecznie pracujących w tym samym dziale. Ułatwia to tworzenie nowych struktur poziomych, w których ludzie z różnych i odległych wydziałów uczestnicząca jednym projekcie.
POCZTA ELEKTRONICZNA. Poczta elektroniczna (E-mail) pozwala użytkownikom na łatwe komunikowanie się. Wiadomości umieszczane są w "skrzynkach pocztowych", umożliwiając w ten sposób ich odczyt w dowolnym czasie.
UŁATWIENIA ZARZĄDZANEM ZASOBAMI. Sieć umożliwia zgrupowanie serwerów oraz ich danych wraz z innymi zasobami. Udoskonalenie sprzętu, archiwizacja danych, utrzymywanie systemu i jego ochrona są łatwiejsze w realizacji, gdy urządzenia zgrupowane są w jednym miejscu.
ROZWÓJ ORGANIZACJI. Sieci mogą zmienić strukturę organizacyjną firmy i sposób jej zarządzania. Użytkownicy pracujący w określonych wydziałach nie muszą przebywać w jednym miejscu. Ich biura mogą być ulokowane tam, gdzie to najbardziej uzasadnione. Sieć łączy ich z współpracownikami tego samego wydziału.
Sieci oparte na serwerach nazywa się sieciami typu klient-serwer. W sieciach klient-serwer zasoby często udostępniane gromadzone są w komputerach odrębnej warstwy zwanych serwerami. Serwery zwykle nie mają użytkowników bezpośrednich. Są one komputerami wielodostępnymi, które regulują udostępnianie swoich zasobów szerokiej rzeszy klientów. W sieciach tego typu z klientów zdjęty jest ciężar funkcjonowania jako serwery wobec innych klientów. Sieci oparte na serwerach są dużo bezpieczniejsze niż sieci równorzędne. Przyczynia się do tego wiele czynników. Po pierwsze bezpieczeństwem zarządza się centralnie. Korzyścią wynikającą z centralizacji zasobów jest fakt, że zadania administracyjne, takie jak tworzenie kopii zapasowych, mogą być przeprowadzane stale i w sposób wiarygodny. Ponadto sieci oparte na serwerach charakteryzują się większą wydajnością wchodzących w jej skład komputerów, ze względu na kilka czynników. Po pierwsze - z każdego klienta zdjęty jest ciężar przetwarzania żądań innych klientów. W sieciach opartych na serwerach każdy klient musi przetwarzać jedynie żądania pochodzące wyłącznie od jego głównego użytkownika. Przetwarzanie to jest wykonywane przez serwer, który jest skonfigurowany specjalnie do wykonywania tej usługi. Zwykle serwer cechuje się większą mocą przetwarzania, większą ilością pamięci i większym, szybszym dyskiem twardym niż komputer-klient. Dzięki temu żądania komputerów-klientów mogą być obsłużone lepiej i szybciej.
Łatwą sprawą jest również zmienianie rozmiarów sieci serwerowych, czyli ich skalowania. Niezależnie od przyłączonych do sieci klientów, jej zasoby znajdują się, bowiem zawsze w jednym, centralnie położonym miejscu, Zasoby te są również centralnie zarządzane i zabezpieczane. Dzięki tym zabiegom wydajność sieci jako całości nie zmniejsza się wraz ze zwiększeniem jej rozmiaru.
Jednak i ta sieć ma swoje ograniczenie, którym jest ponoszenie dużych kosztów związanych z zainstalowaniem i obsługą tego rodzaju sieci. Przede wszystkim jest to związane z większymi kosztami sprzętu i oprogramowania, związane z zainstalowaniem dodatkowego komputera, którego jedynym zadaniem jest obsługa klientów. Również koszty obsługi sieci opartych na serwerach są dużo wyższe. Wynika to z potrzeby zatrudnienia wyszkolonego pracownika specjalnie do administrowania i obsługi sieci. W sieciach peer-to-peer każdy użytkownik odpowiedzialny jest za obsługę własnego komputer, w związku, z czym nie potrzeba zatrudniać dodatkowej osoby specjalnie do realizacji tej funkcji. Ostatnią przyczyną wyższych kosztów sieci serwerowej jest większy koszt ewentualnego czasu przestoju. W sieci peer-to-peer każde wyłączenie lub uszkodzenie jednego komputera powoduje niewielkie jedynie zmniejszenie dostępnych zasobów sieci lokalnej. Natomiast w sieci lokalnej opartej na serwerze, uszkodzenie serwera może mieć znaczny i bezpośredni wpływ na praktycznie każdego użytkownika sieci. Powoduje to zwiększenie potencjalnego ryzyka użytkowego sieci serwerowej.
Pierwszą topologią pierścieniową była topologia prostej sieci równorzędnej. Każda przyłączona do sieci stacja robocza ma w ramach takiej topologii dwa połączenia, po jednym ze swoich najbliższych sąsiadów. Połączenie to opierało się na kablu koncentrycznym, przy wykorzystaniu kart sieciowych z wyjściem na BNC, oraz trójnika rozdzielającego sygnał. Połączenie takie musiało tworzyć fizyczną pętlę, czyli pierścień. Dane przesyłane były wokół pierścienia w jednym kierunku. Każda stacja robocza działa podobnie jak wzmacniak, pobierając i odpowiadając na pakiety do niej zaadresowane, a także przesyłając dalej pozostałe pakiety do następnej stacji roboczej wchodzącej w skład sieci. Pierwotna, pierścieniowa topologia sieci LAN umożliwiała tworzenie połączeń równorzędnych między stacjami roboczymi. Połączenia te musiały być zamknięte; czyli musiały tworzyć pierścień. Korzyść płynąca z takich sieci LAN polegała na tym, że czas odpowiedzi był możliwy do ustalenia. Im więcej urządzeń przyłączonych było do pierścienia, tym dłuższy był ów czas. Ujemna strona tego rozwiązania polegała na tym, że uszkodzenie jednej stacji roboczej najczęściej unieruchamiało całą sieć pierścieniową.
Topologię magistrali (szyna, bus) wyróżnia to, że wszystkie węzły sieci połączone są ze sobą za pomocą pojedynczego, otwartego (czyli umożliwiającego przyłączanie kolejnych urządzeń) kabla. Kabel taki obsługuje tylko jeden kanał i nosi nazwę magistrali. Niektóre technologie oparte na magistrali korzystają z więcej niż jednego kabla, dzięki czemu obsługiwać mogą więcej niż jeden kanał, mimo że każdy z kabli obsługuje niezmiennie tylko jeden kanał transmisyjny. Oba końce magistrali muszą być zakończone opornikami ograniczającymi, zwanymi również często terminatorami. Oporniki te chronią przed odbiciami sygnału. Zawsze, gdy komputer wysyła sygnał, rozchodzi się on w przewodzie automatycznie w obu kierunkach. Jeśli sygnał nie napotka na swojej drodze terminatora, to dochodzi do końca magistrali, gdzie zmienia kierunek biegu.
Typowa magistrala składa się z pojedynczego kabla łączącego wszystkie węzły w sposób charakterystyczny dla sieci równorzędnej, długość sieci w tej topologii nie powinna przekroczyć odległości 185 m (licząc od jednego terminatora do drugiego). Kabel ten nie jest obsługiwany przez żadne urządzenia zewnętrzne. Zatem wszystkie urządzenia przyłączone do sieci słuchają transmisji przesyłanych magistralą i odbierają pakiety do nich zaadresowane. Brak jakichkolwiek urządzeń zewnętrznych, w tym wzmacniaków, sprawia, że magistrale sieci lokalnych są proste i niedrogie. Jest to również przyczyną ograniczeń dotyczących odległości, funkcjonalności i skalowalności sieci. Topologia ta jest, więc stosowana praktyczna jedynie dla najmniejszych sieci LAN. Wobec tego obecnie dostępne sieci lokalne o topologii magistrali są tanimi sieciami równorzędnymi udostępniającymi podstawowe funkcje współdziałania sieciowego.
7