mgr.inż - Internet jako źródło informacji dla elektroenergetyki, ۞ Nauka i Technika, Elektrotechnika, Maszyny elektryczne


P O L I T E C H N I K A R A D O M S K A

im. Kazimierza Pułaskiego

WYDZIAŁ TRANSPORTU

Kierunek: .Transport

Specjalność: Energoelektronika Przemysłowa

Praca magisterska

Tytuł pracy Internet jako źródło informacji dla elektroenergetyki

Promotor: dr Autor:

Radom 2006

Rozdział 1. Historia Internetu i jego zastosowania w gospodarce.

1.1. Wprowadzenie.

Sama nazwa internetu wywodzi się z języka angielskiego i jest związana dwoma słowami. Jest to wzajemne połączenie dwóch terminów (ang. interconnection) oraz sieć komputerowa ( ang. network ), przez co rozumiemy wzajemne połączenie sieci komputerowych, w wyniku którego otrzymujemy jedną globalną sieć. Tak w rzeczywistości jest, ponieważ Internet najogólniej rzecz ujmując jest ogólnoświatową komunikacyjną siecią komputerową. Sieć ta łączy miliony komputerów na świecie.

Dokładniejsza definicja mówi, iż na Internet składają się trzy elementy:

Pierwszy z tych elementów odpowiedzialny jest za techniczny aspekt Internetu, drugi za społeczny natomiast trzeci za informatyczny. Wszystkie są ze sobą jednak ściśle powiązane dając nam obraz całości wykorzystania Internetu przez społeczeństwo w celu odnalezienia odpowiednich zasobów.

Należałoby postawić również pytanie czym jest intranet?. Na to pytanie jest już nam łatwiej odpowiedzieć ponieważ intranet pochodzi z Internetu. Dokładniej rzecz ujmując jest to typowa sieć wewnętrzna przedsiębiorstwa opierająca się na ideach i rozwiązaniach znalezionych w Internecie. Pomaga to w usprawnieniu obiegu informacji w firmie oraz na umożliwienie szybkiego dostępu pracownikom do potrzebnych dokumentów i baz danych. Można by rzec, iż intranet to taki mniejszy Internet. Na dodatek cześć lub całość intranetu można dołączyć oczywiście na odpowiednich warunkach do Internetu. Odbywa się to wtedy poprzez określone procedury i jest chronione odpowiednimi zaporami. Możemy zatem przyjąć, iż jest jeden duży Internet oraz wiele małych znajdujących się na jego obrzeżach intranetów.

Są to małe i większe sieci wewnętrzne, poprzez które dostajemy się do jednego końcowego użytkownika komputera wyposażonego w łącze internetowe.

1.2. Historia Internetu

Najprawdopodobniej jednym z pierwszych wydarzeń jakie miało wpływ na powstanie internetu było wystrzelenie przez ZSRR w 1957r. Sputnika, pierwszego sztucznego satelity Ziemi. Świat znajdował się wtedy w okowach tzw. zimnej wojny i ten fakt spowodował więc niemałe zamieszanie w Departamencie Obrony USA. Dlatego też powołano agencję ARPA (Advanced Research Projects Agency), której działania miały zapewnić USA przodującą pozycję w zastosowaniach militarnych nauki i techniki. Instytucja ta miała bardzo szeroki zakres działalności. Departament obrony był wówczas największym użytkownikiem komputerów w USA, więc w nadchodzących latach w polu zainteresowania ARPA znalazły się różne dziedziny informatyki, w tym również sieci komputerowe. Na początku lat 60. w RAND Corporation, innej amerykańskiej instytucji zajmującej się problemami bezpieczeństwa narodowego, zaczęto rozważać problem funkcjonowania władz i dowództwa armii USA w wypadku wojny nuklearnej. W 1962r. RAND opublikowała raport Paula Barana, naukowca na kontrakcie sił powietrznych USA, zatytułowany "On Distributed Communications Networks", w którym przedyskutowany został sposób ochrony wojskowego systemu komunikacyjnego w wypadku zmasowanego ataku. Została w nim naszkicowana idea systemu komunikacyjnego, który byłby w stanie funkcjonować nawet mimo zniszczenia dużej części węzłów i łączy. System taki miałby być pozbawiony centralnego punktu kontroli i dowodzenia, a ilość połączeń pomiędzy węzłami byłaby na tyle duża, że w przypadku zniszczenia niektórych z nich, sieć nadal by funkcjonowała dzięki pozostałym połączeniom, na które automatycznie byłby kierowany ruch. Jedna z propozycji autora zakładała podjęcie prac nad stworzeniem narodowego systemu, analogicznego do istniejącej sieci łączy telefonicznych, umożliwiającego transport danych komputerowych pomiędzy dużymi grupami użytkowników.

System taki mógłby zostać wprowadzony dzięki wykorzystaniu sieci technologii pakietowych (packet-switching) opracowanej w latach 60. Jej podstawą było fragmentowanie informacji w pakiety i kierowanie ich w odpowiednie miejsca docelowe, gdzie były składane w jedną całość.

Miało to wiele zalet: umożliwiało współkorzystanie wielu użytkowników jednocześnie z tego samego łącza, w przypadku błędu transmisji wystarczy przesłać ponownie tylko błędny pakiet, a nie całą informację. Pakiety mogły być szyfrowane, czy kompresowane, albo zawierać informacje o samych sobie. Sieć pakietową cechuje równorzędność znajdujących się w niej komputerów. (Pierwsza tego typu sieć powstała w 1969r. w National Physical Laboratories w Wielkiej Brytanii.)

Praca Barana była punktem wyjściowym planu stworzenia sieci komputerowej bez centralnego ośrodka, która mogłaby funkcjonować nawet będąc w części zniszczona. Wszystkie węzły sieci miały być równorzędne, a każdy z nich miał mieć prawo do nadawania, przekazywania dalej i odbierania wiadomości rozbijanych na pakiety, dla których istotne były tylko miejsca pochodzenia i przeznaczenia - trasa ich wędrówki byłaby warunkowana aktualnym stanem połączeń, co zapewniłoby automatyczną zmianę drogi w przypadku zaniku funkcjonowania części sieci. Idea Barana zainteresowała innych naukowców m.in. pracującego nad relacjami człowiek - komputer J.C.R. Licklidera. Został on pierwszym szefem IPTO (Information Processing Technology Office), biura w ARPA, które zajmowało się m.in. sieciami komputerowymi. Jego zasługą było otwarcie ARPA na różne projekty z dziedziny informatyki oraz nawiązanie współpracy z naukowcami ze środowisk akademickich.

W latach 1966-67 Departament Obrony USA sfinansował prace nad eksperymentalnym łączeniem odległych od siebie komputerów. Wykorzystano w nich wcześniejsze doświadczenia z systemami wielodostępnymi (timesharing), w których przyłączono wiele terminali do jednego komputera (hosta). Okazało się, że nie było problemów z łączeniem komputerów różnych typów, kłopoty sprawiały jedynie używane linie telefoniczne, gdyż były one wolne i zawodne.

W tym samym czasie ARPA wyłożyła fundusze na ośrodki komputerowe na wybranych uniwersytetach i instytucjach naukowych. Wkrótce zaproponowano połączenie ich za pomocą sieci pakietowej. Plan sieci ARPANET został zaprezentowany w 1967r. Na początek wybrano cztery centra: Uniwersytet Kalifornii w Los Angeles (UCLA), Stanford Research Istitute (SRI), Uniwersytet Kalifornii w Santa Barbara (UCSB) i Uniwersytet Utah (UU).

W każdym z nich do dużego komputera klasy mainframe miał zostać dołączony minikomputer pełniący funkcję węzła przełączającego, określany mianem IMP (interface message processor). W odróżnieniu od systemów wielodostępnych, opartych na strukturze klient - serwer, miała to być sieć komputerów równorzędnych (peer-to-peer). Kontrakt na dostawę tych maszyn dostała firma BBS, a zostały one połączone łączami o przepustowości 50 Kbps, dostarczonymi przez AT&T.

W celu umożliwienia porozumiewania się różnych typów komputerów, należało uzgodnić pewne konwencje dotyczące transmisji blokowej, sprawdzania błędów, retransmisji oraz identyfikacji komputerów - hostów i użytkowników, określone mianem "protokołów". Zajął się tym zespół nazwany Network Working Group (NWG), który efekty swoich prac opublikował w postaci ogólnodostępnych dokumentów "Request For Comments", do dzisiaj będących podstawową formą dokumentowania standardów obowiązujących w Internecie.

Przed końcem 1969r. funkcjonowały już połączenia sieciowe pomiędzy pierwszymi czterema węzłami. Sieć ARPANET zaczęła pracować, można więc było zastosować opracowane teoretycznie protokoły. W ciągu kilku miesięcy ostatecznie opracowano symetryczny protokół komunikacyjny pomiędzy hostami nazwany Network Control Protocol (NCP). Wkrótce dodano też najprostsze usługi: zdalne logowanie do komputerów (Telnet) i kopiowanie plików pomiędzy hostami (FTP). Sieć zaczęła się rozwijać i w kwietniu 1971r. były już 23 hosty w 15 węzłach.
W październiku 1972r. podczas pierwszej międzynarodowej konferencji poświęconej komunikacji komputerowej zademonstrowano działanie węzła ARPANET-u z 40 terminalami. Przedstawiciele projektów sieciowych z kilku krajów dyskutowali o potrzebie uzgodnienia protokołów. W tym celu powołano InterNetwork Working Group. Można zaryzykować stwierdzenie, że były to początki idei Internetu, gdyż rozważano wówczas podstawy architektury międzynarodowego połączenia wielu sieci (interconnection of networks).

Sieć sukcesywnie rozrastała się. W 1972r. po raz pierwszy wykorzystano łącze satelitarne do przyłączenia węzła na Hawajach. Wraz ze wzrostem liczby łącz i transmitowanych pakietów, pojawiły się pewne problemy z niezawodnością podsieci, które trzeba było usunąć.

We wrześniu 1973r. podłączonych było 40 węzłów, w tym pierwsze dwa spoza USA - z Wielkiej Brytanii i Norwegii. W 1977r. w sieci znajdowało się 111 hostów.

W 1972r. Ray Tomlinson stworzył pierwszy program do wysyłania wiadomości poprzez sieć (e-mail). Okazało się później, że taka metoda wymiany informacji ma wiele zalet w porównaniu do przesyłania listów na papierze lub telegramów. Wydawała się być mniej formalna, szybsza i nie wymagała aktywności nadawcy i odbiorcy, ani nie potrzebowała pośrednich instytucji (poczty). Wszystko to ułatwiało kontakty międzyludzkie i wspólną pracę nad dokumentami. Stąd był już tylko krok do wynalezienia elektronicznych list dystrybucyjnych umożliwiających wysłanie tej samej wiadomości do większego grona użytkowników sieci. Szybko popularne stały się też grupy dyskusyjne (pierwszymi były grupy miłośników science-fiction). Administratorzy wielu hostów niechętnie odnosili się do tych inicjatyw, gdyż nie były one zgodne z pierwotnym, naukowo-badawczym przeznaczeniem ARPANET-u, ale nie byli w stanie ich powstrzymać. To jest właśnie cecha tej sieci - jest nieograniczona i niekontrolowana. Jej zawartość zależy od użytkowników.

W 1974r. firma BBN udostępniła pierwszą publiczną sieć pakietową Telenet, która miała być komercyjną odmianą ARPANET-u. W 1975r. zarządzanie ARPANET-em przeszło w gestię Defence Communicators Agency (DCA), ponieważ uznano, że sieć ta wyszła poza stadium eksperymentów i stała się na tyle stabilna, że opuściła obszar bezpośredniego zainteresowania ARPA. W 1980 ARPANET obejmuje już 400 serwerów na uniwersytetach, w rządzie i armii Stanów Zjednoczonych, szacuje się, że dostęp do sieci ma 10 tysięcy ludzi. W 1983r. dochodzi do rozdziału sieci ARPANET na część militarną: MILNET i cywilną: ARPANET, która zyskuje miano Internetu. Powstaje też EARN (European Academic and Research Network) - europejska akademicka i badawcza sieć komputerowa. W 1984r. liczba komputerów w sieci przekracza liczbę 1000. Dalsze dzieje tej sieci, to era TCP/IP i stopniowe ewoluowanie w kierunku dzisiejszej postaci internetu. ARPANET oficjalnie przestała funkcjonować w 1990r., kiedy to jego rolę całkowicie przejęła sieć NSFNET.
Z dzisiejszego punktu widzenia, ARPANET był siecią bardzo prymitywną, ale na ówczesne warunki było to szczytowe osiągnięcie techniki komputerowej.

Pomimo tego, że u jego podstaw leżała idea stworzenia militarnej infrastruktury dowodzenia i kontroli zdolnej przetrwać atak nuklearny. ARPANET stał się prototypem globalnej sieci komunikacji międzyludzkiej o zdecentralizowanej strukturze i zastosowaniach zupełnie odmiennych od pierwotnie zakładanych. Równolegle z ARPANET-em powstawały i rozwijały się inne sieci komputerowe. Były to jednak przeważnie projekty eksperymentalne i na niewielką skalę. Do obsługi sieci próbowano wykorzystywać m.in. radio i łącza satelitarne. Formułowano problemy "międzysieci" (internet przez małe 'i'). W 1974r. opublikowano pracę "A Protocol for Packet Network Intercommunication", w której wyspecyfikowano projekt protokołu TCP (Transmission Control Protocol). Rok 1976 to kolejne standardy: sieć pakietowa X.25 opracowana w CCITT (International Telegraph and Telephone Consultation Committee) oraz protokół UUCP (Unix to Unix Copy Protocol) z AT&T Bell Labs, który rok później dołączono do oprogramowania maszyn DEC PDP-11/44 wraz z pierwszą implementacją TCP. Trwają też pierwsze próby połączeń sieciowych drogą radiową i satelitarną. Kolejne lata to rozwój usług sieciowych, pojawia się USENET i MUD (Multi User Dungeon) - pierwsza gra sieciowa, oparta o świat fantasy. W lipcu 1977r. w Londynie odbyła się pierwsza demonstracja "międzysieci" ARPANET-u, radia pakietowego i łącz satelitarnych.

W pierwotnej wersji protokołu nie było rozróżnienia na TCP i IP (Internet Protocol). W trakcie eksperymentów nad przesyłaniem zakodowanego i skompresowanego głosu okazało się, że retransmisje błędnych pakietów powodowały przerwy w odtwarzaniu dźwięku. W efekcie doszło do oddzielenia protokołu IP, odpowiedzialnego za adresowanie, od TCP, odpowiedzialnego za podział informacji na pakiety, dostarczenie i złożenie w całość. Technologia TCP/IP poważnie zainteresowała przedstawicieli sił zbrojnych, a w 1980r. zadecydowano, że TCP/IP będzie preferowanym protokołem do zastosowań militarnych. W 1982r. Departament Obrony uznał go swoim standardem, a DRPA (ARPA została bowiem przemianowana na Defence...) podjęła decyzję o przejściu wszystkich systemów w sieci ARPANET na tenże protokół. W miejsce wielodostępnych systemów komputerowych zaczęły powstawać lokalne sieci stacji roboczych, oparte o TCP/IP, przyłączone do ARPANET-u za pomocą specjalnych komputerów (tzw. gateway'e, dziś używa się nazwy router).

Każdy nowy komputer w sieci otrzymywał unikalny numer IP, a jego nazwa i parametry były rejestrowane przez Network Information Center (NIC) w specjalnym pliku hosts.txt. Plik ten był co jakiś czas był kopiowany na wszystkie hosty. Taki proces był jednak bardzo uciążliwy z powodu wzrastającej liczby hostów. Problem rozwiązano wprowadzając hierarchiczny system nazw domenowych i protokół DNS (Domain Name System). Rolę pliku hosts.txt przejęła rozproszona baza danych o zasobach w poszczególnych domenach, z których każda musiała być zarejestrowana na jednym z tzw. nameserverów. Wprowadzenie DNS-u pozwoliło każdej organizacji swobodnie zarządzać swoim fragmentem sieci. Umożliwiono też rejestrowanie w DNS nieinternetowych systemów poczty elektronicznej oraz bramek do nich, co stworzyło wspólną z Internetem przestrzeń adresową. Jest to bowiem usługa, dzięki której trudno zapamiętywalne adresy cyfrowe zostają zastąpione nazwami literowymi złożonymi z kilku członów, w których przykładowo ostatnia część może określać przynależność narodową (.pl - Polska, .uk - Wielka Brytania) lub charakter serwera (.mil - wojskowy, .com - komercyjny, .edu - ośrodek edukacyjny, .org - organizacja itd.).

Od 1982r. TCP/IP stale zapewnia komunikację w coraz większym zbiorze połączonych ze sobą sieci komputerowych tworzących Internet. Na początku lat 80. ta sieć była jeszcze bardzo uboga w porównaniu z okresem eksplozji jej popularności w latach 90., zarówno jeśli chodzi o ilość hostów jak i zakres oraz jakość dostępnych usług. Moment przejścia z NCP na TCP/IP należy uznać za początek właściwego Internetu, gdyż właśnie wtedy położone zostały techniczne podwaliny jego działania, które w swoim podstawowym zakresie funkcjonują do dziś. Na bazie TCP/IP opracowano szereg innych protokołów realizujących wszelakie usługi sieciowe. Chociaż oficjalnie czasami mówi się o Internecie jako o sieci wieloprotokołowej, to jednak TCP/IP jest faktycznie obowiązującym standardem, uniwersalnym językiem rozumianym przez komputery wielu typów. Przełomowym momentem jest stworzenie nowej idei topologii sieci. W 1986r. w USA powstaje NSFNET (National Science Foundation NET) "backbone" - czyli ogólnokrajowa sieć szkieletowa o przepustowości 56 Kbps łącząca regionalne sieci o mniejszej przepustowości połączone z "kręgosłupem" - specjalnym komputerem, zwanym routerem. Jest to początek prawdziwej eksplozji Internetu.

Rozwija się USENET i tzw. newsgroups - grupy dyskusyjne, na których wymieniane są poglądy i informację na wszelkie możliwe tematy. Student z Finlandii opracowuje IRC (Internet Relay Chat), usługę, pozwalającą na prowadzenie rozmów na żywo, w czasie rzeczywistym. W 1989r. liczba komputerów w Internecie przekroczyła już liczbę 100.000, NSFNET ma przepustowość 1,5 Mbps i dołączają do niego kolejne kraje, m.in. Kanada, Finlandia, Niemcy.

Jednocześnie pojawia się inny aspekt zaistnienia ogólnoświatowej sieci - bezpieczeństwo danych. 1 listopada 1988r. Robert Morris za pomocą swego programu o wdzięcznej nazwie Internetowy Robak (Internet Worm) zaraża 6 tys. komputerów - 10 procent ogólnej liczby. Rodzi się legenda hackera, człowieka o ponadprzeciętnej wiedzy, zdolnego do dotarcia do najgłębiej strzeżonych informacji. W odpowiedzi DARPA powołuje CERT (Computer Emergency Response Team), organizację odpowiedzialną za bezpieczeństwo w sieci.

W 1990r. kończy działalność ARPANET - nadal natomiast rozwija się NSFNET, wkrótce osiąga przepustowość 44 Mbps. Podłączane są kolejne kraje, w tym również Polska w 1991r. Pojawiają się zupełnie nowe usługi: Archie - wyszukiwanie plików, serwery informacyjne WAIS, Gopher czy wreszcie najpopularniejszy dzisiaj WWW (World-Wide Web), oparty o ideę hypertekstu (odnośników do informacji rozsianych po całym świecie) opracowaną przez Tima Berners-Lee z CERN.

W 1992r. przekroczona zostaje liczba 1.000.000 komputerów w Internecie. Pojawiają się usługi komercyjne: do sieci dołączają banki, domy towarowe, biblioteki, księgarnie, sklepy płytowe. W sieci oprócz tekstu przesyłany jest obraz, dźwięk, filmy, muzyka, internetowe radio "na żywo", rozmowy telefoniczne (co powoduje nawet żądania ze strony korporacji telekomunikacyjnych USA od Kongresu, aby zahamować rozwój tej technologii), można przeczytać gazety, zamówić pizzę i przeprowadzić wideokonferencję. W 1994r. ruch w sieci NSFNET przekracza 10 trylionów bajtów/miesiąc. W 1995r. NSFNET przekształca się w sieć badawczą, a cały ruch w sieci szkieletowej jest teraz przekazywany pomiędzy regionalnymi dostawcami sieci. W tym samym roku do sieci dołączają amerykańskie sieci typu "dial-up" (Prodigy, Delphi, Compuserve, America On-Line).

W 1996r. do sieci dołączają kolejne instytucje, rozwija się WWW: system przeszukiwarek sieci (Lycos, Yahoo), opracowana przez Sun idea języka niezależnego od platformy sprzętowej Java, pojawia się język modelowania przestrzennego VRML (Virtual Reality Modelling Language). Trwa wyścig pomiędzy najpopularniejszymi graficznymi przeglądarkami WWW: Microsoft Internet Explorer i Netscape Navigator.

Wg danych Network Wizards na styczeń 1998r. w sieci znajduje się ponad 29,6 mln komputerów. W Polsce mamy ponad 102 tys. stacji (kwiecień 1998), tj. ponad 0,3 procent ogólnej liczby hostów. Największą domeną na świecie jest .com - ponad 8,2 miliona stacji.

Wszystko wskazuje na to, że największe niespodzianki i "złote czasy" Internetu są jeszcze przed nami. Prognozowane szacunki mówią o 100 milionach komputerów w sieci po roku 2000. Oznacza to, że sieć będzie tak powszechną jak radio czy telewizja, ale jej możliwości będą większe.

1.2.1.Początki Internetu w Polsce.

Współdziałanie Polski z blokiem państw socjalistycznych, również w kwestii Internetu, nie wyszło Polsce na dobre. Aż do 1989 była objęta jak i wszystkie kraje należące do tego bloku programem COCOM. Który opierał się na daleko posuniętych ograniczeniach technologicznych. Dopiero po przemianach ustrojowych Polska rozpoczęła swe starania o przyłączenie do międzynarodowej sieci.

W 1990 roku COCOM uchyla większość restrykcji a tym samym Polska staje się członkiem EARNU. Powstają pierwsze regionalne węzły sieci EARN w Warszawie, Krakowie a także Wrocławiu.

Rok 1991 jest zwiastunem wielu nowości:

Poszczególne ośrodki akademickie są kolejno przyłączane do sieci szkieletowej dzięki czemu jej przepustowość wzrasta.

W 1992 roku powstaje łącze satelitarne : Warszawa - Sztokholm a także łącze naziemne do Wiednia .Przez spółkę TP S.A. zostaje uruchomiona sieć pakietowa POLPAK.

1.2.2.Budowa internetu

Internet jest siecią rozległą o zasięgu ogólnoświatowym . Składa się z kilkuset tysięcy sieci lokalnych, które w większości komunikują się ze sobą używając protokołu komunikacyjnego o nazwie TCP/IP.

Przez protokół rozumiemy formalną specyfikację formatu przesyłanych komunikatów oraz reguł, które muszą realizować komunikujące się ze sobą komputery .Niektóre protokoły sterują ruchem wiadomości inne natomiast sprawdzają poprawność przesyłanych danych, a jeszcze inne przekształcają dane z jednego formatu na inny.

Protokołów tych użytkownik nie widzi, zadania przesyłania wiadomości zgodnie z protokołami wykonują komputery podłączone do sieci.

Każda wiadomość przesyłana w sieci przechodzi przez co najmniej trzy warstwy protokołów: sieciowy - jego zadaniem jest nadzorowanie przesyłania wiadomości pomiędzy dwoma komputerami, transportowy - zapewnia poprawność przesyłania danych, aplikacji- przekłada odbierane dane na postać zrozumiałą dla użytkownika.

W podłączeniu sieci lokalnych do Internetu stosujemy różne technologie, min Ethernet, FDDI, Token Ring, ATM. Natomiast połączenia fizyczne sieci realizujemy w różny sposób, np. poprzez:

Możemy stwierdzić iż protokoły Internetu są bardzo elastyczne i pozwalają na przesyłanie informacji przy użyciu prawie każdej technologii sieciowej.

Każdy host pracujący w sieci musi mieć przydzielony numer, tzw. .adres sieciowy (ang.host IP number) który go jednoznacznie identyfikuje .

Adres IP jest trzydziestodwubitową liczbą . Dla uproszczenia podaje się go w formie czterech liczb rozdzielonych kropkami. Każda z liczb reprezentuje osiem bitów adresu i nie może być większa niż 255 .Adres w protokole IP składa się z dwóch części: jedna identyfikuje pojedynczy komputer a druga sieć, do której jest on podłączony.

Do adresowania sieci wykorzystujemy adresy klas A, B i C:

Aby ułatwić pracę i zapewnić elastyczność adresowania komputerów koniecznej do określania lokalizacji zasobów w Internecie .Opracowano reguły symbolicznego adresowania komputerów w sieci oraz sposobu przekształcania nazw na adresy IP. Cały ten mechanizm nosi nazwę systemu nazw domen (ang.Domain Name System, DNS).Domena identyfikuje grupę komputerów w sieci. Nazwy z użyciem domen składają się z ciągu słów oddzielonych kropkami. Najbardziej ogólną domenę umieszcza się po prawej stronie - jest to dwuliterowy skrót określający nazwę państwa : .pl - Polska .Natomiast pozostałe słowa czytane od prawej do lewej określają miejsce komputera w sieci.

Reasumując komputer w Internecie identyfikowany jest unikatowym adresem IP, ale może mieć wiele nazw (wszystkie odwzorowywane na ten sam adres IP). Nazwy można przydzielać kilkakrotnie i używać ich powtórnie dzięki czemu są bardziej elastyczne od adresów IP.

Spójrzmy teraz na sieć z punktu widzenia użytkownika. Dla niego akurat nie ma znaczenia z jakim systemem operacyjnym pracuje odległy komputer i do jakiego rodzaju sieci lokalnej jest podłączony.

Programy aplikacyjne dostarczają wielu różnorakich usług wysokiego poziomu zapewniających funkcjonalność Internetu. Wykorzystując podstawowe usługi warstw protokołu TCP/IP dostarczając pakiety IP oraz niezawodny transport strumienia znaków (TCP).

Stosowany jest tu model klient-serwer. Program ten udostępnia daną usługę i jest podzielony na dwie części. Pierwsza tzw. program klienta uruchomiony na komputerze użytkownika, realizuje dialog z użytkownikiem oraz wysyła zadania i przekazuje wyniki użytkownikowi. Oraz druga jest to program realizujący funkcje serwera. Wykonuje zlecone zadania na komputerze serwera, np. przeszukiwanie danych. Biorąc pod uwagę systemy wieloprogramowe program klienta jak i program realizujący funkcje serwera mogą pracować na jednym komputerze. Bardzo ważnym elementem przy pracy w architekturze klient-serwer jest adresacja Program serwera uruchomiony na komputerze o określonym adresie sieciowym oczekuje na połączenia od klientów pod określonym i zaprogramowanym adresem. Aby zidentyfikować strumień przepływu danych pomiędzy programami klienta i serwera wykorzystujemy tzw. numer portu. Wtedy to protokół TCP wykorzystuje ten numer do ustanowienia dwukierunkowego połączenia między programami klienta i serwera).

Najprostszym przykładem aplikacji typu klient-serwer jest telnet .Można dzięki niemu zdalnie rozpocząć sesję terminalową oraz pracę na dowolnym komputerze w Internecie pod warunkiem posiadania dostępu do danego systemu czyli konta i hasła.

Najbardziej spotykane w Internecie usługi to:

Wiele osób uruchamiających programy typu telnet, FTP, Lynux. Mosaic, a nawet ping czy korzystających z poczty elektronicznej korzysta z usług sieciowych.

Jeżeli bierzemy pod uwagę program ping mamy tu do czynienia z usługą serwer klient. Polega ona na tym, że oddalony komputer odsyła otrzymany pakiet informacji z lokalnego komputera. Jest to więc usługa wymagająca współdziałania dwóch komputerów. Ściśle rzecz ujmując dwóch programów, z czego jeden z nich inicjujący połączenie jest klientem a drugi serwerem. Funkcja serwera czy klienta nie jest związana na stałe z jakimś komputerem .Jest za to bardzo dynamiczna zmienna i nie ustalona .Zwłaszcza systemy wieloprogramowe mogą pełnić wobec siebie funkcje serwera i klienta równocześnie.

Klient, kontaktując się z serwerem, musi zapukać w odpowiedni sposób do odpowiednich drzwi zwanych portem. Nazwa ta pochodzi od rzeczywistych gniazd komputera do których możemy podłączyć rzeczywiste urządzenia. Oprogramowanie wytwarza na potrzeby komunikacji z innymi komputerami wiele portów. Posiadają one swoje numery. Porty przyjmujące połączenia muszą mieć numery znane wszystkim klientom. Porty o numerach niższych od 256 są przeznaczone dla usług typu :telnet, ftp, gopher, WWW i tym podobnych. Natomiast porty o numerach od 256 do 1024 zostały zarezerwowane dla usług systemu Unix .Takich jak ; rlogin, rcp, talk itp.

Każde oprogramowanie sieciowe pracujące w określonym środowisku, dostarczane przez różnych dostawców lub PD(Public Domain),zawiera pewną liczbę narzędzi które pozwalają na zdobywanie informacji o sieci. Jej użytkownikach oraz drodze przesyłania informacji między komputerami. Jednak programy te różnią się między sobą-sposobem uruchamiania jak i zestawem głównym. W systemie Unix pomocne są finger oraz ping. Wiele z nich możemy zdobyć w sieci oraz skompilować samemu. Odpowiednikiem programu host dostępnego w pakiecie PC/TCP jest program nslookup. Spora liczba oprogramowań PC/TCP wielu firm pozwala uzyskać podstawowe informacje o sieci oraz komputerach do niej podłączonych i ich użytkownikach. Są to programy : host, finger, nicname, setclock, whois.

Program finger pozwala na uzyskanie podstawowych informacji o zarejestrowanych użytkownikach systemu komputerowego. Są to: nazwa użytkownika jego imię oraz nazwisko, czas podłączenia do systemu oraz czas nieaktywności klawiatury, nazwa kartoteki głównej użytkownika(home directory), zawartość plików, plan i project. Nie wszystkie komputery udzielają jednak takich informacji. Usługa ta i informacje dzięki niej dostarczane zostały jednak uznane za potencjalnie niebezpieczne i dlatego niektóre komputery albo wyłączają je zupełnie albo ograniczają dostęp-tylko dla niektórych komputerów.

Wersja Unix posiada następujące dostępne opcje :

Parametr user-name to nazwa użytkownika w postaci : user lub user @host lub też @host .W pierwszym przypadku uzyskamy informacje o użytkowniku lokalnego komputera. Natomiast w drugim o użytkowniku lub użytkownikach komputera zdalnego w trzecim o wszystkich aktualnie pracujących użytkownikach .Możemy jako user-name podać imię lub nazwisko użytkownika albo oficjalną jego nazwę na komputerze. Może to być np. zapytanie:

finger Krzysztof@ien1.ien.pw.edu.pl

Uzyskamy wtedy informacje o wszystkich Krzysztofach, będących użytkownikami komputera ien1.

Wersja PC/TCP- Jej użycie polega :

finger [ user ]@host

finger [-?|-version]

Oznaczenie parametrów jest następujące:

Program nicname jest z zestawu PC/TCP pozwala na uzyskanie informacji o zarejestrowanych użytkownikach Internetu. Zastosowanie tego programu jest jednak niewielkie ponieważ nie wszyscy użytkownicy rejestrują się w centrum informacji(nic.ddn.mil).

Jego użycie jest następujące :

nicname user

nicname - help

nickname -?|- version

Parametry mają znaczenie następujące ;

Program ping natomiast wysyła pakiet informacji żądający odesłania go do nadawcy. Pozwala przy tym na badanie istniejących połączeń między komputerami .Możemy też ustalić drogę między nimi oraz ustalić czas potrzebny na przejście pakietu a także sprawdzić czy drugi z komputerów pracuje. Jednak nie możemy nadużywać tej usługi ponieważ ogranicza się w ten sposób przepustowość sieci.

Dosyć trudno jest opisywać polecenia ping na komputerach pracujących pod kontrolą systemu operacyjnego Unix. Każda wersja Uniksa realizuje polecenie nieco inaczej. Wynika to zapewne z faktu iż usługa ping została wymyślona i opracowana jako program typu Public Domain i zaimplementowana na różny sposób w różnych wersjach Uniksa.

Najprostsze użycie to:

ping host [packetsize] [count]

gdzie:

host oznacza nazwę lub numer zdalnego komputera

packetsize- długość pakietu w bajtach, minimalna długość - 8 bajtów, domniemana 64 bajty, maksymalna 4096 bajtów .

count- liczba pakietów, które ma wysłać ping ; domyślnie wysyła je tak długo aż zostanie zatrzymany.

W wersji Windows 95/98 program ping pracuje w oknie DOS-u.

Sposób uruchomienia jest następujący :

ping [-t] [-a] [-n count] [-1 length] [-f] [-i ttl] [-v tos]

[-r count] [-s count] [[-j host - list ] | [ -k host-list]]

[-w timeout] destination -list

Poszczególne parametry oznaczają :

-t- pinguje wskazany komputer do momentu aż działanie programu zostanie przerwane

-a- zabrania zmieniać adres podany w postaci numerycznej na postać symboliczną

-n count - określa liczbę wysłanych pakietów w standarcie są cztery

-l length -określa długość wysyłanego pakietu

-f- powoduje ustawienie w wysłanych pakietach znacznika zabraniającego ich fragmentowania

-i ttl - określa maksymalny czas życia pakietu

-v tos - określa rodzaj usługi ;pozwala badać w jaki sposób rożne rutery traktują różne usługi pod warunkiem że mają zaimplementowaną tę funkcję

-r count- pozwala śledzić drogę pakietu(rezerwuje pola na zapisanie adresów maksymalnej liczby ruterów, przez które przechodzi pakiet)

- a count -pozwala zapisać w pakiecie (rezerwuje miejsce na maksimum count znaczników) czas, w którym pakiety przeszły przez kolejne rutery

-j host -list określa adresy ruterów tzn. drogę przez które pakiet może przejść

-k host - list określa adresy ruterów tzn. drogę przez które pakiet nie może przejść

-w timeout - określa w milisekundach jak długo program oczekuje na powrót do pakietu

Destination -list- określa adres pingowanego komputera.

Program setclock pozwala ustawić zegar PC na podstawie zegara komputera, który jest uznawany za wzorzec czasu. W wielu sytuacjach podczas pracy w sieci jest bardzo ważne aby zegary pracujących komputerów były zsynchronizowane. Jego użycie jest następujące;

setclock [time_server ]

setclock - ?/-version

Parametr time_server to nazwa lub adres internetowy komputera, Który jest traktowany jako wzorzec czasu.

Program whois spełnia w systemie oprogramowania PC/TCP podobne funkcje jak wcześniej wspomniany program finger.

Podstawowym narzędziem służącym do sprawdzania współdziałania systemu baz danych o adresach internetowych (w systemie Unix ) jest program nslookup. Dzięki niemu możemy zdobywać informacje o pojedynczych komputerach oraz także o całych domenach. Aby wykorzystać pełne możliwości nslookupa należy posiadać umiejętność zapisywania informacji o adresach internetowych oraz strukturze baz danych.

1.2.3.Historia oraz możliwości protokółu TCP/IP

TCP/IP jest zestawem protokołów sieciowych funkcjonujących w górnych warstwach sieci. To co obecnie nazywamy standardem TCP/ IP było rozwijane i udoskonalane przez ponad 20 lat i nie jest własnością żadnej firmy zajmującej się oprogramowaniem . Jednak Departament Obrony Stanów Zjednoczonych sprawuje coś w rodzaju patronatu nad TCP/IP. Stara się przy tym aby było zachowane pewnego rodzaju minimum porządku oraz spójności standardu.

Zapoczątkowało się to wszystko od projektu amerykańskiego ministerstwa obrony Stanów Zjednoczonych - Pentagonu .Postawiono zadanie przed informatykami z firmy Legende, proste a zarazem bardzo złożone. Mianowicie wojsko potrzebowało sieci komputerowej zdolnej przetrwać wojnę atomową a zarazem potrafiącej automatycznie rozpoznać uszkodzone łącza oraz wybrać zastępczą drogę dla przesyłanych danych. Uszkodzenie pojedynczych elementów sieci nie mogło doprowadzić do uszkodzenia całego systemu.

Podjęto prace nad tym projektem czego wynikiem było powstanie ARPAnetu. Nazwa ta pochodzi od nazwy Instytutu Rozwoju Zaawansowanych Technologii ( Advanced Research Project Agency ).W wyniku jednak pewnych przekształceń ARPA w 1971 roku zmienia nazwę na DARPA. ARPAnet pozostał pod opieką tejże organizacji, która skupiła się na badaniach technologii komutacji pakietów oraz rozwoju mechanizmów transportowych wykorzystujących fale radiowe i satelity telekomunikacyjne.

W roku 1975 nad ARPAnetem kontrolę przejmuje Agencja Komunikacji Departamentu Obrony Stanów Zjednoczonych . Jej nazwa w skrócie to DCA ( Department Communication Agency ). Zostaje również w tym czasie opracowany nowy udoskonalony zestaw protokołów sieciowych, który staje się potem trzonem protokołu TCP/IP. Jego powstanie umożliwiło budowę dużej liczby nowych sieci połączonych z ARPAnetem.

W roku 1982 przez Departament Obrony zostaje utworzona nowa sieć DDN zaprojektowana jako rodzaj obszaru centralnego dla rozproszonych sieci tworzących Internet. Natomiast rok później zaakceptował TCP/IP w roli protokołu sieciowego, który ma być stosowany przez wszystkie węzły łączące się z Internetem. Zapoczątkowało to lawinowy rozwój sieci TCP/IP . Powstał standard umożliwiający komunikację pomiędzy maszynami różnych typów. Rozwój TCP/IP trwa nadal między innymi w ośrodkach akademickich, uczelniach, organizacjach rządowych oraz wielu innych instytucjach a zainteresowanie tym protokołem wciąż wzrasta.

Również powstanie w latach osiemdziesiątych wielu tysięcy sieci lokalnych tzw. (LAN) wpłynęło na wzrost jego znaczenia . Sieć lokalną można łatwo zbudować oraz w miarę rosnących wymagań rozbudowywać . Ogromne znaczenie dla rozwoju sieci TCP/IP miało zastosowanie technologii sieciowej w sektorze biznesu oraz finansów. Protokół ten wydaje się naturalnym środkiem przekazywania danych pomiędzy firmami posługującymi się różnorodnym sprzętem który jest produkowany przez setki czy nawet tysiące różnorakich firm. Do końca lat osiemdziesiątych TCP/IP zyskał miano siły napędowej rozwoju sieci na całym świecie a zarazem i w Polsce. Rozwój sieci następował bardzo szybko .Wzrastała liczba węzłów po niecałych trzydziestu latach zwiększyła się, z początkowych czterech do ponad trzydziestu milionów.

Aby przyswoić sobie, w jaki sposób przesyłane są dane z serwera WWW do przeglądarki, konieczne jest poznanie odrobiny teorii. W tym przypadku informacje są dostarczane z serwera WWW do komputera użytkownika za pośrednictwem karty sieciowej lub modemu . Potrzebny jest również odpowiedni kanał służący do komunikacji, którym są transmitowane dane pomiędzy obiema maszynami.

Strukturę taką obrazuje nam warstwowy model osi - teoretyczny, pozwalający na opisanie sieci niezależnie od sprzętu oraz oprogramowania. Poszczególnym warstwom odpowiadają określone elementy sprzętowe i programowe biorące udział w wymianie informacji.

W zasadzie wszystkie rodzaje transmisji danych możemy podzielić na dwie kategorie: połączeniowe i bezpołączeniowe. Przykładem usługi połączeniowej jest telefon . Jeżeli będziemy chcieli z kimś porozmawiać wybieramy jego numer telefonu zostawiając tym samym kanał komunikacyjny. Dopiero kiedy połączenie jest realizowane możemy rozpocząć rozmowę.

Przykładem natomiast komunikacji bezprzewodowej jest wysyłanie paczki drogą tradycyjną. Początkiem drogi jest poczta, nie ma jednak środka pozwalającego na przetransportowanie przesyłki natychmiast do odbiorcy. Paczki są zbierane oraz grupowane a dopiero potem razem przesyłane najbardziej dogodną trasą. Zarówno dla odbiorcy jak i nadawcy nie ma znaczenia jaką drogą paczka zostanie przesłana . Ważne jest natomiast bezpieczeństwo i szybkość przesyłu paczki.

Natomiast w przypadku przesyłu danych podział między tymi dwoma rodzajami komunikacji nie jest tak wyraźny. Komunikacja połączeniowa może być symulowana w kanale bezpołączeniowym poprzez wymianę pakietów danych oraz potwierdzeń ich odbioru. Możliwa jest też również sytuacja odwrotna.

Bardzo ważnym aspektem jest też zapewnienie bezpieczeństwa komunikacji. Chodzi tu między innymi nie tyle o zabezpieczenie danych przed podsłuchaniem ale o zapewnienie ciągłości połączenia. Najniższe warstwy OSI nie umożliwiają żadnych funkcji związanych z bezpieczeństwem .Dopiero na wyższych poziomach istnieją mechanizmy skutecznie zapewniające pewność połączenia.

W zależności od tego, w jaki sposób realizowana jest polityka bezpieczeństwa . Rozróżniamy dwa rodzaje komunikacji, którym odpowiadają podstawowe usługi komunikacyjne: TCP (Transport Core Protocol) oraz UDP (User Datagram Protocol).

Opiera się na niższych poziomach OSI i gwarantuje wyższym warstwom kanał komunikacyjny zorientowany połączeniowo. Zapewnia poprawność transmisji danych pomiędzy punktami A i B . Natomiast w momencie wystąpienia błędu wysyła do wyższych warstw komunikat o odpowiedniej treści. Zagwarantowanie to jednak nie jest łatwe dla protokołu transmisyjnego : TCP musi sprawdzać czy wszystkie wysłane pakiety dotarły do adresata a po odbiorze informacji wysyła potwierdzenie do nadawcy.

W przypadku braku potwierdzenia odbioru protokół żąda ponownego wysłania aż do momentu nadejścia potwierdzenia. Jest to sytuacja korzystna dla wszystkich warstw .Gdyż operują na kanale transmisyjnym, nad którego bezpieczeństwem czuwa TCP. Rozwiązanie to posiada pewną wadę mianowicie mechanizmy kontrolujące przepływ danych znacznie obniżają wydolność całego systemu.

UDP jako usługa bezpołączeniowa nie realizująca kontroli przepływu . Jest nieskomplikowana oraz dzięki temu szybka.

1.2.3 . Protokoły warstwy sieciowej.

Niejako odwrotne zadanie wykonuje protokół RARP który wyznacza adresy IP na podstawie adresu fizycznego.

Protokoły warstwy danych

W TCP/IP nie ma określonych standardowych protokołów znajdujących się na poziomie warstwy łącza. Wybór zależy od wymagań stawianych sieci oraz od przeznaczenia. W sieci TCP/IP możemy korzystać z różnych protokołów łącza, np. Ethernet, Token Ring, FDDI (Fiber Distributed Data Interface).

Ethernet jest to najpopularniejszy protokół warstwy łącza danych oraz technologii rozsyłania informacji w sieci. Pierwsze prace nad tym standardem przeprowadziła firma Xerox w ośrodku w Palo Alto mieszczącym się w Kalifornii w roku 1970. Zespół naukowców z tejże firmy zapoczątkował prace nad realizacją wizji elektronicznego biura . Miała się potem ziścić w latach dziewięćdziesiątych. Był to element stanowiący koncepcję rozwoju firmy Xerox, która do tej pory była znana jako producent kserokopiarek. W 1973 r. zespół z Palo Alto był już daleko zaawansowany w badaniach nad komputerami, drukarkami oraz innymi urządzeniami sieciowymi. Grupa pod kierownictwem Roberta Metcalfe'a pracowała nad znalezieniem metod przyspieszenia transmisji danych w sieci. Owocem ich pracy stała się technologia przesyłania danych ze znacznie szybszą prędkością . Została nazwana Ethernetem. Jej specyfikacja określa wymagania dotyczące okablowania oraz innych parametrów technicznych. Ethernet jest implementowany w systemach komputerowych jako oprogramowanie układowe oraz instalowane na kartach interfejsu w sieci. Nazwa jego pochodzi z koncepcji eteru jako uniwersalnego nośnika fal. „Ether-net” miał spełniać rolę uniwersalnego nośnika informacji przesyłanych pomiędzy wszystkimi elementami sieci komputerowej. Zanim jeszcze powstał Ethernet metody transmisji danych zapewniały przesył jednej strony w rozdzielczości 600 dpi(punktów na cal) w czasie około 15 minut. Natomiast pojawienie się Ethernetu pozwoliło na skrócenie tego czasu do kilkunastu sekund. Co było dużym osiągnięciem oraz zapewniło nowej technologii najwyższe uznanie.

Pierwsza wersja Ethernetu nazwana potem eksperymentalną . Pozwalała na transmisję danych z szybkością rzędu 2.6 Mbit/s. Kolejnym bardzo ważnym krokiem było wprowadzenie w 1982 roku standardu Ethernet 2.0 przez firmy : DEC, Intel, Xerox . W tej wersji specyfikacja określała szybkość transmisji na 10 Mbit/s czyli czterokrotnie szybciej niż w wersji początkowej.

Technologia ta dzięki szybkiej transmisji danych oraz stosowaniu różnych nośników szybko opanowywała rynek. W obecnych czasach jest to dojrzały a zarazem niedrogi standard stosowany na całym świecie.

Połączenie TCP/IP oraz Ethernetu stanowi świetne rozwiązanie sieciowe, ponieważ oba te standardy pozwalają na pracę zarówno dla doświadczonych użytkowników jak i projektantów. Zapewniają nie tylko podstawowe aplikacje oraz narzędzia sieciowe lecz stanowią również podstawę do rozwijania zaawansowanych technik . Takich jak rozproszone bazy danych czy zdalne zarządzanie oraz systemy plikowe. Jej sprawdzona wydajność oraz niezawodność czyni z nich nadal interesującą propozycję dla szeregu zastosowań.

Sieć TCP/IP można zaimplementować z wykorzystaniem różnych nośników. Przykładowo dla sieci TCP/IP o architekturze Ethernet nośnikiem jest skrętka dwużyłowa lub kabel koncentryczny. Natomiast w nowoczesnej sieci TCP/IP nośnikami mogą być światłowody . W rozległej sieci TCP/IP typu X.25 nośnikami są najczęściej linie satelitarne, mikrofale lub szeregowe linie telefoniczne.

Ethernet oraz TCP/IP są to dwie różne technologie które jednak gdy działają razem umożliwiają utworzenie wydajnej sieci lokalnej . Ethernet funkcjonuje w pierwszej i drugiej warstwie sieci . Natomiast TCP/IP w warstwie trzeciej i powyżej . Ethernet posiłkuje się schematem adresowania czterdziestoośmiobitowym, stosowanym do komunikacji pomiędzy kartami interfejsu sieci. Natomiast w TCP/IP stosowane są czterdziestodwubitowe adresy IP . Identyfikują sieci oraz pojedyncze komputery . Ethernet oraz TCP/IP mogą współpracować razem dzięki ARP ( Adress Resolution Protocol ), jednemu z protokołów TCP/IP zamieniającemu adresy ethernetowe na adresy IP i na odwrót.

Aplikacje Internetu funkcjonują powyżej protokołów warstwy transportowej ( czyli TCP UDP ). Każda aplikacja posiada przypisany numer portu. Numery te są publikowane przez organizacje o nazwie IANA ( Internet Assigned Numbers Authority ) identyfikują one standardowe aplikacje . Dla przykładu telnet posiada port TCP o numerze 23. porty 20 oraz 21 są przypisane do FTP ( 20 do danych natomiast 21 do programu transferowego plików ).

Skatalogowano również wiele innych numerów portów, które są wykorzystywane przez TCP oraz UDP.

Porty stanowią coś w rodzaju punktów końcowych, umożliwiają one nawiązanie połączenia logicznego. Nazywane są też portami usługi ponieważ udostępniają określone usługi na żądanie innych aplikacji.

W sieci TCP/IP każdy interfejs musi posiadać swój numer IP. Wykorzystywany przy komunikacji z resztą świata. Numer IP ( Internet Protocol ) pozwala na wymianę danych pomiędzy komputerami w postaci datagramów . Każdy datagram jest dosyłany pod adres umieszczony w polu adresu przeznaczenia, który znajduje się w nagłówku. Adres ten to trzydziestodwubitowe słowo . Dzieli się ono na dwie części . Pierwsza identyfikuje pojedynczy komputer natomiast druga sieć- w której dany komputer się znajduje.

Adresy internetowe są podzielone na klasy . Adres przynależny do danej klasy rozpoczyna się określoną sekwencją bitów, używaną przez znajdujące się w każdym komputerze oprogramowanie internetowe. Służące do identyfikacji klasy danego adresu. Jeżeli dana klasa adresu zostanie rozpoznana wtedy oprogramowanie sieciowe może określić, które bity są używane do określenia sieci a które do zidentyfikowania konkretnego komputera.

Gniazdo natomiast stanowi kombinację adresu IP oraz dołączonego do niego numeru portu . Stanowi ono jakby końcowy abstrakcyjny punkt procesu komunikacji. Wywodzi się od twórców systemu Berkeley Unix.

Na adres IP składają się trzy podstawowe elementy . Są to bity określające klasę adresu, części identyfikujące sieć lokalną oraz części identyfikujące konkretny komputer w sieci. Mamy pięć klas adresów:

Klasy adresów mają znaczenie z kilku powodów .Ponieważ jeśli sieć jest przyłączona do Internetu wtedy to adresy sieci oraz adresy komputerów są przydzielane przez organizację zarządzającą Internetem . Natomiast jeżeli jest to sieć firmowa wówczas to odpowiednie adresy przydziela administrator.

Wybierając określoną klasę adresów możemy przyporządkować danej sieci: więcej adresów podsieci a mniej komputerów ( adresy klasy C); równą liczbę adresów podsieci i komputerów (klasa B); mniej adresów podsieci a więcej komputerów (klasa A). W sieciach lokalnych najczęściej wykorzystywane są adresy klasy A, B, C . Adres IP zapisany jest wtedy w postaci dziesiętnej w czterech blokach trzycyfrowych rozdzielonych kropkami. Pierwsze trzy cyfry określają klasę adresu w następujący sposób:

Nie wszystkie adresy sieci oraz komputerów są dostępne dla użytkowników . Adresy posiadające pierwszy bajt większy od 223 są zarezerwowane także dwa adresy klasy A, 0 oraz 127 są przeznaczone na specjalny użytek. Sieć 0 oznacza domyślną trasę natomiast sieć 127 jest to tzw. loopack address. Domyślna trasa jest wykorzystywana do w celu ułatwienia wyboru marszrut, które to zadanie wykonuje IP. Loopback address jest wykorzystywany przez aplikacje sieciowe oraz pozwala im na adresowanie lokalnego komputera w taki sam sposób jak zdalnego. Te specjalne adresy są wykorzystywane przy konfiguracji komputera.

Również pewne adresy komputerów są przeznaczone do specjalnych celów . Są to we wszystkich klasach sieci, adresy komputerów od 0 do 255. Adres IP posiadający wszystkie bity adresu komputera równe zeru, określa sieć jako taką np. 25.0.0 oznacza sieć 25 natomiast 172.15.0.0 odnosi się do sieci komputerowej 172.15. Adresy w takiej formie są wykorzystywane w tablicach rutowania do wskazywania całych sieci.

Adres IP posiadający wszystkie bity wskazujące komputer ustawione na jeden, jest adresem rozgłoszeniowym . Stosowanym do zaadresowania wszystkich komputerów w sieci .

Adresy IP - powszechnie nazywane adresami komputerów, co bywa mylące są powiązane z interfejsami sieciowymi . Bramka taka jak technel ma inny adres w każdej z sieci, do której jest dołączona . Inne urządzenia znają ją pod adresem powiązanym z siecią, która jest dla nich wspólna.

IP korzysta z sieciowej części adresu w celu wyznaczenia trasy datagramu pomiędzy sieciami. Pełny adres zawierający również informację o komputerze służy do końcowego dostarczenia datagramu do komputera do sieci docelowej.

Jak powszechnie wiadomo adresy komputerowe powinny być unikatowe. Jedną metodą aby takim adres otrzymać jest skontaktowanie się z organizacją przydzielającą takie numery. W Stanach Zjednoczonych organizacja ta ma siedzibę pod adresem : DDN Network Information Center SRI International 333 Ravenswood Avenue Menlo Park, CA 94025 .

Natomiast w Polsce numery IP przydziela poszczególnym instytucją NASK jest to Naukowa oraz akademicka sieć komputerowa.

Komunikacja w sieciach

Komputery podłączone do sieci najczęściej się komunikują bezpośrednio ze sobą . Przede wszystkim w Internecie informacje przechodzą przez wiele urządzeń pośrednich nazywanych węzłami ( node lub hop). Skąd jednak węzeł posiada informacje, do którego węzła ma przesłać pakiet aby w końcu dotarł do adresata?

Odbywa się to w następujący sposób : nadawca oraz odbiorca posiadają własne unikatowe adresy sieciowe o strukturze hierarchicznej, np. serwer Wydziału Elektrycznego ( www. ee.pw.edu.pl) posiada adres 148.81.76.226. Taki sposób zapisu pozwala na zapamiętywanie adresu o długości dwóch słów a więc trzydziestu dwóch bitów . Żeby uniknąć operowania na bardzo dużych liczbach adres jest podzielony na cztery bajty. Tak więc każda z oddzielonych kropkami pozycji adresu przyjmuje wartość od 0 do 255.

Nie oznacza to jednak, że w ten sposób możemy zaadresować dwieście pięćdziesiąt komputerów. Ograniczenia wiążą się ze stosowaniem tzw. podsieci. Dobrze jest aby komputery należące do jednej firmy lub instytucji miały podobne adresy . Ponieważ jedna część adresu jest jakby numerem kierunkowym. Właśnie dlatego grupujemy pewną liczbę komputerów oraz rezerwujemy dla nich pulę adresów. Ponieważ liczba adresów ma być potęgą dwójki dlatego dla stu pięćdziesięciu komputerów trzeba zarezerwować 256 adresów. Należy również postawić pytanie gdzie się kończy numer kierunkowy a gdzie się zaczyna właściwy?. Granicę tą nam wyznacza maska podsieci(net- mask), której wartość uzależniona jest od wielkości podsieci. Przykładem takiej małej sieci korporacyjnej może być sieć klasy C, która posiada dwieście pięćdziesiąt trzy adresy jednak trzy adresy są zarezerwowane do specjalnych celów. Odpowiada to polu adresowemu o długości ośmiu bitów .

Pozostałe dwadzieścia cztery z trzydziestu dwóch bitów są tym naszym numerem kierunkowym, który nazywany jest przez informatyków adresem sieci. Maska sieciowa rozdzielająca adres sieci od adresów komputerów w podsieci będzie miała postać 255.255.255.0.

Co odpowiada dwudziestu czterem ustawieniom oraz ośmiu wyzerowanym bitom . Dzięki czemu możemy łatwo przesłonić jedną czy drugą część adresu.

Na podstawie hierarchicznie zbudowanych adresów specjalny program -ruter który pracuje w węźle sieci podejmuje decyzje dokąd dalej przesłać dane . Pakiet ów w ten sposób pokonuje do trzydziestu przystanków zanim dotrze do celu.

Rutery planują trasę transmisji danych. Jeśli komputer węzłowy zorientuje się, że dalsza droga jest zablokowana wówczas usiłuje dostarczyć dane do innego komputera węzłowego z nadzieją iż ten ominie przeszkodę. Wtedy to rutery obu komputerów wymieniają się informacjami o stanie połączeń. W taki oto sposób sieć konfiguruje się samoczynnie nie możemy też przewidzieć którędy pakiet dotrze do adresata. Możliwe jest iż pakiety należące do tej samej wiadomości mogą być dostarczone różnymi drogami. Ze względu jednak na dowolność wyboru trasy nie mamy gwarancji, że pakiety dotrą do miejsca docelowego w takiej samej kolejności w jakiej były nadawane. Do zadań odbiorcy należy posortowanie oraz ułożenie ich we właściwym porządku. Jednak ani nadawca ani też odbiorca nie mają wpływu na sposób działania sieci.

Do przyczyn zatorów na infostradzie nie zawsze należy awaria łącza lub rutera. Czasami zdarza się iż następny komputer nie jest w stanie odebrać pełnego strumienia informacji . W takich oto sytuacjach komputer węzłowy decyduje się na przesłanie jedynie części pakietu. Dzieli go na mniejsze łatwiejsze do transmisji kawałki, które są następnie wysyłane dalej jak normalne pakiety.

Po otrzymaniu wszystkich fragmentów komputer składa je oraz odtwarza pierwotny pakiet. Użytkownik nie ma pojęcia co się wydarzyło, zanim adresowana do niego informacja ukazała się na ekranie komputera.

Komputery podobnie jak ludzie rozpoczynają „rozmowę” od przedstawienia się. Aby taki dialog mógł nastąpić komputer musi przesłać do swojego rozmówcy czyli drugiego komputera, od kogo dane pochodzą oraz dokąd je należy przesłać a także jak powinny być traktowane pakiety danych. Nagłówek posiada również klucz, dzięki któremu odbiorca jest w stanie poprawnie odtworzyć informację z przychodzących fragmentów .

Wymiana danych od warstwy sieciowej przebiega za pośrednictwem protokołu internetowego IP. W tym miejscu ciąg bitów przesyłanych pomiędzy komputerami sortowany jest w pakiety. Każdy pakiet rozpoczyna się od tzw. nagłówka, który zawiera szczegółową informację co do stosowanego protokołu. Zaraz za nim występują właściwe dane użytkowe.

Struktura nagłówka jest następująca:

Komunikacja pomiędzy usługami sieciowymi

Praktycznie kilka warstw łączy się w całość. Mianowicie TCP jest odpowiedzialne za transport danych a IP dba o poprawność połączenia. Górne warstwy obsługiwane są przez przeglądarkę internetową której zadaniem jest to, aby informacje były poprawnie wyświetlane na ekranie .

Dlatego iż wszystkie usługi mogą wymieniać informacje w tym samym czasie, potrzebny jest mechanizm pozwalający na określenie nie tylko, które komputery ze sobą rozmawiają ale również które usługi są wykorzystywane. Do tego celu wprowadza się tzw. numery portów . Można je porównać do alarmowych numerów telefonu wszędzie znanych oraz dostępnych. Podobnie jak alarmowy policji to 997 tak i usługa WWW odwołuje się standardowo do portu o numerze 80. Komputer chcący zrealizować jakąś usługę na innej maszynie może albo od razu się komunikować z określonym portem lub prosić o informację, która jest udzielana przez program portmap . Dostępny on jest poprzez port 111, udziela informacji komputerom chcącym nawiązać połączenie pod jakimi numerami są dostępne poszczególne usługi. Podobnie co do informacji telefonicznej program może odmówić podania numerów, które nie są powszechnie dostępne .

W celu usprawnienia transmisji protokół TCP wykorzystuje dodatkowy nagłówek. Służy on miedzy innymi do identyfikacji wybranych usług oraz zarządzania nimi. Nagłówek ten umiejscowiony w pakiecie IP między nagłówkiem IP a danymi użytkowymi daje informację skąd i dokąd przesyłane są dane oraz jakie jest miejsce każdego z pakietów w całkowitym strumieniu danych.

Struktura tegoż nagłówka przedstawia się następująco:

Model ten jest bardzo zbliżony do modelu warstwowego OSI. Widać jednak wyraźnie, że niektóre warstwy teoretycznego modelu zostały połączone w całość.

Protokół SMTP

SMTP ( Simple Mail Transfer Protocol) jest to jeden z protokołów zestawu TCP/IP . Dzięki niemu jest możliwe przesyłanie poczty elektronicznej w sieci. Opiera się na pojęciach nadawcy oraz odbiorcy, co stanowi analogię dla pojęć klienta i serwera w telnecie oraz FTP.

Pomysł oraz zasady funkcjonowania poczty elektronicznej są dość proste do zrozumienia.

Typowa struktura tego systemu przedstawia się następująco . Przedstawię to może na przykładzie, a więc mamy dwa komputery połączone w sieci . W obu tych komputerach mamy zainstalowane takie same komponenty poczty elektronicznej. Komputer A jest wysyłającym natomiast komputer B odbierającym wiadomości.

Elementem pozwalającym na uruchomienie aplikacji pocztowej jest specjalny program pośredniczący o nazwie User Agent, który jest wywoływany poleceniem z poziomu systemu operacyjnego. Uaktywnia on edytor, pozwalający użytkownikowi na zredagowanie wiadomości do wysłania.

Utworzona wiadomość jest następnie przekazywana kolejnemu programowi pośredniczącemu Message Transfer Agent (MTA), którego zadaniem jest nawiązanie połączenia z innymi komputerami a potem rozesłanie wiadomości.

W komputerze odbiorcy wiadomości funkcjonuje inny program MTA, którego zadaniem jest umieścić odebraną wiadomość w kolejce przychodzących wiadomości.

Adresat może przeglądnąć nadesłane wiadomości po załączeniu User Agenta w swoim komputerze.

Na rynku dostępne też są inne systemy pocztowe, często jako bezpłatne oprogramowanie typu public domain. Wszystkie systemy poczty elektronicznej funkcjonują w podobny sposób, różni je natomiast wygląd oraz obsługa interfejsu użytkownika.

Aby zniwelować różnice sprzętowe w otoczeniu sieciowym TCP/IP definiuje abstrakcyjny interfejs, który dostarcza określonego zestawu usług niezależnych od sprzętu jaki został zastosowany, a także mechanizmu wysyłania i odbierania pakietów.

Dla każdego urządzenia, które ma pracować w sieci w jądrze systemu(kernel) musi być umieszczony odpowiedni moduł, np. karty sieciowe w systemie Linuksowym są nazywane eth0, eth1 natomiast łącza szeregowe SLIP nazywane są s10, s11, itd. Nazwy tych interfejsów są wykorzystywane podczas konfiguracji systemu.

Podsieci

Standardowa struktura adresów IP może być lokalnie modyfikowana poprzez użycie bitów adresowych komputerów, które mają za zadanie dodatkowo określić sieć. W istocie rzeczy jednak „ linia podziału” pomiędzy bitami adresowymi sieci a bitami adresowymi komputerów jest przesuwalna. Tworzy dodatkowe sieci ale redukuje maksymalną liczbę systemów jakie się mogą znaleźć w każdej z nich. Te nowo używane bity noszą właśnie nazwę podsieci. Umożliwiają definiowanie logiczne sieci wewnątrz jednej większej, posiadającej jeden adres IP.

Podsieci wprowadza się aby pokonać problemy topologiczne lub organizacyjne. Podzielenie jednej sieci na kilka mniejszych umożliwia decentralizację zarządzania adresami komputerów . Przy standardowym adresowaniu jeden administrator odpowiada za przypisywanie adresów w całej sieci, stosując podsieci, może delegować nadawanie adresów do podziałów swojej instytucji.

Podsieć definiujemy przy pomocy maski bitowej, przykładanej do adresu IP. Jeżeli bit w masce to jedynka, wtedy to odpowiadający mu bit w adresie IP będzie interpretowany jako bit adresu sieci. Jeśli natomiast bit maski będzie zerem wówczas należy on do części adresu komputera. Podsieć znana jest jako wyłącznie lokalna . Dla całej reszty Internetu adres jest interpretowany jako standardowy.

Dla przykładu maska podsieci powiązana z adresem sieciowym klasy B to 255.255.0.0. Najczęściej używana maska podsieci rozszerza część sieciową adresu klasy B na dodatkowy bajt. W wyniku czego otrzymujemy 255.255.255.0.0. Wszystkie bity w trzech pierwszych bajtach są jedynkami natomiast w ostatnim zerami. Pierwsze dwa bajty określają sieć klasy B, następny stanowi adres podsieci, a ostatni określa komputer w tej podsieci.

Stosujemy w tym przypadku maski będące pełnymi bajtami, ponieważ są łatwiejsze do zrozumienia oraz czytania.

Podsieci nie są tylko udogodnieniem organizacyjnym, ale naturalnym wynikiem ograniczeń sprzętowych. Zasięg lokalnych sieci komputerowych jest stosunkowo nie wielki, dlatego niewiele komputerów może być ze sobą połączona . Aby znieść taki limit stosuje się bramki . Są to wydzielone komputery bądź urządzenia sieciowe, dzięki którym możemy łączyć ze sobą komputery z różnych sieci.

Protokół IP bez problemu rozróżnia sieci, ponieważ różne sieci fizyczne posiadają różne adresy IP. Dla przykładu adres sieci 172.16.121.0 jest zarezerwowany dla komputerów w sali 121, a zostanie przesłany pakiet pod adres 172.16.22.10 to od razu widać że nie jest on adresowany do żadnego hosta w lokalnej sieci.

Jeżeli podłączymy komputer do dwóch różnych sieci, będzie on miał wtedy dwa różne adresy IP, stanowiące bramkę pomiędzy tymi sieciami. Każda bramka może posiadać jeden numer IP w każdej sieci. Adresy sieci są rozróżniane za pomocą masek sieciowych. Użytkownika nie interesuje to iż dany komputer znajduje się poza siecią komputerową . Poprzez bramki możliwa jest wymiana pakietów pomiędzy komputerami znajdującymi się w różnych sieciach oddalonych od siebie o setki kilometrów. Bramki kierują danymi pomiędzy sieciami. Jednak wszystkie urządzenia sieciowe, zarówno komputery, jak i bramki muszą podejmować decyzje o kierowaniu przesyłek. Dla większości komputerów nie stanowi to problemu - decyzja jest prosta. Jeżeli komputer docelowy znajduje się w sieci lokalnej wtedy dane dostarczane są wprost do niego . Natomiast jeżeli komputer znajduje się w innej sieci wówczas dane są przekazywane do lokalnej bramki.

Dlatego iż rutowanie jest ukierunkowane na sieci, IP podejmuje decyzję w oparciu o podstawę sieciową adresu. Określa część sieciową adresu, badając przy tym jego najstarsze bity, i w ten sposób wyznaczając klasę adresu. Klasa decyduje jaka część adresu służy do identyfikacji sieci. Jeśli sieć docelowa jest siecią lokalną wtedy to do adresu przeznaczenia dodatkowo stosowana jest maska podsieci.

Po określeniu sieci docelowej moduł IP poszukuje jej w lokalnej tablicy rutowania. Pakiety są przesyłane do miejsca przeznaczenia na podstawie tablicy rutowania. Tablica ta może być zbudowana przez administratora sieci lub przez protokoły rutowania, produkt końcowy będzie jednak identyczny.

Ruter ma za zadanie zniszczyć otrzymany pakiet jeśli nie znajdzie w swojej tablicy rutowania odpowiedniej dla niego drogi do miejsca przeznaczenia. Aby uniknąć takich sytuacji ustanowiono drogi oraz rutery domyślne do których takie pakiety „ bez drogi do celu” są przesyłane . Droga domyślna jest zdefiniowana w tablicy rutowania jako droga w sieci o adresie 0.0.0.0. Jeśli ruter nie znajdzie w swojej tablicy rutowania jasno zdefiniowanej drogi do miejsca przeznaczenia pakietu wtedy przesyła go do najbliższego rutera wpisanego w drogę do sieci 0.0.0.0. Jest to również sposób na zmniejszenie przez administratorów tablic rutowania w zarządzanych przez nich ruterach czego wynikiem jest przyspieszenie ich działania. Administrator sieci może ograniczyć tablicę wyłącznie do najbliższych ruterów oraz rutera domyślnego. Należy jednak mieć na uwadze, aby taki pakiet trafił do Internetu, gdzie któryś z ruterów znajdzie dla niego właściwą drogę.

TCP/IP jest zaawansowanym protokołem sieciowym, którego początki datują się na lata siedemdziesiąte . Uznanie jakim się cieszy w środowiskach uniwersyteckich, rządowych oraz naukowych i wielu innych organizacjach zapewniło im czołowe miejsce na rynku. Można powiedzieć iż jest to najlepiej rozwinięty protokół sieciowy, pozwalający na funkcjonowanie niejednorodnej sieci .Takiej w której połączone są komputery różnych typów.

Przydatność TCP/IP polega na tym że:

W warstwie aplikacyjnej TCP/IP opiera się na relacji klient/serwer . Technologia ta jest można powiedzieć przyjazna użytkownikowi . Połączenie technologii klient/serwer z mechanizmami zarządzania siecią oraz rozproszonym środowiskiem okienkowym a także z innymi elementami daje sprawne funkcjonowanie oraz łatwą obsługę sieci.

Rozdział 2.Charakterystyka i specyfika pracy SEE w Polsce.

2.1.Podstawowe pojęcia ogólna charakterystyka .

System elektroenergetyczny sieci wraz z przyłączonymi do nich instalacjami do wytwarzania lub pobierania energii elektrycznej, współpracujące na zasadach określonych w odrębnych przepisach, zdolne do trwałego utrzymywania określonych parametrów niezawodnościowych i jakościowych dostaw energii elektrycznej oraz spełniania warunków obowiązujących we współpracy z innymi połączonymi systemami.

Bardzo ważną częścią składową systemu elektroenergetycznego są obwody oraz układy automatyczne, których zadaniem było współdziałanie z systemem elektroenergetycznym w optymalnym wykonaniu jego zadań. W ich skład między innymi wchodzą : elektroenergetyczna automatyka zabezpieczeniowa oraz regulacyjna, układy pomiarowe - lokalne i telemetryczne, układy sterowania lokalnego i telesterowania a także systemy łączności .

Rozwój układów oraz obwodów wtórnych w Polsce był niemal stale opóźniony w stosunku do rozwoju systemu elektroenergetycznego. Dlatego iż koncepcje rozwoju podstawowego systemu elektrycznego były opracowane stosunkowo systematycznie a potem rozwijane w miarę najbardziej palących potrzeb. To obwody oraz urządzenia wtórne nie nadążały na wyznaczony termin, nie zawsze w wymaganym zakresie wyposażeniowym. Natomiast rozwój koncepcji układów oraz systemów wtórnych bywał nierównomierny a także nie pozbawiony pomyłek, jednak niemal zawsze był pełen autentycznych osiągnięć. W okresie tym pojawiły się liczne pokolenia znakomitych specjalistów, którzy stawali się potem mózgiem oraz siłą motoryczną rozwoju układów automatyki. Opisywany okres w dziedzinie automatyki jest też okresem zasadniczego przewrotu. Pojawiają się obok tradycyjnej techniki analogowej nowe techniki jak technika tranzystorowa, układy scalone o wyższych stopniach integracji, a w ostatniej dekadzie bardzo szybkie układy cyfrowe, łącznie z techniką mikrokomputerów. Te nowe techniki różniące się w zasadniczy sposób od układów analogowych wniosły nowe metody a także sposoby rozpoznawania oraz analizowania zjawisk zachodzących w systemie pierwotnym, a dzięki prędkości działania i możliwości integrowania różnych funkcji otworzyły systemom wtórnym nowe drogi i pola działania. Jednak biorąc pod uwagę koszty oraz trudności materiałowe a także aparaturowe oraz techniczne . Stare analogowe systemy i układy wtórne, jako funkcjonująca obecnie większość, mogą być zastępowane tylko fragmentarycznie układami nowoczesnymi. Co pozwala na wkroczenie nowoczesności do systemu elektroenergetycznego najwcześniej tylko do wybranych, najważniejszych węzłów.

Szczególną uwagę przykładano w przeszłości jak i obecnie do skoordynowania rozmieszczenia w systemie elektroenergetycznym poszczególnych systemów oraz typów układów wtórnych, których rozmaitość wynikała początkowo z rodzimej niemal „ chałupniczej” produkcji niezbędnej aparatury wytwarzanej bądź w warsztatach Okręgów Energetycznych, bądź też pochodzących z dostaw zagranicznych, lub wreszcie z produkcji nielicznych fabryk w kraju. Zaszła więc potrzeba utworzenia ośrodków koncepcyjnych oraz wciągnięcie do prac rozwojowych oraz badawczych większości istniejących placówek tego typu w energetyce, w politechnikach, w biurach projektowych a także w przemyśle elektrotechnicznym. Konieczna też była rozbudowa istniejących już służb eksploatacyjnych oraz remontowych. Stosunkowe częste reorganizacje Resortu Energetyki nie przyniosły na szczęście szkód w funkcjonowaniu ośrodków koncepcyjnych, służb oraz specjalistycznych fabryk . Zawdzięczało to w większości nieformalnym, a zarazem przyjaznym i twórczym związkom powstałym pomiędzy specjalistami z omawianych dyscyplin. Dzięki tym związkom nie było opóźnień z powodu obwodów wtórnych przy uruchamianiu elektrowni i stacji.

Omawiany okres jest okresem dużych zmian w kształtowaniu się krajowego systemu elektroenergetycznego . Uruchomiono w tym czasie pierwsze połączenia między państwami liniami 220kV oraz 400kV. Budowie tej towarzyszyła odpowiednia rozbudowa układów wtórnych . Była ona jednak tym trudniejsza, iż każdy z dołączanych obcych systemów miał w obwodach wtórnych na ogół rodzimą aparaturę o istotnych wzajemnych różnicach konstrukcyjnych.

W rozwoju historycznym, elektroenergetyczna automatyka zabezpieczeniowa w swej sferze działania wytworzyła trzy główne grupy funkcyjne . Tworząc tym samym całkowicie wyodrębnione obwody o tzw. dedykowanym przeznaczeniu, lub tworząc zespoły o określonej, wzajemnej interakcji.

Pierwszą w rozwoju jest grupa eliminacyjna EAZ, której głównym zadaniem jest odłączenie od pierwotnego systemu elektroenergetycznego tego z jego elementów składowych, którego izolacja uległa trwałemu lub przejściowemu uszkodzeniu. Następstwem takiego uszkodzenia jest zwarcie w systemie elektroenergetycznym, które niszczy nie tylko obiekt dotknięty zwarciem, ale także stanowi poważną przeszkodę w dalszej normalnej pracy systemu. Akcja tego typu trwa od ułamków sekundy do kilku sekund.

Drugą z kolei jest grupa restytucyjna. Zapewnia ona zmianę konfiguracji systemu elektroenergetycznego w celu doprowadzenia systemu lub jego części do stanu poprawnego elektrycznie i zbilansowanego energetycznie, bądź wreszcie stara się ona usunąć przyczynę zwarcia bez trwałej zmiany konfiguracji systemu. Akcja tego typu trwa zwykle kilka sekund i może być powtarzana zgodnie ze z góry ustanowionym programem.

Trzecią stanowi grupa prewencyjna odpowiedzialna za kontrolowanie charakteru oraz prędkości zmian w czasie niektórych wielkości, cech lub stanów, jak np. : częstotliwość, napięcie, kierunek przepływu mocy czynnej, prąd, temperatura wielkości z góry oznaczonej wartości rozruchowej.

Typowymi przekładniami automatyki w tej grupie są:

Do prewencyjnej grupy EAZ należy tez specyficzna akcja regulatorów napięcia generatorów i silników synchronicznych, zasilających aktualnie powstałe zwarcie w systemie elektroenergetycznym . Akcja tych że regulatorów polega na szybkim a zarazem znacznym wzmocnieniu prądu wzbudzenia, aby podwyższyć napięcia w sieci . które obniżyło się wskutek zwarcia i pogorszyło warunki synchronizmu. Przed laty, do tego celu instalowano odrębne układy automatyczne, powodujące skokowe wzmocnienie prądu wzbudzenia. Dziś tę akcję przejęły nowoczesne regulatory napięcia . W praktyce można jednak spotkać liczne mutacje oraz kombinacje wzajemnie przedstawionych tu grup funkcyjnych.

W ostatnich latach w grupie prewencyjnej zaczyna się wyodrębniać podgrupa nazywana diagnostyczną . Jej działanie sprowadza się do śledzenia zmian określonych wielkości lub wartości w długim czasie. Urządzenie sygnalizuje, kiedy dana wielkość osiągnęła stan krytyczny, bądź też charakter zmian zachodzących w kontrolowanym obiekcie . Wskazuje również zbliżanie się do punktu zagrożenia . Chodzi tu przede wszystkim o śledzenie zmian oraz wyznaczenie ich trendu, np. trendu stratności dielektrycznej izolacji uzwojeń maszyn, trendu strat cieplnych w rdzeniu magnetycznym itd.

2.2. Początki ustawodawstwa polskiego dotyczącego energetyki.

Gospodarka elektryczna w Polsce do końca XIX w. aż do momentu uzyskania przez Polskę niepodległości w 1918 r. była prowadzona przez państwa zaborcze pod kątem widzenia interesów publicznych jak i gospodarczych. W styczniu 1920 r. została powołana przy Ministerstwie Przemysłu oraz Handlu Państwowa Rada Elektrotechniczna . Spośród której została wyłoniona specjalna komisja do opracowania projektu ustawy o wytwarzaniu, przetwarzaniu oraz rozdzielaniu energii elektrycznej. Komisja ta przedstawiła Radzie Elektrotechnicznej projekt ustawy, który następnie został przez nią zaakceptowany oraz przedstawiony rządowi. Projekt ten został wniesiony do Sejmu Ustawodawczego na posiedzeniu dnia 21 marca 1922 roku przez ministra robót publicznych. Posłem sprawozdawcą ustawy był poseł Majewski następnie po nim zabrał głos podsekretarz stanu Ministerstwa Robót Publicznych poseł Rybczyński który powiedział co następuje: „Przedkładając Wysokiemu Sejmowi projekt ustawy o elektryfikacji, rząd ma zamiar uczynic pierwszy krok w kierunku, którym w naszym państwie dotychczas bardzo mało zrobiono”. Dodał również do słów swojego przedmówcy iż w innych państwach zużycie energii elektrycznej wynosi 100-200 kW /h na głowę, to w naszym państwie zużycie wynosi zaledwie 9 kW/h na głowę.

Powyższe słowa nie ilustrowały jednak pełnego stanu zaniedbań, jakie niepodległe Państwo Polskie odziedziczyło po państwach zaborczych. Według danych statystycznych z 1920 r. na terenie całego kraju . Wyłączając Górny Śląsk istniało zaledwie 81 elektrowni użyteczności publicznej, 3 przedsiębiorstwa zajmujące się rozdzieleniem energii elektrycznej oraz trzy towarzystwa o charakterze spółek kapitałowych z udziałem kapitału zagranicznego.

Ustawa ta była jak na owe czasy osiągnięciem prawodawczym o wielkim znaczeniu dla Polski .

Punktem wyjścia tej ustawy była zasada wyrażona w artykule 5.

Mianowicie iż uprawnienie na wytwarzanie, przetwarzanie oraz przesyłanie a także rozdzielenie energii elektrycznej w celu zawodowego jej zdobywania wydaje rząd w osobie ministra robót publicznych. Artykuł 8 ustawy elektrycznej przyznawał natomiast zakładom elektrycznym działającym na mocy uprawnienia rządowego prawo do bezpłatnego korzystania z dróg, ulic oraz placów publicznych, za odszkodowaniem zaś z posiadłości państwowych, gminnych oraz prywatnych- w celu prowadzenia przewodów nad-lub podziemnych, ustawiania stacji transformatorowych oraz innych tego rodzaju urządzeń, umocowywania przewodów oraz wsporników na ścianach i dachach budynków a także obcinania gałęzi drzew w pobliżu przewodów elektrycznych.

Kolejne uprawnienia przyznawane zostały zakładom elektrycznym użyteczności publicznej z mocy art.10 . ustawy elektrycznej. Przepis ten pozwalał zakładom nabywać w drodze wywłaszczenia a także okresowo zajmować nieruchomości stałe lub czasowo potrzebne do budowy oraz utrzymania zakładu elektrycznego.

Ustawa ta jednak musiała posiadać pewne ograniczenia. Najważniejsze jej przypisy sprowadzały się do następujących zasad:

Uchwalenie tejże ustawy wywołało szeroką dyskusję w wielu kręgach . Zarówno w Związku Elektrowni Polskich, jak też i w Stowarzyszeniu Elektrotechników Polskich . W dyskusjach tych kładziono nacisk na to iż ustawa nie przewiduje obowiązku angażowania fachowych kół do rozstrzygania zagadnień związanych z udzieleniem uprawnień rządowych.

Na walnym zgromadzeniu Związku Elektrowni Polskich uchwalone zostały następujące trzy wnioski :

Jednak wybuch drugiej wojny światowej przerwał dopiero co rozpoczętą elektryfikację kraju. Okres osiemnastoletni, jaki upłynął od momentu uchwalenia ustawy elektrycznej, był za krótki by można było dokonać poważniejszych stosunkowo kosztownych inwestycji elektrycznych. Na które składało by się budowa nowych ogromnych elektrowni, linii niskiego oraz wysokiego napięcia oraz związanych z tym urządzeń do rozprowadzania energii elektrycznej .

Rabunkowa gospodarka przeprowadzana przez hitlerowskiego okupanta nie oszczędziła również przemysłu energetycznego.

Na zachodnich obszarach Polski wcielonych do Trzeciej Rzeszy Niemieckiej obowiązywało w całości ustawodawstwo niemieckie . Polskie przepisy zostały uchylone. Przestały zatem obowiązywać na tych że terenach przepisy ustawy elektrycznej z dnia 21 marca 1922 r. wraz ze wszystkimi przepisami wykonawczymi.

Podstawę prawną dla takiego uregulowania stanowiło zarządzenie okupanta z dnia 6 lutego 1940 r. w sprawie wprowadzenia przepisów o gospodarce elektrycznej na ziemiach wschodnich, wcielonych do Rzeszy Niemieckiej.

Natomiast na terenach polskich zwanych później Generalną Gubernią pozostawały nadal w mocy przepisy ustawy elektrycznej z dnia 21 marca 1922 r. wraz z wszystkimi przepisami wykonawczymi, wydanymi do tej ustawy. Uległy zmianie jedynie częściowo przepisy taryfowe związane z dostawą energii elektrycznej., z równoczesnym przystosowaniem ich do nowego pieniądza wprowadzonego na tych że ziemiach.

Nie oznaczało to jednak iż okupant zamierzał pozostawić w Generalnej Guberni gospodarkę elektryczną w rękach polskich. Przeciwnie na tych terenach gubernator Frank wydał specjalne zarządzenie z dnia 20 lutego 1941 r.

Reasumując na terenach wcielonych do Rzeszy Niemieckiej obowiązywała ustawa z grudnia 1935 r. o popieraniu gospodarki elektrycznej, natomiast na terenach Generalnej Guberni obowiązywała nadal ustawa elektryczna polska z dnia 1922 roku wraz z przepisami wykonawczymi.

Dekretem z dnia 29 lipca 1941 r. utworzony został urząd inspektora generalnego dla gospodarki wodnej oraz energetycznej . Do którego zadań należało między innymi wprowadzenie jednolitego planowania w sprawach związanych z gospodarką energetyczną . Uprawnienia ministra gospodarki w zakresie gospodarki energetycznej zostały przekazane tym dekretem inspektorowi generalnemu.
Na mocy tego dekretu inspektor generalny upoważniony został do wydawania przepisów oraz zarządzeń w przedmiocie budowy nowych zakładów elektrycznych lub zabudowy istniejących już zakładów, koniecznych do obronności kraju. Ponadto ustawa ta dawała inspektorowi generalnemu prawo do wydawania przepisów i zarządzeń w sprawie warunków technicznych bezpieczeństwa pracy, budowy instalacji elektrycznych a także odbiorników elektrycznych, jak i przepisów o nadzorze nad tymi urządzeniami. Zarówno polska ustawa elektryczna z dnia 21 marca 1922 r. jak i niemiecka ustawa o popieraniu gospodarki energetycznej z dnia 13 grudnia 1935 r. stanowiły w tej dziedzinie najnowocześniejsze akty legislacyjne w Europie.

2.3.Warunki rozwoju energetyki bezpośrednio po drugiej wojnie światowej.

Po wyzwoleniu kraju załogi wielu zakładów oraz fabryk przystąpiły od razu do odbudowy zniszczeń z wielkim zaangażowaniem oraz entuzjazmem. Jedynym wynagrodzeniem za wniesioną pracę były skromne obiady wydawane przez stołówki przyzakładowe oraz przydziały chleba dla rodzin osób zatrudnionych. Żadnych wynagrodzeń pieniężnych do 1945 roku nie było.

W podobnych warunkach pracowali również energetycy. Brygady monterskie usuwające zniszczenia powstałe zwłaszcza w sieciach, pracowały w trudnych warunkach dlatego iż większa część kraju została wyzwolona późną jesienią 1944 r. i zimą 1945 r. Brakowało wtedy to ciepłej odzieży, butów, rękawic itp. Szybka naprawa zniszczonych lub uszkodzonych urządzeń energetycznych a przede wszystkim uruchomienie zakładów pracy, urządzeń komunalnych i użyteczności publicznej oraz zaopatrzenie ludności w pożywienie były wtedy sprawami najważniejszymi dla władz naczelnych odbudowującego się państwa.

Uspołecznianie majątków ziemskich oraz zakładów pracy nastąpiło samorzutnie, gdyż objęli je robotnicy natychmiast po ucieczce okupanta. Formalnie a więc i prawnie, upaństwowiono je dopiero dekretem o reformie rolnej z 6 kwietnia 1944 r. oraz ustawą z 3 stycznia 1946 roku o przejęciu na własność państwa podstawowych gałęzi gospodarki narodowej..

Przejęte przez władze polskie zakłady użyteczności publicznej oraz przedsiębiorstwa produkcyjne oraz usługowe rozpoczynały swoja działalność pod swymi dawnymi polskimi nazwami. Z braku innego formalnego aktu prawnego przyjmowano, iż zakłady te stanowiły majątek opuszczony lub też porzucony przez właścicieli, albo stanowił majątek poniemiecki, do których miały zastosowania przepisy dekretu z 2 marca 1945 r. o majątkach opuszczonych .

Stan taki utrzymywał się do momentu pojawienia się w Dzienniku Ustaw ustawy z 3 stycznia 1946 r. ( tzw.. nacjonalizacyjnej).

Aby scharakteryzować stan nacjonalizowanych przedsiębiorstw możemy się tu posłużyć danymi zebranymi przez Stowarzyszenie Elektryków Polskich i tak pod koniec 1937 r. pracowało w kraju 171 elektrowni o jednostkowej mocy zainstalowanej większej niż 1000 kW, 386 elektrowni o mocy 101 do 1000 kW, 439 elektrowni komunalnych (użyteczności publicznej) o mocy do 100 kW. Natomiast w rekach prywatnych znajdowało się 1774 elektrownie o mocy jednostkowej nie mniejszej od 100 kW. Pracowało również w tym czasie 20 elektrowni wodnych oraz wodno-cieplnych, a cztery elektrownie były w czasie budowy. Największe w tym czasie elektrownie zawodowe, Chorzów oraz Łaziska, miały moc jednostkową ok. 100 MW.. Nieliczne elektrownie zaopatrywały w energie elektryczną, za pomocą sieci okręgowych, przede wszystkim te zakłady które nie posiadały własnych elektrowni przemysłowych., a czasem i również gospodarkę komunalną najbliższych miast i powiatów oraz ludność tych obszarów. Budowie dużych elektrowni oraz linii dalekosiężnych wysokiego napięcia nie sprzyjały jednak wysokie koszty oraz umowy koncesyjne, pozwalające właścicielom elektrowni wyłączność zasilania w energię elektryczną na wyznaczonym obszarze. Do podstawowych przyczyn braku większej liczby elektrowni zawodowych w Polsce do 1939 roku należy zaliczyć słabe uprzemysłowienie kraju a co za tym idzie brak dużych odbiorców energii elektrycznej.

Sytuacja uległa jednak zmianie dopiero po przejęciu przez państwo podstawowych gałęzi gospodarki narodowej co stworzyło warunki do rozwoju przemysłu energetycznego a co za tym idzie rozwinięcie wielu nowych gałęzi przemysłu.

Wspomniana wcześniej ustawa nacjonalizacyjna oraz dekret PKWN o reformie rolnej stworzyły podstawy prawne do stworzenia nowego ustroju gospodarczego Polski. Istniała jednak zasadnicza różnica pomiędzy tymi dwoma aktami prawnymi. Dekret o reformie rolnej przekazywał ziemie przejętą przez państwo na powiększenie areału już istniejących mniejszych gospodarstw a także na uwłaszczenie bezrolnych robotników folwarcznych oraz drobnych dzierżawców rolnych.

2.4. Ustawa nacjonalizacyjna.

Na mocy artykułu drugiego tejże ustawy na własność państwa przechodziły bez żadnego odszkodowania przedsiębiorstwa przemysłowe, górnicze, komunikacyjne, bankowe, ubezpieczeniowe oraz handlowe:

Za odszkodowaniem przechodziły na własność państwa przedsiębiorstwa górnicze i przemysłowe podstawowych gałęzi gospodarki narodowej, wyszczególnione w artykule 3.ustawy nacjonalizacyjnej. Znalazły się tam między innymi przedsiębiorstwa wytwarzające, przetwarzające, przesyłające oraz rozdzielające energię elektryczną.

O przejściu lub też przejęciu przedsiębiorstwa na własność państwa decydował minister. Upaństwowieniu podlegał jednak tylko majątek przedsiębiorstwa oraz jego prawa, a nie zarejestrowana firma lub nazwa. Chodziło o to, aby nabycie upaństwowionych przedsiębiorstw było nabyciem pierwotnym, tzn. takim w którym nie było ponoszenia odpowiedzialności za dotychczasowe zobowiązania tych przedsiębiorstw.

Jak już wspomniano, orzeczenie o przejęciu przedsiębiorstwa na własność państwa wydawał odpowiedni minister. Następnie było ogłaszane w Monitorze Polskim z równoczesnym wyłonieniem osoby lub organizacji zobowiązanej do przejęcia upaństwowionego przedsiębiorstwa.

Faktyczną podstawę do przejęcia przedsiębiorstwa na własność państwa stanowił protokół zdawczo-odbiorczy, który zawierał następujące dane:

Zakończeniem procedury nacjonalizacyjnej było zarządzenie ministra o zatwierdzeniu protokołu zdawczo - odbiorczego upaństwowionego przedsiębiorstwa oraz zmienienie nazwy przedsiębiorstwa z wyraźnym zaznaczeniem, iż stanowi ono własność państwa.

W artykule 2 tej ustawy stwierdzono, że nie podlegają upaństwowieniu przedsiębiorstwa stanowiące własność związków samorządowych., międzykomunalnych, spółdzielni lub związków spółdzielni. Nie pozwalało to na prowadzenie planowanej gospodarki energetycznej w całym kraju, zwłaszcza w zakresie dysponowania mocą a także podejmowania decyzji o budowie nowych inwestycji energetycznych. Zaszła więc konieczność wydania nowego dekretu, którym to została ustawa z 4 lipca 1947 roku o planowanej gospodarce energetycznej.

Zgodnie z artykułem 2 tej ustawy Minister Przemysłu oraz Handlu za aprobatą zainteresowanych ministrów, utworzył zjednoczenia energetyczne, mające osobowość prawną jako przedsiębiorstwa państwowe. Artykuł 6 . tej ustawy donosił, że do zjednoczeń energetycznych wchodzą wszystkie zakłady elektryczne położone na terenie danego okręgu energetycznego, bez względu na to czyją własność stanowią . Za wyjątkiem zakładów nie zdobywających zawodowo energii elektrycznej oraz zakładów nie związanych z państwową lub okręgową siecią elektryczną.

W dalszych artykułach ustawy o planowanej gospodarce energetycznej postanowiono, że zjednoczenia energetyczne zarządzają wszystkimi zakładami elektrycznymi wchodzącymi w ich skład oraz eksploatują te zakłady na własny rachunek

Na mocy artykułu 8. zjednoczenia energetyczne wchodziły we wszystkie prawa przejętych zakładów elektrycznych oraz przejmowały związane z dotychczasową działalnością zobowiązania o charakterze publiczno- prawnym na rzecz osób prawnych prawa publicznego, a także wszelkie zobowiązania mające swe źródło w stosunku najmu pracy.

Ustawa o planowanej gospodarce energetycznej nie upaństwawiała zatem tych zakładów energetycznych, lecz normowała przejęcie ich przez zjednoczenia energetyczne, które miały powstać jako branżowe przedsiębiorstwa państwowe. Majątek tych zakładów miał się później stać własnością skarbu państwa na mocy przepisów ustawy z 20 marca 1950 r. o terenowych organach jednolitej władzy państwowej. Zakres uprawnień zjednoczeń energetycznych oraz sposób i tryb przejmowania przez nie zakładów elektrycznych normowało rozporządzenie Ministra Przemysłu i Handlu z dnia 5 lipca 1948 r.

Wszelkie postanowienia umów koncesyjnych, uprawnień rządowych oraz zezwoleń uzyskanych do 1939 r. a niezgodne z przepisami ustawy o planowanej gospodarce energetycznej lub rozporządzeniami i zarządzeniami wydanymi na jego podstawie, zostały uchylone bez prawa stron do jakichkolwiek roszczeń z tego tytułu . Nawiązywano zatem do ustawy elektrycznej z 21 marca 1922 r. która regulowała te zagadnienia odmiennie.

Rozporządzenie wykonawcze Ministra Przemysłu i Handlu z 5 lipca 1948 r. mówiło o przejęciu przez zjednoczenia energetyczne podlegające budynki przeznaczone do wytwarzania, przetwarzania, przesyłania a także rozdzielania energii elektrycznej wraz z urządzeniami oraz należące do zakładów elektrycznych magazyny z towarami i narzędziami, środki transportu, biura a także budynki mieszkalne.

Ponadto rozporządzenie to dawało prawa zjednoczeniom energetycznym co do prawa rozbudowy, łączenia oraz dzielenia przejętych zakładów elektrycznych a także wznoszenia na gruntach tych zakładów nowych budowli oraz przenoszenia maszyn i urządzeń do innych zakładów.

Reasumując w ramach zjednoczeń energetycznych znalazły się więc wszystkie zakłady elektryczne zajmujące się zawodowym pozyskiwaniem energii elektrycznej a przejęte :

Zakłady te stanowiły trzon państwowego przemysłu energetycznego.

2.5.Początki organizacyjne przemysłu energetycznego.

Ministerstwo Przemysłu w ramach PKWN zostało utworzone dopiero na mocy dekretu z 1 grudnia 1944 r. Ustawą z 31 grudnia został 1944 r. został powołany Rząd Tymczasowy, w którego skład wchodziło również Ministerstwo Przemysłu.

W pracy oparto się na ustaleniach mgr. S.Rosiaka które to zostały zawarte w opracowaniu p.t. „Odbudowa energetyki polskiej w latach 1944-1946 po zniszczeniach wojennych”. Na podstawie przeprowadzonych rozmów z uczestnikami prac organizacyjnych byłego Ministra Przemysłu mgr Rosiak donosi, iż PKWN nadał przemysłowi energetycznemu wysoką rangę, tworząc we wrześniu 1944 r. Dział Energetyczny w ramach Ministerstwa Gospodarki Narodowej i Finansów.

Do zadań tego Działu należało:

Następnie mgr Rosiak informuje, że po utworzeniu Rządu Tymczasowego Polskiej Rzeczypospolitej Ludowej Dział Energetyczny przekształcono w Departament Energetyczny w nowo utworzonym Ministerstwie Przemysłu. Wprowadziło to zmiany w strukturze zjednoczeń energetycznych i tak oto powstały w drugiej połowie 1945 r. następujące Zjednoczenia Energetyczne podległe Centralnemu Zarządowi Przemysłu Energetycznego:

    1. Tymczasowy Zarząd Państwowy Zakładów Elektrycznych Okręgu Warszawskiego w Warszawie;

    2. Zjednoczenie Energetyczne (ZE) Okręgu Radomsko-Kieleckiego w Skarżysku-Kamiennej;

    3. ZE Okręgu Łódzkiego w Łodzi ;

    4. ZE Okręgu Mazowieckiego w Płocku;

    5. ZE Okręgu Białostockiego w Białymstoku;

    6. ZE Okręgu Lubelskiego w Lublinie;

    7. ZE Okręgu Krakowskiego w Krakowie;

    8. ZE Zagłębia Węglowego w Katowicach;

    9. ZE Okręgu Dolnośląskiego w Jeleniej Górze;

    10. ZE Okręgu Poznańskiego w Poznaniu;

    11. ZE Okręgu Pomorza Zachodniego w Szczecinie;

    12. ZE Okręgu Pomorskiego - Zakładów Elektrycznych Pomorza - w Bydgoszczy

    13. ZE Okręgu Mazurskiego w Olsztynie ;

    14. ZE Okręgu Pomorskiego - Zakładów Elektrycznych Wybrzeża w Gdańsku.

Do głównych zadań tych zjednoczeń należało zreorganizowanie podległych im elektrowni oraz zakładów sieciowych a także dostosowanie struktury tych zakładów do istniejących potrzeb gospodarki narodowej, a przede wszystkim odbudowa zniszczonych i zdewastowanych elektrowni oraz sieci elektrycznych.

W sierpniu 1948 r. został utworzony Centralny Zarząd Energetyki (CZE), jako przedsiębiorstwo państwowe z siedzibą w Warszawie. Do jego podstawowych zadań należało : koordynowanie, nadzorowanie oraz kontrolowanie działalności przedsiębiorstw państwowych wymienionych w wykazie załączonym do zarządzenia powołującego do życia CZE.

Na mocy kolejnego zarządzenia zostały utworzone, w miejsce dotychczasowych, następujące zjednoczenia energetyczne oczywiście jako przedsiębiorstwa państwowe, posiadające osobowość prawną:

  1. Zjednoczenie Energetyczne (ZE) Okręgu Warszawskiego z siedzibą w Warszawie;

  2. ZE Okręgu Radomsko-Kieleckiego z siedzibą w Skarżysku- Kamiennej;

  3. ZE Okręgu Łódzkiego z siedzibą w Łodzi ;

  4. ZE Okręgu Płocko - Włocławskiego z siedzibą w Płocku ;

  5. ZE Okręgu Białostockiego z siedzibą w Białymstoku;

  6. ZE Okręgu Lubelskiego z siedzibą w Lublinie ;

  7. ZE Okręgu Krakowskiego z siedzibą w Krakowie;

  8. ZE Okręgu Górnośląskiego z siedzibą w Katowicach ;

  9. ZE Okręgu Dolnośląskiego z siedzibą we Wrocławiu;

  10. ZE Okręgu Poznańskiego z siedzibą w Poznaniu;

  11. ZE Okręgu Szczecińskiego z siedzibą w Szczecinie;

  12. ZE Okręgu Bydgosko - Toruńskiego z siedzibą w Bydgoszczy;

  13. ZE Okręgu Mazurskiego z siedzibą w Olsztynie;

  14. ZE Okręgu Nadmorskiego z siedzibą w Gdańsku;

Do zadań tych zjednoczeń należało między innymi:

Lata 1947 -1952 nie były pomyślne dla przemysłu energetycznego Ministerstwo Przemysłu objęto licznymi reorganizacjami a zwłaszcza energetykę. Szybka rozbudowa istniejących a także budowa nowych elektrowni zostały wskutek tego opóźnione, co oddziaływało niekorzystnie na całą gospodarkę w latach następnych. I tak:

  1. W 1947 r. dekretem z 27 marca o zmianach w organizacji oraz zakresie działania naczelnych władz administracyjnych Ministerstwo Przemysłu zostało przekształcone w Ministerstwo Przemysłu i Handlu. Zakres działania nowo powstałego ministerstwa został znacznie rozszerzony, tj przejęło ono kompetencje Ministerstwa Aprowizacji i Handlu oraz Ministra Żeglugi i Handlu Zagranicznego.

  2. Natomiast na mocy ustawy z 10 lutego 1949 roku o zmianie organizacji naczelnych władz gospodarki narodowej, Ministerstwo Przemysłu i Handlu przekształcono z kolei w Ministerstwo Górnictwa i Energetyki z równoczesnym przekazaniem spraw handlu oraz żeglugi nowym resortom.

  3. w niecały rok później, bo ustawą z 7 marca 1950 r. o przekształceniu Ministerstwa Górnictwa i Energetyki w urząd Ministra Górnictwa, sprawy energetyki przekazano Ministerstwu Przemysłu Ciężkiego, w którego zarządzeniu pozostało do lutego 1952 r.

Na mocy rozporządzenia Ministra Przemysłu Ciężkiego z 16 stycznia 1952 roku obszar państwa podzielono na sześć okręgów energetycznych: okręg centralny, wschodni, południowy, dolnośląski, zachodni oraz północny.

  1. Ustawą z 15 lutego 1952 r. o organizacji władz naczelnych w dziedzinie przemysłu ciężkiego utworzony został urząd Ministra Energetyki, a rozporządzenie Rady Ministrów określiło właściwość Ministra Energetyki oraz

ustaliło, które przedsiębiorstwa oraz instytucje będą mu podlegać.

  1. Na mocy uchwały Rady Ministrów nr 141 z 8 marca 1952 r. w sprawie tymczasowego statutu organizacyjnego Ministerstwa Energetyki zniesiono Zjednoczenie Energetyki, a w jego miejsce Minister Energetyki zarządzeniem nr 75/52 z lipca 1952 r. przekształcił dotychczasowe zjednoczenia energetyczne w sześć Zarządów Energetycznych Okręgów : Centralnego w Warszawie, Wschodniego w Radomiu. Południowego w Katowicach, Dolnośląskiego we Wrocławiu, Zachodniego w Poznaniu, oraz Północnego w Bydgoszczy. Równocześnie zarządzenie to mówiło, iż do końca 1952 r. jednostki organizacyjne podległe dotychczasowym zjednoczeniom energetycznym okręgów pozostaną przedsiębiorstwami z osobowością prawną.

  2. Ustawa z 22 marca 1957 roku o zmianach w organizacji i zakresie działania naczelnych organów administracji państwowej doprowadziła do połączenia urzędów Ministerstwa Górnictwa Węglowego i Ministra Energetyki w urząd Ministra Górnictwa i Energetyki. W 1958 r. Minister Górnictwa i Energetyki wydał zarządzenie o utworzeniu przedsiębiorstw państwowych pod nazwą Zakłady Energetyczne Okręgów i połączeniu tych przedsiębiorstw z podległymi dotychczas Zarządom Energetycznym. Powstały w ten sposób na przełomie lat 1958/1959 następujące przedsiębiorstwa:

Równocześnie Minister Górnictwa i Energetyki utworzył ponownie Zjednoczenie Energetyki z siedzibą w Warszawie.

  1. Ustawą z 27 marca 1976 r. został zniesiony urząd Ministerstwa Górnictwa i Energetyki natomiast został utworzony na mocy odrębnej ustawy urząd Ministra Energetyki i Energii Atomowej.

2.6.Zarys organizacji w latach 1965-1985.

Organizacja Zjednoczenia Energetyki nie uległa w zasadzie zmianie od momentu jej utworzenia czyli 1976 roku. Obowiązki Dyrektora Naczelnego od 1963 roku wykonywał Generalny Dyrektor Ministerstwa, a następnie Podsekretarz Stanu podległy bezpośrednio Ministrowi Górnictwa i Energetyki. Taki układ organizacyjny zapewniał wysoką sprawność zarządzania oraz łatwość w kontaktach z organami Rządu oraz operatywność.

W 1971 r. powołano Naczelnego Dyrektora Zjednoczenia Energetyki zwalniając tym samym Podsekretarza Stanu z bezpośredniego kierowania energetyką. Pomimo koncentracji zarządzania energetyką kierownictwo zjednoczenia starało się rozwijać inicjatywę w podległych zakładach, powołując do życia nieformalne zespoły konsultacyjne poza ciałem kolegialnym. Dzięki tym zespołom podniósł się poziom eksploatacji oraz realizacji zadań.

Aby się lepiej zorientować w potrzebach zakładów Dyrektor Naczelny ZE w 1964 powołał inspektorów eksploatacji elektrowni i sieci. Byli to inżynierowie z bagażem doświadczeń a do głównych ich celów należało nieść pomoc w rozwiązywaniu trudności w terenie oraz w wymianie doświadczeń.

Szybkie tempo rozwoju energetyki oraz systematyczny postęp techniczny w dziedzinie produkcji a także przemysłu oraz rozdziału energii elektrycznej wymagały wprowadzenia również, poza PDM, nowoczesnych metod zarządzania.

W związku z utworzeniem urzędu Ministra Energetyki i Energii Atomowej ( Uchwała Sejmu z dnia 27 marca 1976 roku).przekazano Ministerstwu problematykę dotyczącą:

Od dnia 5 października 1979 roku do Ministra Energetyki i Energii Atomowej należy także problematyka dotycząca:

Resort energetyki oraz energii atomowej powstał z podporządkowanych byłemu Ministrowi Górnictwa i Energetyki:

Branża elektroenergetyczna - Zjednoczenie Energetyki Polskiej, a potem odpowiednie departamenty ministerstwa - miała do swojej bezpośredniej dyspozycji Biuro Studiów i Projektów Energoprojekt, Instytut Energetyki, Instytut Automatyki Sieci, Instytut Automatyki Systemów Energetycznych IASE oraz Centrum Obliczeniowe i Energopomiar. Na rzecz energetyki pracowały również inne instytuty takie jak : Instytut Techniki Cieplnej w Łodzi, Instytut Elektrotechniki w Warszawie oraz katedry, a później instytuty Politechnik : Warszawskiej, Gdańskiej, Łódzkiej, Śląskiej i Wrocławskiej.

Współpraca z zagranicą przebiegała za pośrednictwem organizacji międzynarodowych oraz kontaktów dwustronnych. W Radzie Wzajemnej Pomocy Gospodarczej (RWPG) na rzecz energetyki działa Stała Komisja RWPG ds. Współpracy z w Dziedzinie Elektroenergetyki. Współpraca ta polegała na koordynowaniu planów rozwoju informacji a zarazem wymianie doświadczeń a także wspólnym opracowaniu wybranych zagadnień. Jako członek ONZ, Polska - obok innych krajów europejskich a także USA i Kanady uczestniczy w działalności Europejskiej Komisji Gospodarczej. Działalność ta polegała na wzajemnej wymianie informacji a także doświadczeń oraz opracowywaniu przez sekretariat Komisji wybranych zagadnień przy wykorzystaniu materiałów krajowych(np. opracowanie problemu racjonalnego użytkowania energii).

Energetyka Polska jest członkiem wielu organizacji międzynarodowych, między innymi UNIPEDE w skład której wchodzą wszystkie kraje Europy Zachodniej. Uczestnictwo to polega na korzystaniu z doświadczeń krajów członkowskich a zarazem przekazywaniu własnych doświadczeń. W organizacji międzynarodowej CIGRE w skład Polskiego Komitetu wchodzą przedstawiciele energetyki, przemysłu elektrotechnicznego oraz niektórych politechnik. Komisja ta zajmuje się zagadnieniami elektrycznymi sieci najwyższych napięć z punktu widzenia konstrukcyjnego a także eksploatacyjnego.

Współpracą z instytucjami oraz organizacjami międzynarodowymi zarządzała dyrekcja techniczna Zjednoczenia Energetyki a także ustalała środki finansowe na poszczególne tematy . Zajmowała się też między innymi odbiorem formalnym pracy.

Natomiast odbiór merytoryczny prac badawczych był dokonywany przez rady naukowe poszczególnych instytutów, radę naukowo-techniczną Zjednoczenia Energetyki lub radę techniczno-ekonomiczną przy Ministrze Górnictwa i Energetyki . Zazwyczaj odbiór prac przebiegał dwustopniowo. Tylko najpoważniejsze tematy badawcze, jak np. koncepcje rozwoju energetyki, były rozpatrywane przez radę techniczno-ekonomiczną resortu. Dla każdej pracy opracowany był jeden do trzech koreferatów . Zarówno instytutom własnym jak i obcym zlecano też zagadnienia doraźne, wynikające z bieżących nieprzewidzianych potrzeb. Opracowywaniem koncepcji rozwoju oraz programami rozwoju energetyki zajmował się do( 1975r) zespół podległy dyrektorowi technicznemu Zjednoczenia Energetyki . W skład tegoż zespołu wchodził Zakład Systemu Instytutu Energetyki oraz kilku pracowników Zjednoczenia Energetyki. Taka forma zapewniała wielką aktualność a także wysoki stopień wdrożenia opracowań.

Instytuty pozyskiwały środki finansowe na swoją działalność w drodze przyznawania im przez Zjednoczenie Energetyki sum na poszczególne tematy badawcze. Okręgowe Zakłady Energetyczne miały również możliwość zlecania prac badawczych instytutom w koordynacji ze Zjednoczeniem Energetyki. Rozwijano też formę współpracy tzw. bezdewizowej dwustronnej (np. Energopomiar z energetyką francuską). Spora liczba pracowników placówek naukowo-badawczych oraz praktyków zdobywało cenne staże naukowe we Francji, USA czy innych krajach. Staże te zaowocowały śmiałością w koncepcjach projektowych organizacyjnych a także rozwiązań automatyzacji nadzoru nad pracą systemu elektroenergetycznego.

Rozdział 3 . Rola i zadania Internetu w polskiej elektroenergetyce.

Internet jest rozwinięciem niewielkiej sieci stworzonej na zamówienie Pentagonu w połowie lat 70. Ogólnie rzecz biorąc, Internet jest popularną ogólnoświatową siecią składającą się z milionów komputerów, z których wszystkie są ze sobą połączone za pomocą wspólnych standardów i protokołów. Standardy i protokoły Internetowe umożliwiają użytkownikom na całym świecie wymienianie informacji, komunikatów wysyłanych pocztą elektroniczną i oprogramowania za pośrednictwem ich lokalnych komputerów. Wykorzystywane jest to między innymi także w energetyce.


0x01 graphic

FTP- (File Transfer Protocol- protokół przesyłania plików) służy do przesyłania zarówno tekstowych jak i binarnych plików danych pomiędzy dwoma komputerami. W ten o to sposób są przesyłane wśród wielu firm oraz instytucji w branży elektroenergetycznej najnowsze wersje programów . Za pomocą FTP można również sprowadzać poszczególne publikacje naukowe, pliki archiwalne czasopism czy też listy dyskusyjne.

Specyfikacja tego protokołu została opublikowana w 1985 roku w dokumencie RFC959, który jak i wszystkie oficjalne dokumenty dotyczące problematyki Internetu można znaleźć pod adresem : http://www.w3.org/.

Zasada działania tego protokołu jest bardzo prosta . Mianowicie w jednym komputerze tzw. serwerze FTP udostępniane są pliki, natomiast w drugim zainstalowany jest specjalny program tzw. klient FTP, dzięki któremu można pobrać zbiory z serwera lub je do niego przesłać. Przedstawiona sytuacja jest na rysunku1. Potocznie termin FTP określa właśnie program klienta. Użytkownik poprzez odpowiednie polecenia może nie tylko przesłać plik między dwoma komputerami, ale także ma możliwość zmienić jego nazwę, wyświetlić zawartość czy też przejść do innego katalogu w serwerze.

Mamy takich poleceń kilkadziesiąt i znane powinny być tylko użytkownikowi, który nie posiada w swoim komputerze zainstalowanego specjalnego oprogramowania wspomagającego korzystanie z serwerów FTP(czyli tzw. FTP-owanie).

Na sesję FTP składają się trzy części . Pierwszą stanowi zalogowanie się na zdalnym komputerze . Mianowicie trzeba podać nazwę użytkownika oraz hasło. W większości serwerów mamy dostęp do tzw. anonimowego konta FTP, gdzie jako użytkownika wpisuje się FTP czasami anonymous. natomiast jako hasło - własny adres mejlowy. Jeżeli mamy na tym serwerze własne konto należy wówczas podać swoje dane. Drugą część sesji stanowią operacje na odległych plikach oraz katalogach- kopiowanie transmisji itp. Czasami zdarza się jednak, iż podczas przesyłania danych nastąpi przerwanie połączenia . Wtedy to niektóre serwery udostępniają polecenie reconnect, które pozwala na rekonstrukcję przerwanej transmisji oraz przesyłanie pliku od momentu awarii. Ostatni etap to zamknięcie sesji . Niektóre serwery podają na zakończenie wielkość przesyłanych danych.

W celu wyszukania odpowiednich plików, można użyć usługi Archie, która daje nam odpowiedź na pytanie : w jakim komputerze oraz w jakim skorowidzu można znaleźć plik o podanej przez użytkownika nazwie.

Archie to program pozwalający na znalezienie konkretnego pliku lub katalogu wśród gigabajtów zasobów internetowych. Jego bazy danych są na bieżąco uaktualniane . W bazach danych Archie na całym świecie, znajdują się informacje o 2,5 mln plików z około tysiąca serwerów . Dziennie do wszystkich Archie - serwerów łączy się około 50 tyś użytkowników.

Archie w rzeczywistości stanowi sieć serwerów . Każdy z nich musi w regularnych odstępach czasu odpytywać znajdujące się w jego regionie geograficznym serwery anonymous FTP aby ustalić ich zawartość. Program ten loguje się na serwerze i pracuje za pomocą standardowych poleceń FTP. Umożliwia to w ten sposób dostęp do rozsianych po całym świecie archiwów FTP.

Użytkownik ma trzy możliwości korzystania z usług Archie - serwera. Pierwszą z nich stanowi praca w trybie interaktywnym za pomocą programu telnet. Druga metoda poszukiwania w programie Archie to wysyłanie zleceń za pomocą poczty elektronicznej. Jej podstawową zaletą jest stuprocentowa niezależność od prędkości połączenia z Archie serwerem i od prędkości działania samego programu Archie. Rezultaty żądanych poszukiwań oraz wszystkich poleceń sformułowanych w zapytaniu są wysyłane przez Archie- serwer jako zwykła poczta, podczas gdy użytkownik zajmuje się czymś innym.

Ostatnia możliwość to Archie - klient . Jest ich wiele dla przeróżnych systemów - Unix, VMS, X- Windows, Mac, czy też PC Windows . Są one bardzo różnorodne . Od takich, które nie pozwalają na zmianę ustawień niektórych standardowych opcji, po takie, które nie dość, że są w pełni konfigurowane, to jeszcze posiadają uproszczony program FTP, umożliwiający natychmiastowe ściągnięcie odnalezionego pliku. Wszystkie pozwalają na zapisanie wyników poszukiwań na dysku lokalnym użytkownika. Niestety niewiele sieci ma oprogramowanie spełniające funkcje klienta . Możemy jednak znaleźć zarówno programy wykonywalne, jak i pliki źródłowe wielu z Archie - klientów dla przeróżnych systemów.

Aby była możliwość przesłania pliku z jednego komputera do drugiego, musimy zestawić połączenia logiczne między nimi. Program do tej pory biernie oczekujący aby zrealizować funkcję nazywany jest serwerem ; tutaj czynną rolę odgrywa klient mianowicie nawiązuje on połączenie i spełnia rolę pośrednika (interface) między użytkownikiem a zdalnym komputerem co przedstawia rysunek2.0x01 graphic

Rys.2.Przykład programu klienckiego do obsługi programu Archie

Program spełniający rolę serwera nazywa się najczęściej ftp( i jest częścią praktycznie każdego zestawu oprogramowania sieciowego). Opracowano kilka różnych implementacji serwera : ncfpt o wielu ułatwiających życie funkcjach czy też X-windowsowe interfejsy umożliwiające bardzo wygodne wskazywanie myszą plików do skopiowania. W środowisku Windows dostępne są również w pełni graficzne interfejsy protokołu FTP.

W celu nawiązania połączenia z komputerem na którym pracuje serwer ftp, należy wydać polecenie następującej treści:

ftp server - host

Nazwa server-host powinna być oficjalną nazwą komputera, lub jego adresem numerycznym ( w postaci n.n.n.n). Czas potrzebny na uzyskanie połączenia zależy między innymi od odległości między komputerami a także obciążenia sieci oraz obciążenia komputera, z którymi jest nawiązywane połączenie.

Po uzyskaniu połączenia serwer przedstawia się po czym prosi o podanie nazwy użytkownika . Prawo do korzystania z tejże usługi mają wszyscy zarejestrowani użytkownicy z którymi jest nawiązywane połączenie. Przedstawiają się oni a następnie podają hasło . Mają oni dostęp do wszystkich plików systemu za wyjątkiem oczywiście ograniczeń wynikających z praw dostępu.

Poszczególne komputery udostępniają usługę anonymous ftp. Użytkownik chcący skorzystać z tej usługi przedstawia się jako anonymous . Zwykle jako hasło należy podać swój adres poczty elektronicznej w postaci np:

user@host.domain.

Czasami wystarczy podać jako hasło użytkownika anonimowego cokolwiek. Niektóre jednak serwery sprawdzają czy aby podany adres jest zgodny z nazwą komputera z którego zostało zainicjowane połączenie.

Adres zwrotny jest wykorzystywane przez bardzo porządne archiwa publiczne oprogramowania aby poinformować użytkowników o odkrytych ewentualnych błędach oraz wirusach w skopiowanym oprogramowaniu.

Wszystkie połączenia są rejestrowane. Większość komputerów udostępnianych jako serwery anonymous ftp wykorzystywana jest do normalnych statutowych zadań. Dlatego należy pamiętać aby nie kontaktować się z nimi w godzinach ich normalnej pracy tj. zwykle od 8:00 do 16:00- 18:00 czasu lokalnego.

Użytkownik anonymous ma prawa gościa a więc dostęp do wydzielonych obszarów systemu plików. Część serwerów pozwala na przyjmowanie plików przekazywanych przez anonimowych użytkowników, które potem są zapisywane zwykle w katalogu /incoming.

Dzięki poleceniom dir oraz is mamy możliwość przeglądania zawartości systemu plików archiwum. Polecenie dir daje możliwość poznania nazwy plików, prawa dostępu do nich a także ich długość. Format wydruku zależy jednak od systemu operacyjnego komputera, z którym nawiązywane jest połączenie. Na komputerze pracującym pod kontrolą Uniksa jest zgodny z formatem oferowanym przez polecenie is -1. Podaje on najczęściej skrócony wydruk zawartości katalogu pomijając długości plików. Nie jest to jednak regułą i zależy w dużej mierze od właściwości serwera. Za zwyczaj polecenia dir oraz is są równoważone. Poniżej znajduje się przykładowy wygląd sesji oraz wydruk zawartości archiwum na komputerze pracującym pod kontrolą Uniksa oraz zamieszczone objaśnienia co do poszczególnych kolumn wydruku.

/export/home/usr/prac/desire $ftp ien6

Connected to ien6.ien.pw.edu.pl.

220 ien6 Microsoft FTP Service (Version 4.0).

Name (ien6:desire): anonymous

331 Anonymous access allowed, send identity (e-mail name) as

password.

Password:

230-Welcome to Power System Protection Division Server

230- Institute of Power Engineering

230-Warsaw University of Technology FTP

230**************************************************

230-Witamy na serwerze Zakładu Elektroenergetycznej

230- Automatyki Zabezpieczeniowej

230- Instytut Elektroenergetyki PW

230 Anonymous user logged in.

ftp> dir

200 PORT command successful.

150 Opening ASCII modę data connection for /bin/ls.

dr-xr-xr-x l owner group O Dec 7 1998 Instrukcje_Laboratoryjne

dr-xr-xr-x l owner group O Dec 28 1998 Java_Applets

dr-xr-xr-x l owner group O Mar 5 9:04 JavaScript

Wydruk zawartości zdalnego archiwum składa się z siedmiu kolumn:

-rw-rr l root 3 9961 Nov 19 02:19 Is-lR.Z

| l | 2| 3 |4| 5 | 6 | 7 |

Oto ich znaczenie:

1.Określa prawa dostępu i typ pliku . W dziesięciu znakach zapisane są następujące informacje; na pierwszej pozycji zapisany jest rodzaj pliku:

- oznacza zwykły plik, d- oznacza katalog.

Czasami można również spotkać : 1- odsyłacz („link”) pozwalający na lepsze organizowanie struktury plików.

Kolejne trzy znaki określają uprawnienia właściciela pliku . Uprawnienia te są opisane literami r, w, x umieszczonymi na trzech kolejnych pozycjach; litery oznaczają kolejno prawo do czytania, zapisu, wykonania pliku ; brak uprawnienia zaznaczany jest wpisaniem myślnika na odpowiedniej pozycji. Prawo wykonania oznacza prawo przeglądania a tym samym wykonania polecenia w przypadku katalogów. Na kolejnych trzech pozycjach zapisane są analogicznie uprawnienia grupy użytkowników, w jakiś sposób związanej z właścicielem pliku. Na ostatnich trzech pozycjach zapisane są uprawnienia wszystkich innych użytkowników systemu i ta informacja jest najważniejsza dla użytkownika korzystającego z anonimowego ftp.

2. Informacja niezbyt istotna dla zwykłego użytkownika ; w przypadku katalogu określa liczbę plików podkatalogów w niej zawartych ; w przypadku zwykłego pliku pod iloma nazwami plik ten występuje.

3. Nazwa lub numer właściciela pliku . Każdy użytkownik Uniksa posiada swoją nazwę . Identyfikator służy do przedstawienia się podczas nawiązywania połączenia oraz należy do jednej lub więcej grup użytkowników. Jest on właścicielem każdego tworzonego przez siebie pliku. Dodatkowo z plikiem związana jest jedna z grup, do której należy użytkownik.

4. Nazwa grupy.

5. Długość pliku oczywiście w bajtach.

6. Data ostatniej modyfikacji pliku.

7. Nazwa pliku przy czym mają tu znaczenie wielkie i małe litery tak samo jak i wszystkie inne znaki.

Zmiany katalogu dokonujemy za pomocą polecenia cd. Nazwę bieżącego katalogu podaje polecenie pwd. Przejście do katalogu „wyższej zależy w dużej mierze od rodzaju systemu operacyjnego serwera.

Do przesyłania plików służą polecenia: get - przesyłany jest wtedy pojedynczy plik z serwera do klienta, put- pojedynczy plik jest przesyłany w przeciwną stronę oraz mget i mput umożliwiający przesyłanie wielu plików.

Większość komputerów podłączonych do Internetu pracuje pod kontrolą Uniksa, dlatego też należy zwracać szczególną uwagę na duże i małe litery. Ponieważ są one zazwyczaj znaczące.

Należy mieć również na uwadze iż różne komputery przechowują informację w bardzo różnej formie, zazwyczaj innej niż komputery PC- dotyczy to przede wszystkim plików tekstowych. Podczas przesyłania informacji muszą lub mogą być dokonywane różnego rodzaju konwersje. Program ftp posiada w swoim wyposażeniu odpowiednie mechanizmy pozwalające na odpowiednią czytelność plików, zwłaszcza tekstowych po przesłaniu. Standardowo serwer i klient ftp są ustawione w takim trybie, aby była prawidłowa możliwość przesyłania plików tekstowych. Wyjście z tego trybu do trybu przesyłania, gdzie nie dokonuje się żadnych konwersji transmitowanych danych powoduje polecenie binary. Natomiast powrót do pierwotnego trybu uzyskuje się po wydaniu polecenia ascii.

Po nazwie możemy rozróżnić rodzaj pliku. Nigdy jednak nie mamy całkowitej pewności, ale patrząc na nazwę można wysnuć pewne wnioski:

Jeżeli przydarzy się, iż prześlemy plik tekstowy z komputera pracującego pod kontrolą Uniksa w trybie binarnym to nie ma tragedii. Program unix2dos lub podobny pozwala na przekształcenie pliku tekstowego na postać czytelną dla DOS-a. Natomiast jeżeli prześlemy plik binarny w trybie tekstowym to już nie ma odwrotu .

Program ftp systemu Unix współpracuje z plikiem o nazwie .netrc znajdującym się w głównym katalogu użytkownika. Współpraca ta odbywa się w typowy sposób dla wielu aplikacji uniksowych, które w momencie startu czytają swój plik konfiguracyjny, którego nazwa zwykle kończy się literami rc. Plik ten zawiera informacje o sposobie „przedstawiania się” obcym komputerom a mianowicie : nazwę komputera, nazwę użytkownika, hasło.

Można w tym pliku również zdefiniować tzw. makra - są to własne polecenia z parametrami. Makro o nazwie init będzie automatycznie wykonywane w momencie nawiązania połączenia z komputerem.

Plik .netrc może być wykorzystywany do przechowywania informacji niezbędnej do zalogowania się jako „prawdziwy” użytkownik systemu . Wymaga to wówczas wpisania „rzeczywistego” hasła . Jednak biorąc pod uwagę względy bezpieczeństwa nie zaleca się korzystać z tej możliwości. Wiele implementacji programu ftp nie skorzysta z tego pliku, jeżeli jest on dostępny publicznie do czytania. Wówczas należy ustawić restrykcyjnie prawa dostępu za pomocą polecenia:

chmod 0600 . netrc.

Niewątpliwie bardzo ważna rolę w całej elektroenergetyce odgrywa poczta elektroniczna i dzięki niej przesył informacji. Jest to najpopularniejsza usługa . Pozwala na wymianę informacji pomiędzy poszczególnymi instytucjami oraz przedsiębiorstwami w branży elektroenergetycznej a dzięki listom dyskusyjnym pomiędzy grupami osób zajmujących się wyżej wymienionymi zagadnieniami. Tak jak w każdej formie komunikacji uczestnicy chcieliby się porozumiewać w swoim języku, wykorzystując jego możliwości. Jednak w standardowej poczcie elektronicznej (oznaczanej czasami jako SMTP) jest to niestety niemożliwe.

0x01 graphic

Rysunek 1 Schemat działania poczty elektronicznej

Poczta elektroniczna powstała dość dawno temu w Stanach Zjednoczonych i nie przewidywała istnienia znaków narodowych. Można jednak powiedzieć, iż w tamtych czasach kodowano je zgodnie z normą ISO, która przeznaczała na ten cel znaki [, ], {, }…).

Taki standard przesyłania informacji jest opisany przez normę RFC 822. Została tak rygorystycznie zaimplementowana przez producentów, że listy zawierające znaki narodowe powyżej 128 były albo odrzucane albo zniekształcane.

Dopiero komputer PC przyniósł nowy standard oraz nowe zasady kodowania znaków . Okazało się bowiem, iż w jednym bajcie oczywiście dzięki ośmiu bitom można zapisać 256 kombinacji. Nie ma jednak nadal dość miejsca na znaki narodowe.

Kolejna norma ISO 8859 definiowała już dziewięć różnych alfabetów, pominięto jednak alfabety dalekowschodnie i tak:

Natychmiast jednak pojawiły się problemy, ponieważ list nadany w jednym standardzie mógł być odbierany przez użytkownika korzystającego z zupełnie innego zestawu znaków. Opracowano więc standard MIME, mający za zadanie rozwiązać wszystkie trudności. Zakładał on, że :

Niestety jednak ciągle nie duża liczba programów pocztowych realizuje w pełni tę ideę. Co gorsza oprogramowanie pracujące w środowisku MS Windows przede wszystkim darmowe, pisane jest głównie przez programistów amerykańskich przez co nie zawsze są uwzględniane inne alfabety niż angielski.

Na dodatek standard kodowania polskich liter, przyjęty w środowisku MS Windows dosyć popularnym ( tak zwana strona kodowa CP 1250 ), różni się w kliku wypadkach ) od standardu ISO-88-59-2. Co w konsekwencji prowadzi do rozwoju sytuacji według poniższego schematu:

Co dość skutecznie zniechęca do korzystania z polskich znaków w poczcie elektronicznej.

Pocztą elektroniczną można jednak przesyłać jedynie pliki, ASCII(znakowe); co więcej, w czasach gdy definiowano standard [42], znaki ASCII miały kody mniejsze od 128 (siedmiobitowe) i nie uwzględniały znaków narodowych. Mimo że niektóre wersje programu operacyjnego Unix są już ośmiobitowe ( pozwalają używać w tekstach kodów tzw. rozszerzonego zestawu ASCII) oraz mają programy mogące odbierać i nadawać pocztę ośmiobitową, standard został siedmiobitowy. Nie ma więc stu procentowej pewności, czy każdy komputer nawet ten pośredniczący „przepuści” pocztę ośmiobitową i czy nadaje się do przesyłania wiadomości multimedialnych.

Problem ten jest oczywiście znany i opracowano kilka metod jego rozwiązania. Jedną z metod jest MIME(Multi-purpose Internet Mail Extensions), do użytku publicznego dostępny standard przesyłania tekstów ( zawierających znaki narodowe), plików binarnych i wiadomości multimedialnych pomiędzy różnymi komputerami.

Dzięki temu standardowi możemy przesyłać następujące wiadomości :

MME daje też standardową metodę definiowania nowych typów przesyłanych wiadomości należy jednak pamiętać o poinformowaniu odbiorcy, jak ma je przetwarzać lub odtwarzać.

Od jakiegoś czasu producenci oprogramowania dostarczają różne pakiety do przesyłania wiadomości multimedialnych . Niestety pakiety nie zawsze są ze sobą kompatybilne. MIME ma za zadanie rozwiązać ten problem, System ten został zaprojektowany bardzo starannie, tak aby był zgodny z różnymi protokołami służącymi do przesyłania poczty (SMTP, UUCP, MMDF czy BITNET).

3.1 Zasoby krajowe

3.1.1 Energetyka w Polsce

Linki udostępnione ze strony WWW Centrum Informacji o Rynku Energii

http://www.cire.pl/internet/index.html

Na stronie tej znajdują się przełączenia do najważniejszych jednostek produkujących oraz przesyłających a także dystrybuujących energię elektryczną

Linki udostępnione ze strony WWW Energetyki Elbląg

http://www.energetyka.elblag.pl/en_polska.html

Linki udostępnione ze strony WWW Energetyki Kalisz

http://www.energetyka.kalisz.pl/serwery.htm

Linki udostępnione ze strony WWW Polskie Towarzystwo Przesyłu i Rozdziału Energii Elektrycznej

http://www.ptpiree.poznan.pl/str11.htm

Strony te zawierają połączenia z innymi stronami informacyjnymi zakładów lub rejonów energetycznych w Polsce

Linki do wielu firm i instytucji energetycznych w Polsce , udostępnione na serwerze Polonia.net

http://www.polonia.net/katalog/firmy/energetyka.html

Polskie Towarzystwo Przesyłu i Rozdziału Energii Elektrycznej

http://www.ptpiree.poznan.pl

3.1.2.Strony instytutów lub jednostek badawczych energetyki

Instytut Automatyki Systemów Energetycznych (Wrocław)

http://www.iase.wroc.pl/spis_tre.htm

Zakład Automatyki i Sterowania

http://www.pwr.wroc.pl/~i-8zas/

Instytut Elektroenergetyki Politechniki Łódzkiej

http://www.p.lodz.pl/I15/

Instytut Elektroenergetyki Politechniki Warszawskiej

http://www.ee.pw.edu.pl/IEn

Zakład Elektroenergetycznej Automatyki Zabezpieczeniowej

http://www.ee.pw.edu.pl/EAZ

Instytut Elektroenergetyki i Sterowania Układów Politechniki Śląskiej

http://eas.elektr.polsl.gliwice.pl/

Zakład Elektroenergetyki AGH (Kraków)

http://www.agh.edu.pl/agh/EAIE/Z_EL-ENE/katedra.html

Instytut Elektroenergetyki PŁ (Łódź)

http://www.ien.com.pl/

Energopomiar (Gliwice)

http://www.energopomiar.com.pl/

3.1.3 Urzędy Państwowe

Agencja Rynku Energii

http://www.are.waw.pl

Agencja ta zajmuje się przede wszystkim działalnością wydawniczą . Zbiera oraz wydaje informacje statystyczne dotyczące sektora paliwowo-energetycznego oraz elektroenergetycznego. Biblioteka ta zawiera najbogatszy w kraju zasób wydawnictw OECD, EUROSTAT oraz innych organizacji międzynarodowych z branży paliwowo-energetycznej. Baza danych zawiera informacje o gospodarce paliwowo-energetycznej w Polsce, Europie a także na świecie oraz system informacji naukowo technicznej OECD-ETDE, dotyczące nowoczesnych technologii energetycznych. Zajmuje się też realizacją filmów krótkometrażowych , naukowo-technicznych, reklamowych, szkoleniowych oraz okolicznościowych.

Urząd Regulacji Energii

http://www.ure.gov.pl/

Jest to Urząd administracji rządowej obsługujący Prezesa Urzędu Regulacji Energetyki oraz działający pod jego bezpośrednim kierownictwem.

3.1.4.Prywatne firmy elektroenergetyczne

Tel-Energo

http://www.tel-energo.com.pl

Utworzona została w styczniu 1993 roku. Spółka TEL-ENERGO S.A zajmuje się świadczeniem usług w zakresie telekomunikacji światłowodowej Krajowej Sieci Telekomunikacyjnej Energetyki. Właścicielami Spółki są firmy zajmujące się wytwarzaniem, przesyłaniem a także dystrybucją energii elektrycznej oraz cieplnej. Polskie Sieci Elektroenergetyczne S.A stanowią 31 Spółek Dystrybucyjnych oraz Towarzystwo Przesyłu i Rozdziału Energii Elektrycznej.

Winuel S.A.

http://www.winuel.com.pl/firma/index.html

Firma ta oferuje kompleksowe rozwiązania problemów związanych z rozliczaniem mediów energetycznych. Dla producentów energii jest to System KRAKATAU, dla dystrybutorów jest to system eSPIMO, Natomiast dla odbiorców energii jest to ETNA.

Biuro Doradztwa Technicznego dla Energetyki Spółka z o.o.

http://www.medianet.com.pl~bdt/

Jest to firma zajmująca się konsultingiem energetycznym oraz nadzorem inżynierskim w branży elektrycznej.

Miesięcznik „Energia”

http://ikp.atm.com.pl/~dima/energia.htm

Jest magazyn skierowany do masowego odbiorcy jego podstawowym celem jest obniżenie kosztów korzystania z energii.

Bank Energetyki S.A.

Utworzony został w 1990 roku. Jego założycielami były przede wszystkim przedsiębiorstwa branży elektroenergetycznej, które do tej pory w przeważającej części obok BRE S.A. są akcjonariuszami banku.

Elektroenergetyka

http://www.xy.com.pl/electro/

Jest to firma oferująca osprzęt oraz elementy osprzętu do kabli elektroenergetycznych.

Zakład Wykonawstwa Sieci Elektrycznych

http://www.zwse.olsztyn.sa.pl/

Zakład ten zajmuje się budownictwem elektroenergetycznym . Między innymi budową oraz remontami sieci energetycznych napowietrznych i kablowych oraz stacji energetycznych wszystkich napięć a także podwieszaniem przewodów światłowodowych izolowanych na liniach nn, SN i WN.

MEDCOM

http://www.medcom.com.pl/

Jest to przedsiębiorstwo o 100% kapitale polskim - od 1988 roku zajmuje się produkcją dystrybucją , instalacją oraz serwisem urządzeń, przeznaczonych do gwarantowanego zasilania odbiorników stało i zmiennoprądowych, głównie w : energetyce, przemyśle, kolejnictwie, wojsku, służbie zdrowia.

3.1.5.Krajowe organizacje elektryków

IEE: Polska Sekcja

http://www.ee.pw.edu.pl/iee/

Cigre: Polska sekcja

http://www.ien.cpm.pl/pkwse.htm

SEP

SEP Radom http://sep.radom.pl

SEP Tarnów http://volt.zsme.tarnow.pl/

SEP AGH Kraków http://galaxy.uci.agh.edu.pl/~sep/

3.1.6. Strony informacyjne elektrowni spółek oraz zakładów dystrybucyjnych w Polsce

ELEKTROWNIE

Elektrownia Kozienice

http://www.elcho.com.pl/

Elektrownia ta jest pod względem mocy zainstalowanej drugą co do wielkości elektrownią w kraju i jedną z największych w Europie. W jej skład wchodzi dziesięć bloków energetycznych - osiem po 200 MW i dwa po 500 MW .

Elektrownia Bełchatów

http:// WWW.elb.pl/

Elektrownia Chorzów S.A.

http://www.elcho.com.pl

Elektrownia Łaziska

http://www.ellaz.pl/

Elektrownia ta jest konwencjonalną elektrownią cieplną . Wchodzi ona w skład osiemnastu elektrowni systemowych pracujących w Krajowym Systemie Elektroenergetycznym . Zbudowana została w 1917 roku , w wyniku przeprowadzanych modernizacji do końca roku 1999 jej moc zainstalowana ulegnie zwiększeniu do 1160 MW.

Elektrownia Opole S.A.

http:// WWW.elektrownia-opole.com.pl/

Elektrownia ta zaprojektowana została w układzie blokowym , pierwotnie jako 6x360 MW , z kotłami BP1150 z turbinami kondensacyjnymi 18K360 na parametry podkrytyczne z założeniem wykorzystania dwu ostatnich bloków do produkcji energii cieplnej w układzie skojarzonym w celu ogrzewania Opola.

3.1.7 Spółki dystrybucyjne

Polskie Sieci Elektroenergetyczne PSE

http://www.pse.pl/

Do podstawowych zadań należy prowadzenie działalności gospodarczej w zakresie : dysponowania mocą a także sterowania pracą krajowego systemu elektroenergetycznego; przesyłania energii elektrycznej siecią najwyższych napięć; wytwarzania energii elektrycznej w elektrowniach szczytowo-pompowych; handlu energią elektryczną oraz usługami systemowymi w obrocie krajowymi zagranicznym.

Polskie Sieci Elektroenergetyczne Wschód

http://www.pse.com.pl/

PSE- Wschód Sp. z o.o. jest jednym z podstawowych elementów struktury koncernowo-holdingowej w grupie Polskich Sieci Elektroenergetycznych S.A.

Energetyka Elbląska

http://www.energetyka.elbląg.pl/

Energetyka Poznańska

Energetyka Poznańska S.A. to jeden z największych dystrybutorów energii elektrycznej. Kontroluje na dzień dzisiejszy kapitałowo 15 spółek , których udział w rynku ustawicznie się powiększa.

Energetyka Beskidzka S.A.

http://www.eneregtyka.bielsko.pl/be/index.htm

Spółka ta powstała z dawnych Bielskich Zakładów Energetycznych Spółka Akcyjna powstałych w roku 1933. Zakład ten został utworzony w 1948 roku. Spółka przejęła sięgającą roku 1893 tradycję w zakresie przesyłu i rozdziału energii elektrycznej w regionie swojego działania.

Zakład Energetyczny Kraków S.A.

http://www.zek.krakow.pl/

Obszar działania spółki obejmuje tereny województw: krakowskiego oraz nowosądeckiego. Przedmiotem działalności Spółki jest : zakup, wytwarzanie, dystrybucja i sprzedaż energii elektrycznej.

Zakład Energetyczny Łódź -Teren S.A.

http://zelt.lodz.pl/

Zakład ten działa na terenach trzech województw: piotrkowskiego, sieradzkiego oraz skierniewickiego. Ma 38 392 km linii elektroenergetycznych oraz 10660 stacji transformatorowych i obsługuje 573 577 klientów-odbiorców energii elektrycznej

Zakład Energetyczny Opole S.A.

http://www.ze.opole.pl

Działa on jako przedsiębiorstwo jednozakładowe, w ramach którego funkcjonuje 8 rejonów średnich i niskich napięć: w Opolu, Namysłowie, Kluczborku, Strzelcach Opolskich, Kędzierzynie-Koźlu, Nysie, Paczkowie a także w Brzegu. Rejony te realizują bezpośrednią eksploatację i nadzór nad urządzeniami przemysłowo-rozdzielczymi a także sprzedaż energii elektrycznej.

Zakłady Energetyczne Okręgu Radomsko-Kieleckiego S.A.

http://www.zeork.com.pl

Należą do grona największych przedsiębiorstw energetycznych w Polsce. Są jednym z 33 zakładów energetycznych Sprzedają energię elektryczną dla około 730 tysięcy odbiorców.

Stołeczny Zakład Energetyczny

http://www.stoen.waw.pl/

Jest to spółka akcyjna ze 100% udziałem Skarbu Państwa, która istnieje od 1993 roku . Obecnie prowadzi swoją działalność na terenie Warszawy za pośrednictwem 5 rejonów energetycznych

2



Wyszukiwarka