Socjologia internetu egzamin
Czym jest technologia?
Technologia, to zbiór namacalnych, fizycznie dostępnych przedmiotów (samochód, samolot, komputer),
Technologia, to kompleks, kombinacja przedmiotów fizycznych i działalności ludzi, działalności społecznej. To ludzie nadają sens istnienia technologii. Ludzie akceptują bądź nie, wynalazki technologiczne - Jest to socjologiczne rozumienie technologii.
Technologia, to idea, myśl, pewien niepowtarzalny, innowacyjny stan psychiczny, który zmienia się w dostępny ogółowi społeczeństwa przedmiot - Jest to psychologiczne rozumienie technologii.
Determinizm technologiczny - uwalnia rozwój techniczny od kontekstu społecznego. Technologie oddziałują na społeczeństwo od zewnątrz. Zmiana technologiczna nie jest następstwem procesów politycznych, gospodarczych oraz społeczno-kulturowych. Technologie kształtują społeczeństwa.
Determinizm społeczny - istotą tego światopoglądu jest przekonanie o jednokierunkowym wpływie społeczeństwa na rozwój technologiczny. Zwolennicy determinizmu społecznego dowodzą, że postęp technologiczny jest zależny od ludzi. To społeczeństwa kształtują technologię a nie odwrotnie.
Sieć - wykorzystywana jest do opisu struktury systemu złożonego z pewnej liczby elementów, pozostających ze sobą w określonych relacjach. Zarówno charakter relacji, jak i natura obiektów tworzących daną sieć mogą być przy tym bardzo różne.
Internet - to sieć, która łączy ludzi i informację dzięki komputerom i innym urządzeniom cyfrowym, oraz pozyskiwanie informacji.
Internet, to ogólnoświatowa, ogólnodostępna siec komputerowa, powstała ze złączenia sieci lokalnych, łączących użytkowników rozproszonych na wszystkich kontynentach.
Cyberprzestrzeń - wprowadzona przez Gipsona, w literaturze socjologicznej często utożsamiana jest ze społeczna przestrzenią Internetu.
Wirtualna rzeczywistość - cyberprzestrzeń utożsamiana jest z wirtualną rzeczywistością. Oba te pojęcia symbolizują zmiany, które dokonały się pod wpływem rewolucji technologicznej.
7. Dlaczego socjologowie interesują się Internetem
Socjologów przyciąga do Internetu rozwój nowej technologii wpływ tego rozwoju na społeczeństwo. Jako socjologowie, możemy badać rozwój we wczesnej fazie powstawania i oddziaływanie na społeczeństwo.
Życie społeczne coraz bardziej skupia się wokół Internetu (zainwestowano pieniądze, powstały prawa, które regulują tą dziedzinę)
Internet łączy różne sposoby komunikowania się (obrazy, rozmowy, tekst itp.)
Porsche van Broclin Fischer - koncepcja informatyki społecznej
Informatyka społeczna - pojęcie to zostało wprowadzone przez Fischera
Ambicją informatyki społecznej jest stworzenie teorii porządkującej, identyfikującej władzę, jaka systemy komputerowe sprawują nad jednostkami, grupami, organizacjami, instytucjami, sieciami społecznymi oraz innymi podmiotami wchodzącymi w skład szeroko rozumianego świata społecznego.
Socjologia Internetu, to teoria socjologiczna i metody wykorzystywane w badaniach Internetu, który rozumiany jest jako źródło informacji i medium komunikacji.
Kultura: obfita różnorodność, hipersegmentacja czy umasowienie
internet jest globalna platformą dla lokalnych dóbr materialnych i niematerialnych. Jednostki i grupy maja wybór łączenia treści, jakie im odpowiadają.
komercjalizacja sieci wiąże się z coraz większym zaangażowaniem specjalistów od marketingu, a zwłaszcza segmentacja klientów
Kultura sieci ulegnie umasowieniu, spłyceniu. Łatwa w odbiorze a poprzez to bezwartościowa
Nierówności społeczne: szansa czy reprodukcja
Z jednej strony:
likwiduje nierówności społeczne
obniża koszty dostępu do informacji dla osób biednych
jest szansą dostępu do kapitału społecznego szansą w grze rynkowej
Z drugiej strony
Pogłębia nierówności poprzez opinię, iż z Internetu korzystają osoby bardziej wykształcone posiadające wiedzę i umiejętności
Historia Arpanetu
Arpanet (ang. Advanced Research Projects Agency Network) - pierwsza sieć rozległa oparta na rozproszonej architekturze i protokole TCP/IP. Jest bezpośrednim przodkiem Internetu. Istnieje do dzisiaj.
Historia
Arpanet powstała jako inicjatywa Departamentu Obrony (Pentagonu) rządu USA. W 1957 roku po szoku wywołanym wysłaniem sputnika w kosmos przez ZSRR powołano rządową agencję ARPA, której zadaniem było obserwowanie i wspieranie inicjatyw powstających na uczelniach w USA, które miały szczególne znaczenie dla obronności USA.
W 1967 roku odbyła się konferencja naukowa ARPA na temat technicznych możliwości budowy rozległych sieci komputerowych o rozproszonym zarządzaniu
. Przewodnią ideą tej konferencji było ustalenie, czy możliwe jest za pomocą komputerów skonstruowanie takiej sieci łączności, która by nie posiadała central (które wróg może łatwo zniszczyć), lecz umożliwiała automatyczne wyszukiwanie połączeń między dowództwem i oddziałami polowymi nawet przy dużym stopniu zniszczenia infrastruktury telekomunikacyjnej kraju. Okazało się to potencjalnie możliwe. Najciekawsze rozwiązanie zaproponował Alex McKenize z Uniwersytetu Stanford, który zaproponował ideę pakietu informacji z przypisanym do niej adresem, który by automatycznie krążył po sieci "szukając" swojego odbiorcy tak, jak to się dzieje z listami pocztowymi. ARPA zdecydowała się wesprzeć projekt Alexa McKenzie, który stworzył kilkudziesięcioosobowy zespół, pracujący na Uniwersytecie Stanford, UCLA, i Uniwersytecie Stanowym Utah. Zespół ten stworzył zręby protokołu TCP (pierwotnie nazwanego IMP) oraz w 1968 wykonał pokaz automatycznego routingu połączeń w sieci liczącej kilkanaście serwerów rozproszonych na tych trzech uniwersytetach.
W latach 1967-1972 eksperymentalna sieć rozrastała się na kolejne uczelnie, a rozrost ten był hojnie wspierany finansowo przez ARPA. W ramach tej sieci utworzono Network Working Group (NWG) liczącą ok. 100 osób, która zaczęła, korzystając już z sieci, wymieniać się informacjami i wynikami swoich eksperymentów za pomocą dokumentów zwanych RFC. Można powiedzieć, że była to zapowiedź późniejszej IETF. Badania te (i rozwój sieci) były częściowo tajne, gdyż równolegle z pracami naukowców cywilnych trwały prace nad zaimplementowaniem ich do celów wojskowych.
W 1972 roku ARPA zdecydowała się odtajnić protokół TCP/IP i zezwoliła na przyłączanie do Arpanetu lokalnych sieci akademickich. Pierwszą siecią akademicką przyłączoną do Arpanetu była sieć na kampusie UCLA.
W latach 1972-1979 kolejne uczelnie USA przyłączały się do projektu Arpanetu i jednocześnie ARPA śledziła wszystkie nowinki techniczne wymyślane na uczelniach i część z nich przekazywała na rzecz tajnych projektów wojskowych. Wielu akademickich użytkowników Arpanetu zaczęło nazywać tę sieć Internetem, ze względu na to, że łączyła ona wiele różnych sieci lokalnych.
W 1980 roku, po kilku efektownych włamaniach crackerów do serwerów Arpanetu, ARPA zdecydowała się rozdzielić całkowicie wojskową część Arpanetu od części akademickiej. Część wojskowa nadal ma nazwę Arpanet, zaś część cywilna została już oficjalnie nazwana Internetem i zaczęła się od tej pory rozwijać samodzielnie.
O obecnie istniejącym wojskowym Arpanecie niewiele oficjalnie wiadomo.
W XXI wieku gwałtowny rozwój Internetu powoduje coraz to większe zainteresowanie historią Internetu i budową sieci komputerów o światowym zasięgu (pajęczyna), która pozwala na dostęp do zasobów komputerowych z każdego miejsca w świecie. Dlatego pragnę Państwu przybliżyć tę tematykę zwięźle i na temat, bez szczegółów nieistotnych dla przeciętnego użytkownika. Jednak pewna wiedza jest wskazana na ten temat. Jak to zwykle bywa historia większości znaczących wynalazków zaczyna się od chęci uzyskania przewagi militarnej nad innymi. Tak też zaczęła się i historia Internetu.
Pod koniec 1969 roku Departament Obrony USA rozpoczął projekt badawczy prowadzony przez agencję ARPA (ang. Advanced Research Project Agency), mający stworzyć sieć komunikacyjną dla wojska. Tak na wypadek wojny atomowej. W ramach tych działań połączono kilka uniwersytetów stanowych, rozpoczynając rozwój Internetu. Tak powstałą sieć nazwano ARPANET. Istniejące do tej pory sieci komputerów zarządzane były przez jeden centralny komputer, którego awaria eliminowała całą sieć z użytku, a na wojnie brak informacji to pewna przegrana. ARPANET dzięki opracowanej technologii wymiany pakietów z danymi opartej na wysyłaniu zapytań zapoczątkował rozwój Internetu. ARPANET utworzony był natomiast z sieci komputerów, bez wyraźnego punktu centralnego, która mogła pracować pomimo uszkodzenia jakiejś jej części.
ARPANET nie był jedyną siecią komputerów, która dążyła do decentralizacji połączonych jednostek. Brytyjczycy, na początku lat 70 ubiegłego wieku również pracowali nad rozwojem Internetu. Prace te zaowocowały powstaniem sieci komputerów o nazwie X.25. Tak jak w USA najpierw zaczęła działać w ośrodkach akademickich.
Jednak w początkowym okresie rozwoju różniły się między sobą w istotny sposób. Sieć komputerów X.25 była współ finansowana przez biznes, stąd pierwszymi użytkownikami były firmy z branży telekomunikacyjnej: Brytyjska Poczta, Western Union International i Tymnet. Natomiast ARPANET był finansowany przez Departament Obrony USA i jest przykładem rozwoju Internetu do celów wojskowych, co w tamtym czasie nie pozwalało użyć go do celów komercyjnych.
Poprzez przyłączenie do sieci komputerów po jednym ośrodku w Wielkiej Brytanii i Norwegii w 1973 roku ARPANET zapoczątkował rozwój Internetu o zasięgu międzynarodowym. Następna rewolucyjna data jaką odnotowała Historia Internetu, to 1983 rok. W tym to czasie wszystkie komputery w sieci ARPANET przeszły na stosowanie nowego protokołu przesyłania danych, zwanego TCP/IP (ang. Transmission Control Protokol / Internet Protokol).
Każdy komputer, podobnie jak każde inne urządzenie podłączone do sieci komputerów, miał własny adres wyrażany w liczbach i nazywany adresem IP (ang. Internet Protocol), który dał tak rozpowszechnioną do dziś nazwę Internet. Do tego powstaje system DNS (ang. Domain Name System), którego zadaniem jest tłumaczenie numerycznych adresów IP na zrozumiałe dla człowieka wyrażenia.
Drugim ważnym wydarzeniem tego czasu był podział sieci komputerów ARPANET, na sieć komputerów wojskowych i cywilnych, co umożliwiło gospodarcze zastosowanie tego rewolucyjnego rozwiązania - rozwój usług internetowych. Wkrótce pojawia się też pierwsza wersja systemu UNIX. Powstawały nowe sieci komputerów, na doskonalszych technikach przesyłania danych, połączone w globalny Internet. Ostatecznie ARPANET przestał istnieć w roku 1990.
Kolejnym ważnym elementem, jaki zanotowała historia Internetu, jest powstanie pierwszej strony internetowej i przeglądarki o nazwie World Wide Web (WWW), opartej na HTTP (ang. Hypertext Transfer Protocol), protokole przesyłania dokumentów hipertekstowych. W następnych latach powstają jak grzyby po deszczu przeglądarki i programy do obsługi stron WWW, co błyskawicznie przyśpiesza rozwój Internetu, pod względem technologicznym i ilości użytkowników.
Założenia twórców systemu sieci komputerów ARPANET, jakie sobie postawili - żeby każdy mógł się połączyć z każdym a uszkodzenie jednego lub kilku elementów nie miało wpływu na dalsze funkcjonowanie pozostałych, zostało osiągnięte (brak centralnego komputera). Ukształtowała się też konkretna struktura Internetu działająca we wszystkich jego elementach.
Internet nie jest jedną siecią, lecz zgrupowaniem wielu różnych sieci komputerów. Głównym elementem tej struktury są tzw. "routery", czyli mechanizmy przesyłające pakiety danych z jednej mikro sieci do drugiej. Router jest punktem, który łączy ze sobą dwie sieci i każda z nich traktuje go jako swój element. Nad prawidłowym przekazywaniem danych czuwają odpowiednie protokoły internetowe.
Koniec XX i początek XXI wieku to rozwój tzw. Sieci Web 1.0 - statyczne, patrz i czytaj. W 2001 roku historia Internetu po upadku tzw. dot.com-ów wkracza w erę Web 2.0 - dynamiczne, czytaj i pisz. Powstaje wiele serwisów społecznościowych, które umożliwiają swoim użytkownikom współtworzenie zawartości. Lecz rozwój sieci komputerów (Internetu) jest tak burzliwy, że już wyłaniają się wierzchołki sieci trzeciej generacji Web 3.0 - sieci semantycznych.
12. Filozofia UNIX
Unix jest przenośnym systemem operacyjnym na wiele architektur komputerowych i mający wiele odmian i modyfikacji.
Narodziny
Pierwsza wersja systemu operacyjnego Unix powstała w Bell Labs firmy AT&T w stanie New Jersey w 1969 na komputery architektury PDP-7 i PDP-9 firmy DEC. Jej głównymi autorami byli Ken Thompson i Dennis Ritchie. Początkowy cel stworzenia nowego systemu operacyjnego został osiągnięty i autorzy rozpoczęli prace nad drugą wersją systemu na komputery PDP-11. Tę wersję uruchomiono w 1971 roku. W tym czasie ukazał się Unix Programmer's Manual, który był de facto opisem ówczesnego Uniksa. Drugie wydanie systemu Unix pojawiło się w 1972 roku, w którym wprowadzono pojęcie łącza komunikacyjnego łączącego procesy. Minikomputery PDP-11 uzyskały wielką popularność i wraz z nimi także Unix. Dlatego wkrótce napisano trzecią wersję systemu operacyjnego Unix.
Popularyzacja
1975 - Unix Szóstego Wydania - inaczej Wersja Szósta - rozprowadzana nieodpłatnie w uczelniach dla zastosowań akademickich. Przyczyniło się to do gwałtownego rozwoju systemu, powstawania poza AT&T rozszerzeń i oprogramowania. Legendą tego okresu stała się napisana przez profesora Uniwersytetu Nowej Południowej Walii w Australii, Johna Lionsa tzw. Lions Book zawierająca pełny kod V.6 wraz z komentarzem wers po wersie.
Unix szybko zadomowił się w Uniwersytecie Kalifornijskim Berkeley,
W 1978 ukazała się wersja 7 (Version 7) - była pierwszą szeroko dostępną, choć AT&T nie zapewniał obsługi i serwisu. Jej zestaw funkcji i programów był aż do czasu ukazania się specyfikacji IEEE i POSIX główną bazą unifikującą rodzące się różne odmiany Uniksa.
Jednym z ważniejszych wydarzeń we wczesnej historii systemu Unix był projekt agencji DARPA przyjęcia jednego systemu operacyjnego na wszystkich komputerach ARPANET. DARPA zdecydowała że tym systemem będzie wersja Berkeley systemu Unix. W ramach pierwszego kontraktu, który trwał w latach 1981-1982, powstał system 4BSD oraz 4.1BSD. Sukces zaowocował kolejnym dwuletnim kontraktem, którego owocem był 4.2BSD, będący pierwszym systemem operacyjnym zawierającym obsługę
Ekspansja
Wraz z początkiem lat 80-tych AT&T zdecydowała się na komercjalizację Uniksa. W 1980 roku licencję na rozwijanie jego kodu sprzedano firmie Santa Cruz Operations, która na zlecenie Microsoftu, miała przygotować Xenix, jego wersję Uniksa. W 1983 roku ukazała się pierwsza wersja komercyjna Uniksa z AT&T, System V.
Wraz z komercjalizacją AT&T przestała udostępniać kod źródłowy systemu poza licencjami komercyjnymi. Spowodowało to protesty wśród wielu inżynierów akademickich (UCB, MIT), którzy do tej pory pisali własne rozszerzenia systemu i uczestniczyli w jego rozwoju (vide: BSD). Blokada nałożona na kod stała się przyczyną powstania na bazie społeczności użytkowników i niezależnych twórców Uniksa ruchu wolnego oprogramowania. Założona w 1983 roku przez Richarda Stallmana z MIT Free Software Foundation postawiła sobie za cel stworzenie wolnego systemu uniksowego bez kodu pochodzącego z AT&T.
W przeciągu lat 80-tych powstało mnóstwo komercyjnych wersji systemu, ambicją większości firm informatycznych stało się posiadanie własnej odmiany Uniksa.
Unifikacja
Rozdrobnienie systemu na różne wydania i izolacja zespołów programistycznych szybko spowodowały kłopoty ze zgodnością poszczególnych odmian, co zaowocowało staraniami o standaryzację rozwiązań, wywołań i funkcji. Zapotrzebowanie to próbowało spełniać konsorcjum X/Open Company, które realizowało świeżo powstałą ideę open system.
W 1988 roku Sun i AT&T zainicjowały związek, którego wynikiem było najpierw powstanie konsorcjum Unix International oraz wzorcowego systemu SVR4, który łączył zalety
SysV i BSD - potem w oparciu o niego powstawały nowy Unix Suna, Solaris (1991) oraz kolejne wersje systemów SCO, m. in. Xeniksa. Konkurencyjni wobec duumwiratu producenci zawiązali Open Software Foundation (OSF), pod auspicjami której ukazał się z czasem ekumeniczny OSF/1, silnie bazujący na BSD. W 1988 roku opublikowano specyfikację POSIX.1 - stanowiącą podstawę tego, co nazywamy Uniksem.
Rewolucja
Wkrótce z początkiem lat 90-tych wojujące frakcje stanęły w obliczu opartego o Internet gwałtownego rozwoju wolnych systemów uniksowych. W 1991 roku Linus Torvalds zaanonsował prace nad jądrem o nazwie Linux, które w połączeniu z narzędziami GNU z FSF stworzyło kompletny uniksopodobny system operacyjny. AT&T a potem Novell, który kupił (22 grudnia 1992) prawa do Uniksa, próbowały przy pomocy procesu sądowego (1992-1994) powstrzymać rozwój systemów pisanych w oparciu o niezmiennie wolnodostępny kod z CSRG Berkeley. Pozew zahamował rozwój gałęzi BSD, powodując pośrednio wycofanie się CSRG z dalszych prac
nad kodem oraz porzucenie budowanego na nim otwartego projektu 386BSD. Jednak rok 1993 to wyłonienie się na bazie ostatniego wydania BSD4.4 i porzuconego kodu 386BSD dwóch nowych, wolnych projektów FreeBSD i NetBSD. (więcej: Historia BSD)
Novellowi nie udało się skutecznie połączyć dwóch udanych projektów: swych usług sieciowych i Uniksa. W 1993 roku ukazała się ostatnia wersja SysV, znana jako SVR4.2MP, wcześniej firma przekazała prawa do przydzielania marki Unix oraz regulowania Single UNIX Specification (SUS) organizacji X/Open, która dwa lata później rozpoczęła program standaryzacji, UNIX 95. W tym samym roku Novell zdecydował się sprzedać kod UnixWare - pod taką nazwą sprzedawał System V - dla SCO a dawne Bell Labs Hewlett-Packardowi.
W 1996 z połączenia OSF i X/Open powstało Open Group, które przyznaje prawo do posługiwania się nazwą Unix w odniesieniu do systemów komputerowych oraz opiekuje się SUS.
W 1997 roku ukazała się druga wersja SUS - pierwsza publicznie dostępna (wprowadzała 64-bitowość, wątki), a w 2001 trzecia integrująca POSIX z rozszerzeniami przemysłowymi.
Przełom tysiącleci i 30-lecie Uniksa to gwałtowny rozwój wolnych systemów i wypieranie przez nie komercyjnych wersji do zastosowań niszowych. Wielu producentów i sprzedawców Uniksów wprowadza do swej oferty usługi i własne odmiany Linuksa lub włącza się w rozwijanie opartych na nich technologii (BSDI, HP, IBM, SCO, Sun
Netscape communications Corporation Microsoft (Netscape, Explorer, Firefox)
NETSCAPE NAVIGATOR |
|
1994 rok |
NCC (Netscape Communications Corporation) (poprzednio Mosaic Communications Corporation, MCC) stworzyła i umiesciła w Internecie NETSCAPE NAVIGATOR . Była to wersja przeglądarki internetowej oparta na innej przeglądarce NCSA Mosaic znanej od tego czasu pod nazwą Netscape Navigator lub także pod nazwą kodową Mozilla. |
1995 rok |
Wraz z systemem operacyjnym Windows, Microsoft zaprezentował własną wersję przeglądarki Internet Explorer. Do tej walki włączyła sie firma Sun Microsystems, która opracowała język programowania JAVA, który umożliwiał pisanie niewielkich programów. Dołączając się do walki, NCC udostępniał za darmo JAVA w Internecie. |
Firefox |
|
2002 rok |
Prace nad projektem rozpoczęto w 2002. Projekt znany obecnie pod nazwą Firefox rozpoczął swoje życie jako eksperymentalne odgałęzienie pakietu Mozilla Suite (obecnie znanego jako SeaMonkey) - wolnej przeglądarki zbudowanej na bazie kodu Netscape Navigatora. Jego autorzy - David Hyatt i Blake Ross - po osiągnięciu przez kod pewnej zakładanej dojrzałości opublikowali go 23 września 2002 roku pod oficjalną nazwą Phoenix.Celem przyświecającym powstaniu Firefoksa było stworzenie nowej przeglądarki internetowej. Programiści z całego świata postawili sobie za cel zaprojektowanie aplikacji nieobciążającej zbytnio komputera i łatwej do pobrania poprzez Internet. Miała być szybka i przyjazna dla użytkownika, a struktura projektu miała ułatwiać jego rozwijanie. |
Etapy komercjalizacji Internetu
Komercjalizacja Internetu
Działalność komercyjna w Internecie zakazana była do 1991 roku. Instytucją, właścicielem, wyznaczającą standardy postępowania w internecie a więc decydującą o charakterze internetu była, Narodowa Fundacja Nauki USA.
Wirtualny bazar (1995-2004)
Wirtualny supermarket (2004-…)
Komercjalizacja sieci prowadzi do manipulacji politycznej. Sfera polityczna zanika wraz z rozrastaniem się rynku
15. Prohibicja internetowa w Chinach
W Chinach ograniczenia na sieć nakłada się poprzez szereg praw i rozporządzeń administracyjnych (jest ich ponad 60). Projekt ograniczonego dostępu do Internetu nosi nazwę Złota Tarcza. Nazwa projektu nawiązuje do Wielkiego Muru chińskiego. Prace nad projektem rozpoczęto w 1996 r. zaś gotowy projekt uruchomiono w 2003 r.
W praktyce kontrola Internetu w Chinach jest niedoskonała. Decyzje o blokadzie poszczególnych witryn podejmowane są wyrywkowo. Zdarza się z dwóch witryn internetowych o podobnych treściach jedna jest zablokowana druga nie. Blokady są często usuwane w wyniku konkretnych wydarzeń lub interwencji dygnitarzy. Polityka kontroli Internetu unaocznia administracyjną słabość „państwa środka”. Wiele regulacji centralnych ignorowanych jest, bowiem przez władze lokalne. Próba okazania siły reglamentowania informacji obecnej via Internet, osłabia państwo, dopuszcza bowiem dowolność decyzyjną na poziomie lokalnym.
16. Prohibicja internetowa w Iranie
System kontroli Internetu w Iranie należy do najlepszych na świecie. Początkowo Internet w Iranie dostarczały prywatne firmy. z czasem rząd zmusił jednak niezależne firmy do wykupienia licencji od irańskiej telekomunikacji. Po tym jak wszystkie źródła znalazły się pod kontrolą państwa, władze Iranu wprowadziły centralne ograniczenia w dostępie do treści internetowych.
System kontroli Internetu zaprojektowała przynajmniej częściowo spółka powołana do życia przez fińską Nokię oraz niemieckiego Simensa. Władze w Teheranie stosują tak zwaną metodę głębokiej inspekcji pakietów, która pozwala im zbierać informacje na temat indywidualnych użytkowników Internetu, Internetu nawet przetwarzać je w celu dezinformacji. „DPI” pozwala na śledzenie w Internecie e-maili, połączeń telefonicznych czy wpisów na portalach społecznościowych. Każdy pakiet informacji jest odkodowywany, badany w poszukiwaniu słów kluczowych i zakodowywany z powrotem w ciągu kilku milisekund.
W przypadku Iranu dzieje się tak w całym kraju, co znacznie spowalnia ruch w sieci. Szpiegowanie ruchu w irańskiej sieci może tłumaczyć, dlaczego władze pozwoliły, aby Internet nadal działał.
17. Problemy z infrastrukturą sieciową w Polsce
Choć zdecydowana większość polskich użytkowników korzysta z Internetu przy pomocy łączy szeroko pasmowych (ok.90% użytkowników domowych) to pod względem broadbandu Polska jest na dalekich miejscach w porównaniu z innymi krajami europejskimi. W 2008 r. Polska znalazła się na przedostatnim miejscu jeżeli chodzi o liczbę łączy o przepustowości ponad 144 Kb/sek spośród 27 krajów UE
18. Podział cyfrowy
To podział na tych, którzy mają dostęp lub nie do nowoczesnych technologii cyfrowych.
Mimo iż początkowo optymistycznie patrzono na rozwój społeczeństwa informacji, obecnie twierdzi się, iż rozwój nowoczesnych technologii znacząco zwiększa zakres społecznego wykluczenia utrudniając realizację idei zrównoważonego rozwoju. Dyskutując nad kwestią cyfrowego podziału warto zwrócić uwagę na dwie kwestie tj: nierówność dostępu jak i nieumiejętność korzystania z globalnej sieci.
Podział cyfrowy, to podział przebiegający na poziomie:
- makro czyli w skali narodów
- mikro pomiędzy jednostkami
- mezzo, która przebiega pomiędzy województwami jak choćby pomiędzy województwami słabo rozwiniętymi gospodarczo peryferyjnymi, takimi jak województwo lubelskie.
Podziały społeczne wynikające z dostępu lub braku dostępu do nowoczesnych technologii cyfrowych wymagają tworzenia nowych kategorii pojęciowych odzwierciedlających dynamikę mechanizmów stratyfikacyjnych. Umberto Eco twierdził, że społeczeństaw współczesne dzielą się na trzy klasy:
proletariuszy nie mających dostępu do komputerów i książek uzależnionych od przekazu audiowizualnego czyli telewizji
drobnomieszczaństwo które umie korzystać z komputera biernie
nomenklatura, która wie jak wykorzystać komputer do wykonywania analiz, potrafiąca odróżnić informacje wartościowe od nic niewnoszących.
Ryszard Tadeusiewicz pisze zaś o powstaniu dwóch dychotomicznych struktur:
digitariatu, jako uprzywilejowanej grupy osób potrafiących biegle posługiwać się technologiami informatycznymi
proletariatu sieciowego, który tworzą osoby nie potrafiące lub nie mogące korzystać z technik informacyjnych
Rozwój technologii cyfrowych określa strukturę społeczeństw współczesnych, wprowadza nowe podziały, generuje nierówności wynikające z dostępu do informacji. Zaryzykować można stwierdzenie, że w przyszłości podziały te będą stawały się coraz bardziej ostre i widoczne.
19. Przyczyny kontroli Internetu
czynniki polityczne
Dostęp do Internetu bardzo często wynika z konkretnych decyzji politycznych. „Prohibicję internetową” najczęściej stosują rządy państw autorytarnych (Chiny, Kuba) oraz państw quasi - totalitarnych (Korea Północna,), w których panuje określona ideologia polityczna. Internet postrzegany jest tutaj jako swoiste zagrożenie, narzędzie walki z systemem wspieranym przez elitę kontrolującą najważniejsze zasoby w państwie. Społeczeństwa państw totalitarnych dzielą się, więc na zwolenników Internetu (rządzeni), oraz na przeciwników (rządzący). Odwołując się do retoryki Marksa zaryzykować moglibyśmy twierdzenie, że zasoby sieciowe stanowią oręż w walce klas, rozbijają totalitarny monopol władzy.
Podobną strategię stosują jednostki (politycy oraz przedstawiciele wspólnot religijnych) sprawujące władzę w państwach wyznaniowych. Ważne z punktu widzenia tych rozważań są relacje występujące pomiędzy religią (systemem prawnym zbudowanym wokół religii) a Internetem.
Wolny, niekontrolowany Internet postrzegany jest jako zagrożenie, źródło sekularyzacji społeczeństw głęboko identyfikujących się z określonym systemem religijnym. Władze państw wyznaniowych podejmują, więc często działania mające na celu ograniczenie wolności w sieci. Starają się kontrolować a nawet kreować wpływ, jaki Internet wywiera na społeczeństwo.
W niektórych państwach wyznaniowych obserwujemy jednak „zmianę filozofii”, zmianę sposobu myślenia o sieci internetowej. Internet wykorzystywany jest jako narzędzie ekspansji religijnej, jako szansa dotarcia do jednostek, oraz zbiorowości społecznych obecnych w globalnej sieci internetowej. Przykładem zmiany sposobu myślenia o Internecie jest portal muxlim.com, który zyskuje coraz większą popularność wśród wyznawców islamu.
czynniki gospodarcze
Ograniczenia w dostępie do globalnej sieci internetowej wynikają m.in. z oddziaływania czynników gospodarczych. Najważniejsze z nich to:
archaiczna - charakterystyczna dla epoki industrialnej struktura gospodarki narodowej (niski udział sektora usług zwłaszcza sektora [t], wysoki udział rolnictwa i przemysłu ciężkiego w całkowitej strukturze gospodarki)
Dostęp do Internetu jest ściśle powiązany ze strukturą gospodarki narodowej w ujęciu sektorowym. Strukturę sektorową określa się przy pomocy dwóch wskaźników: produktu krajowego brutto oraz poziomu zatrudnienia. Ludność aktywną zawodowo można podzielić na pracującą w rolnictwie i zawodach pozarolniczych. struktura zatrudnienia w poszczególnych działach gospodarki jest ściśle uzależniona od poziomu rozwoju gospodarczego kraju. dla celów porównawczych wyróżnić moglibyśmy cztery sektory gospodarki przy czym sektor III i IV są często analizowane jako niepodzielna całość.
sektor I - obejmuje rolnictwo, leśnictwo, rybołówstwo i przemysł wydobywczy
sektor II - zatrudnienie w przemyśle przetwórczym i budownictwie
sektor III - handel i usługi
sektor IV - usługi wyższego rzędu np. przetwarzanie informacji oraz nauka i kultura.
brak odpowiedniej infrastruktury telekomunikacyjnej
Czynnikiem blokującym , ograniczającym rozwój społeczeństwa informacyjnego jest brak (niedostateczny poziom rozwoju) infrastruktury telekomunikacyjnej w postaci: linii, słupów wież, kabli, nadajników satelitarnych. Polityka ukierunkowana na rozwój oraz modernizację urządzeń służących przesyłaniu informacji sprzyja ekspansji sieci internetowej. W jaki sposób określić więc poziom rozwoju infrastruktury telekomunikacyjnej danego państwa? Przy pomocy dwóch wskaźników:
ilość linii teleforniczych,
ilość telefonów komórkowych
brak zasobów (naturalnych , społecznych, kulturowych) ważnych z punktu widzenia gospodarki globalnej
Zadaniem M. Castelisa proces wykluczenia społecznego w epoce informacyjnej dotyczy nie tylko jednostek, ale również całych regionów. W warunkach dominacji logiki przestrzeni przepływów obszary , które nie posiadają wartości z punktu widzenia kapitalizmu informacyjnego, ani nie są zainteresowane uczestnictwem w strukturach władzy globalnej, nie uczestniczą w przepływach bogactwa oraz informacji są odcięte od podstawowej infrastruktury technologicznej, która pozwala nam komunikować się, tworzyć innowacje, produkować, konsumować a nawet żyć we współczesnym świecie.
Castelis wprowadza pojęcie „czwarty świat” i „technologiczny apartheid” opisujące sieciowe zacofanie Afryki. Biurokracja państwa, błędy polityki proeksportowej, brak infrastruktury produkcyjno - komunikacyjnej, niska jakość kapitału społecznego, sprawiają, że państwa afrykańskie posiadające zasoby naturalne nie potrafią zainwestować pieniędzy z eksportu w infrastrukturę technologiczną sprzyjającą rozwojowi społeczeństwa informacyjnego.
niski poziom zamożności społeczeństwa decydujący o braku zainteresowania danym rynkiem ze strony globalnych dostawców sieci.
Ekspansja rynku (logiki rynkowej) sprawia , że najważniejsze z punktu widzenia kapitału globalnego są społeczeństwa posiadające określone zasoby materialne. Nieopłacalne i zbyt ryzykowne dla globalnych korporacji medialnych jest inwestowanie w najbiedniejsze i najbardziej zacofane rynki.
Społeczeństwa najbiedniejsze pozostawiane są same sobie, wpadają w swoistą pułapkę biedy. Nie posiadają zasobów materialnych i niematerialnych lub nie wiedzą jak pozyskać kapitał, który przyciągnąłby inwestorów zagranicznych. Warto podkreślić, że poziom zamożności danego społeczeństwa jest ściśle powiązany z wymienionymi wcześniej czynnikami.
Czynniki społeczno - kulturowe
Rozwój sieci internetowej stymulują/hamują rozmaite elementy składające się na szeroko pojętą kulturę społeczeństwa. Elementy te tworzą bardziej złożone całości tzw. kompleksy kulturowe. Sposoby ubierania się, powitania, zachowania w trakcie wykładu to przykłady kompleksów kulturowych. Kiedy zaś różne pod względem treści i funkcji elementy kulturowe skupiają się wokół jakiegoś centralnego elementu mówimy o najszerszych całościach tzw. konfiguracjach kulturowych. Konfiguracje kulturowe decydują o tym czy mamy do czynienia z kulturą tradycyjną (konserwatywną) czy też z kulturą innowacyjną (otwartą) kulturą stymulującą czy też hamującą rozwój sieci internetowej. Jak podkreśla Piotr Sztompka konfiguracja kulturowa funkcjonuje prawidłowo, gdy wszystkie jej elementy harmonijnie współgrają. Zdarzają się jednak sytuacje, gdy pomiędzy elementami występuje asynchronia, niespójność lub dysharmonia.
Zaburzenia współistnienia elementów kultury może przyjmować rozmaite formy
zapóźnienia kulturowe - sytuacja w której jeden element konfiguracji kulturowej nie nadążą za innymi, nie jest w pełni rozwinięty np. nagłemu przyrostowi liczby użytkowników nie towarzyszy równie szybki rozwój szerokopasmowego łącza internetowego
niekompetencji kulturowej - rozwojowi sieci internetowej, wzrostowi mocy obliczeniowej komputerów nie towarzyszy wzrost umiejętności informatycznych danej populacji
dysharmonia kulturowa - nowinki technologiczne w dziedzinie IT nie służą rozwojowi gospodarczemu społeczeństwa, a wspomagają sferę militarną bądź przestępczą.
Poziom natężenia zaburzeń kulturowych współdecyduje o rozwoju technologicznym społeczeństwa. Kiedy zaburzenia stają się decydującą cechą kultury mamy do czynienia ze stagnacją technologiczną, paraliżem rozwoju. Jeśli zaś poziom tych zaburzeń utrzymuje się na relatywnie niskim poziomie mamy do czynienia z postępem, dynamicznym rozwojem, wzrostem. Praktyczną ilustracją występowania zaburzeń w poszczególnych społeczeństwach/państwach jest ranking innowacyjności.
O ekspansji Internetu współdecydują również cechy demograficzne danej zbiorowości. Najważniejsze z nich to wiek, wykształcenie, status zawodowy oraz status materialny. Najogólniej można założyć, że osoby młode, dobrze wykształcone pracujące w branży IT, dobrze zarabiający chętniej korzystają z Internetu, niż osoby starsze słabo wykształcone utrzymujące się ze słabo płatnej pracy w rolnictwie.
Dostęp do Internetu w Europie ma prawie, co drugi obywatel. Najlepszy dostęp do sieci mają mieszkańcy krajów skandynawskich. Najgorszy dostęp do Internetu jest w Albanii.
Według badania Net Track w grudniu 2008 było w Polsce 13750500 internautów w wieku 15 lat i więcej co daje 45.6% populacji.
20. Etyka hakerska
Hakerzy nie posiadają żadnego oficjalnego kodeksu etycznego. Vern Paxson z International Computer Science Institute zaproponował utworzenie kodeksu norm etycznych dla „dobrych” hakerów. Do jego stworzenia jednak nie doszło [5]. Pomimo tego postaram się przedstawić zasady z którymi sam się spotykam, przeglądając chociażby Internet i rozmawiając ze znajomymi. Są one nieoficjalne, lecz nie powinno to stanowić dla nikogo problemu, ponieważ wszyscy powinniśmy postępować w zgodzie z sumieniem.
Podstawowa zasada brzmi: Nie szkodzić, nie czynić żadnego zła. Nie można usuwać żadnych plików ani zmieniać nic w systemie. Teoretycznie nie można w ogóle uzyskać dostępu do żadnych danych znajdujących się na cudzej maszynie. Ciekawość, która jest fundamentalną cechą hakerów jest jednak najważniejsza. Stąd po uzyskaniu dostępu do danych nie wolno niszczyć ani modyfikować plików. Jest to szczególnie widoczne, gdy haker chce naprawić coś, co (z jego punktu widzenia) jest uszkodzone lub wymaga poprawy. Niedoskonałość złości hakerów, których pierwotny instynkt nakazuje im doprowadzać wszystko do perfekcji.
Wszelkie podejmowane działania powinny być w pełni legalne, lecz często jest to sprzeczne z założeniami. Powoduje to konflikt norm moralnych.
Hakerzy muszą powstrzymać pokusę wykorzystania swojej wiedzy w celach uzyskania zysku (np. sprzedaż wykradzionych danych na czarnym rynku za naprawdę duże pieniądze), zdobycia rozgłosu (np. wśród hackerskiego undergroundu (podziemia) lub innych użytkowników sieci). Kradzież informacji może przynieść bardzo duże szkody. Bardzo ważnym aspektem jest podszywanie się (spoofing i phishing), a także nasłuch informacji (sniffing), które są często stosowanymi metodami zdobywania informacji. Są z jednej strony bardzo skuteczne, lecz stwarzają możliwość bardzo łatwego uzyskania informacji, które nie powinny nigdy ujrzeć światła dziennego.
Kolejną zasadą jest informowanie administratorów/autorów o wykrytych nieprawidłowościach. Wszelkie luki odkryte w kodzie serwisu/aplikacji lub konfiguracji systemu powinny zostać jak najszybciej zaraportowanie odpowiednim osobom w celu ich naprawienia (np. aktualizacji skryptu, wydania patcha). W krajach takich jak Polska ta zasada raczej nie znajduje zastosowania. Powód jest prosty - polscy administratorzy zazwyczaj nie są wdzięczni za pomoc/poradę. Wręcz odwrotnie, potrafią grozić, np. sądem czy innymi konsekwencjami. Niby za co? Za to, że ktoś chciał w ten sposób pomóc ulepszyć jakiś program, zmniejszyć ryzyko wykradzenia istotnych informacji, poinformować o konieczności aktualizacji przestarzałego i tym samym niebezpiecznego programu. Czasami wraz z raportem o danej nieprawidłowości hakerzy wysyłają informacją jak ją naprawić. Na szczęście zmienia się to powoli na lepsze, być może administratorzy i autorzy odkrywają pozytywne intencje hakerów. Etyczny haker stawia sobie za cel pomoc w znalezieniu skutecznej metody obrony przed atakiem. Oczywiście naganne jest publikowanie informacji o znalezionych lukach dla szerszego grona osób, np. na forach internetowych, czy w formie exploitów (których użycie nie wymaga praktycznie żadnej wiedzy informatycznej).
Hakerzy powinni być skromni. Wszelkiego rodzaju przechwałki mogą być jedynie dowodem na to, że komuś brakuje wiedzy. Nie powinni nikogo lekceważyć, nigdy nie wiadomo przecież z kim się rozmawia, np. na IRC-u. Dobrze wyjść z założenia, że osoba z którą rozmawiamy ma większą wiedzę od nas. Hakerzy gardzą pochlebcami, nie potrzebują żadnych sposobów dowartościowania siebie.
Wszyscy się powinni szanować, hakerzy w szczególności zwracają na to uwagę. Szacunek to podstawa stworzenia dobrych relacji, więc wzrasta szansa poznania wielu nowych, ciekawych osób. Wśród hakerów wiele osób cieszy się uznaniem, są to, np. Richard Stallman, Linus Torvalds, Eric S. Raymond, Kevin Mitnick, a w Polsce chociażby Michał Zalewski i Joanna Rutkowska. Są oni bardzo silnymi autorytetami, niektórzy stają się żywą legendą owianą aurą tajemniczości.
Uczciwość i zaufanie są równie ważne. Niestety poprzez nagonkę na hakerów prowadzoną przez media, społeczeństwo nie darzy zaufaniem tej grupy ekspertów. Są oni utożsamiani z crackerami - hakerami, którzy wybrali działalność przestępczą. Firmy z branży bezpieczeństwa teleinformatycznego niechętnie zatrudniają hakerów. Wzbraniają się przed współpracą, ponieważ kryminalistom nie wolno zaufać [6]. Hakerzy z grupy “białych kapeluszy” odkrywają potencjalne zagrożenia przed odkryciem ich przez włamywaczy. Są oni również bardzo narażeni na wszelkiego rodzaju formy przekupstwa. Dla wielu osób informacja jest ważniejsza od pieniędzy. A kto może najszybciej uzyskać dostęp do niej jak nie haker? Informacja wcale nie musi być zapisana w formie elektronicznej. Pomimo tego, że cechuje ich samotność (pozostają na uboczu społeczeństwa) i są tzw. geekami (dziwakami/świrami/nudziarzami) mają jedną tajną broń - inżynierię społeczną. Od dawna wiadomo, że najsłabszym ogniwem w bezpieczeństwie teleinformatycznym jest człowiek. Są mistrzami socjotechniki, potrafią wyciągnąć bardzo wiele informacji od nieświadomych tego ludzi. Dzięki temu z łatwością uzyskują dostęp to najlepiej zabezpieczonych danych. Nie znasz hasła? Po prostu o nie zapytaj… Jak widzimy muszą oni pozostać wierni swoim zasadom i nie ulegać pokusie wykorzystania swojej wiedzy do złych celów.
Hakerzy nie powinni odnosić się obraźliwie do osób początkujących (tzw. newbies), Osoby takie niestety mogą irytować, zwłaszcza ilością zadawanych pytań oraz ich niskim poziomem. Dobrze jest wtedy wskazać im coś na dobry początek, np. poradzić jakich języków programowania się nauczyć, polecić jakąś lekturę branżową. Hakerzy co do zasady chętnie służą pomocą (wystarczy tylko udowodnić, że naprawdę komuś zależy na zdobyciu wiedzy, że ktoś się stara) i dzielą się swoją wiedzą (np. poprzez pisanie tutoriali, faq oraz wpisy na blogach, forach, grupach dyskusyjnych, własnych stronach). Popularyzacja i udostępnianie tej specyficznej wiedzy jest bardzo ważna, bo czyż nie najlepszą obroną jest atak? Znając metody jakimi posługują się hakerzy jesteśmy w stanie dobrze przed nimi się chronić. Tak więc wszyscy powinni korzystać z tego, że podstawą hackingu jest wolność w każdym aspekcie. Każda informacja powinna być jawna i wolna, stąd narodził się ruch open source - wolnego oprogramowania o otwartych źródłach.
Społeczność hackerska jest bardzo zróżnicowana pod względem narodowościowym, kulturowym czy religijnym, także dyskryminacja raczej nie jest problemem. Hakerzy nie zwracają uwagi na nic poza wiedzą. Istnieje również powszechna zasada, że w Internecie są wszyscy równi.
Szanowanie prywatności jest kolejną ważną zasadą etyczną. W informatyce dostęp do prywatnych, osobistych danych tak naprawdę odbywa się w hurtowych ilościach. Hakerzy bardzo często mają za zadanie sprawdzenie zabezpieczeń przed nieautoryzowanym dostępem. Ochrona prywatności i nienaruszalności powinna być priorytetem. Haker uzyskując dostęp do informacji, których nie powinien znaleźć jest zobowiązany do zachowania poufności i dyskrecji.
Każdy haker ma swoje zasady etyczne, którymi się kieruje. Doskonałym ich uzupełnieniem są zasady netykiety (zasady etyki sieciowej), które dotyczą wszystkich osób posługujących się komputerem. Posiada iście szlachetną ideologię. Społeczności hakerów nie tworzą intelektualiści z aktówką, lecz ludzie z doświadczeniem i wiedzą.