EGZAMIN Internet

EGZAMIN

„Internet jako środowisko informacji” – Remigiusz Sapa

  1. Historia Internetu (pytania: kluczowe zjawiska które wpłynęły że Internet jest dzisiaj tym czym jest – lata 90. Ubiegłego wieku i czynniki które zadecydowały że Internet z hobby kilku tys. ludzi stał się masowym środowiskiem informacji ; 3-4 najważniejsze (data+ wyjaśnienie/uzasadnienie) zjawiska które istotnie zmieniły Internet.

Druga połowa XX wieku to czas rewolucji informacyjnej. Lata 90. XX wieku – książki i inne źródła informacji są szerzej dostępne. Nasze środowisko informacyjne zmieniło charakter – wiemy co się dzieje na świecie, bo jest dobry dostęp do informacji, ale nie wiemy co się dzieje np. w sąsiedztwie. Nie potrafimy zamknąć szeregu informacji.

Środowisko informacyjne składa się z:
a) Treści do jakich mamy dostęp

b) Narzędzi (wyszukiwarki, systemy etc)
c) Wiedza ludzka
d) Obowiązujące w środowisku reguły

HISTORIA INTERNETU

Prace nad Internetem rozpoczęto w latach 50. XX wieku. Była to odpowiedź Amerykanów na osiągnięcia Rosjan w kwestii lotów w kosmos.

Lata ‘60 XX: dofinansowanie Agencji Bezpieczeństwa Narodowego. Zlecenie opracowania sieci komunikacyjnych wewnątrzwojskowych, które, w przypadku nagłego ataku, pozwoliłyby na sprawne zarządzanie ruchami oddziałów.

1962r. – Paul Baran stworzył raport „o rozproszonych sieciach komunikacyjnych”. W takim układzie przesyłu danych wystarczy w jednym miejscu przeciąć nitkę komunikacyjną, by nastąpiło rozproszenie i chaos (żołnierz wie, że ma wykonać rozkaz, bo wie skąd on wyszedł).

Paul Baran zaproponował sieć o równorzędnych węzłach: sieć o wielu drogach, po których może przejść informacja. Wadą pomysłu była niepewność co do źródła przekazu. Rozwiązanie problemu stanowiło dodatnie do samej treści przekazu informacji o adresacie i nadawcy (pakiet danych)

Pakietowy transfer informacji – w koncepcji Barana każdy wagonik może poruszać się samodzielnie/oddzielnie i łączyć w całość dopiero u adresata. Każdy pakiet ma zakodowaną kolejność w zbiorze wiadomości, więc gdy część wiadomości nie dotrze, to prosimy o dosłanie tylko tej, która nie dotarła. Sieć komunikacyjna jest oderwana od funkcji, wiadomość jest dzielona na części, które mają niezależne od siebie trasy. Podstawą sieci jest protokół TCP/IP.

Protokół TCP/IP (Transmission Control Protocol/Internet Protocol) jest najpopularniejszym protokołem i podstawą działania Internetu. Jego możliwości routingu zapewniają maksymalną elastyczność w sieci. Każdy komputer zdalny łączący się z serwerem dostępu zdalnego w sieci TCP/IP otrzymuje od tego serwera adres IP. Jest on automatycznie dostarczany przez protokół DHCP w sieci docelowej lub wybierany ze statystycznego zakresu przypisanego do serwera dostępu zdalnego.

ARPA (Address and Routing Parametr Area) – agencja ds. Zaawansowanych Przedsięwzięć Badawczych. Zajęła się budową sieci. Była finansowana przez MON.

1969r. - otworzono pierwszą sieć o nazwie ARPANet, która łączyła 4 komputery.

1972r. – stworzono pierwszy program pocztowy (e-mail)

1973r. - połączenie Ameryki z London College Univeristy, pierwszy kontakt „internetowy” między dwoma krajami (USA i Wielką Brytanią). Internet funkcjonował jedynie w środowiskach kilku uczelni wyższych jako ciekawy eksperyment, solidnie dofinansowywany przez wojsko. Mimo dobrych rokowań, eksperyment był pozbawiony znaczenia światowego.

1974r. – powstaje TELNET. Jest to standard protokołu komunikacyjnego używanego w sieciach komputerowych do obsługi odległego terminala. TELNET definiował wczesny Internet, definiował jego granice.

TELNET = bezpośrednia praca na danym serwerze, nasza klawiatura staje się klawiaturą komputera X i to co my zapisujemy pojawia się na tamtym komputerze. Linia (serwer) była cały czas zajęta.

Lata 80. XX wieku – TELNET został zastąpiony przez architekturę klient-serwer. W tej architekturze klient pracuje na swoim komputerze i na własnym serwerze.

Korzyści:
- sieć jest wolna
- na to łącze może wejść dziesiątki tysięcy innych użytkowników

1975r. – powstała pierwsza lista dyskusyjna. Działa na zasadzie prostej listy dyskusyjnej tzn. e-mail wysyłany jest automatycznie do wszystkich osób z listy.

!Transfer „do mnie” jest zawsze większy niż transfer „ode mnie”!

1979r. – powstały grupy dyskusyjne. Fora dyskusyjne to rozwinięcia grup dyskusyjnych.

Lata 80. XX wieku – pojawienie się licznych podsieci

1 stycznia 1983r – wprowadzono w Internecie protokół informacyjny TCP/IP. Od tego momentu jedynym warunkiem podpięcia się do sieci było posiadanie numeru IP. Nawiązuje on do pakietowego transferu informacji.

1983r. – z sieci ARPANet zostaje wydzielona MILNet. Odejście wojska z sieci. Są mniejsze fundusze na rozwój sieci, ale z drugiej strony sieć jest teraz siecią otwartą, pozbawioną tajemnic wojskowych.

W latach 80. XX wieku pojawiają się w sieci pierwsi „cywile” oraz pierwsze wirusy (1988r); powstaje IRC (komunikator w czasie rzeczywistym).

Lata 90.

1989/90-1996/97 – szybki rozwój Internetu, wyjście z uczelni na świat. Ułatwienie użytkowania, zbicie kosztów użytkowania sieci.

Tim Berners-Lee: fizyk, pracownik CERNu. W 1889/1990r. zbudował prototyp strony internetowej (strony www), czyli dokumentu hipertekstowego, z linkami hipertekstowo łączącymi się z innymi witrynami.

1991r. - zniesienie zakazu handlu w sieci. Rozpęd samofinansowania sieci.

1993r. – pojawia się pierwsza przeglądarka graficzna, MOSAIC, umożliwiająca obejrzenie strony www. Windows 3.11.

1995r - istnieją dwie płynnie działające przeglądarki (IE Microsoftu i NETSCAPE). Zmodyfikowano MOSAIC. Microsoft wygrywa „wyścig zbrojeń” przeglądarek. Były one dostępne za darmo. Na komputery PC wchodzi Windows 95. Od tamtej pory „filozofia” systemów niewiele się zmieniła.

Lata 90. XX wieku – pecety drastycznie tanieją, Internet się komercjalizuje (zaczęło się od pizzeri, potem były księgarnie etc)

Od 1996r. - Internet masowy, dostępny dla każdego. Świat, zasiedlany przez ludzi. Humanizacja Internetu.

1996r. – rozpoczął swoje działanie Internet Archive (IA)

  1. Skala użytkowników Internetu (ilu użytkowników na świecie, w Polsce).

Użytkowanie Internetu (w 2012r) podział według kontynentów:
Azja - 44,8%
Europa - 21,5%
Północna Ameryka - 11,4%
Ameryka łacińska - 10,4%
Afryka 7%
Środkowy wschód - 3,7%
Oceania i Australia 1%

Procent penetracji Internetu (ile populacji korzysta z Internetu) na świecie to 34 % (1/3 ludzkości korzysta z sieci). W ciągu 12 lat ilość użytkowników wzrosła pięciokrotnie.W Europie 63% ludzi ma dostęp do sieci!

Ameryka Północna - 78% populacji ma dostęp do Internetu.
Polska - 65% populacji ma dostęp do Internetu.
Kraje Skandynawskie (Norwegia - 97%; Szwecja - 93%, Holandia 93%, Dania - 90%, Finlandia 90%).

  1. milionów ludzi w Polsce są użytkownikami Facebooka.

  1. Popularność wyszukiwarek (najczęściej używane + rząd wielkości)

Popularność wyszukiwarek i wyszukiwania w USA:
1)Google (ok. 67%)
2)Bing (ok. 17%)
3)Yahoo (ok. 12%)

Popularność wyszukiwarek i wyszukiwania w Polsce:
1) Google (ok. 93% Polaków)
2) Bing (ok. 1,5% Polaków)
3) Yahoo.com (ok. 2,13% Polaków)
4) Onet.pl (ok. 0,85% Polaków)

  1. Wykres kołowy w wyszukiwarkach (determinujące możliwości wyszukiwarki – szperacz, baza, interfejs, algorytm + zadania, jak wpływa na wyniki)

- program indeksujący (szperacz, silnik, bot): software, który wysyłany jest przez wyszukiwarkę w środowisko web, wędrujący po linkach od strony do strony i te strony indeksuje (wyszukiwanie wyróżnionych słów z notowaniem miejsca ich wystąpienia; czasem ograniczone liczbą bitów). Nie wiemy jednak dokładnie, jak owe szperacze działają. Zdarza się, że różne wyszukiwarki korzystają z tych samych szperaczy. Szperacze indeksują strony tzn. tworzą spis słów znaczących występujących na danej stronie internetowej, potem idzie na inną stronę i też indeksują, przy okazji zapisując informacje o linkach do adresów stron zindeksowanych, dokonuje analiz statystycznych, statystyczne info o miejscu występowania na stronie. Szperacze CAŁY CZAS chodzą po Internecie, cały czas indeksują niezależnie od tego czy wpiszemy jakaś instrukcję wyszukiwawczą, czy też nie. Wyszukiwarki nie indeksują całych dokumentów (mogą, ale nie zawsze tak się dzieje. Czasami indeksują tylko do danego miejsca gdyż np. przekroczona zostaje ilość bitów).
PROBLEM! Dokładnie nie wiemy jak wyszukiwarki funkcjonują/działają.
Różne wyszukiwarki korzystają z tych samych szperaczy.

- indeks (baza wyszukiwarki, baza indeksująca): lista terminów znalezionych w sieci wraz z przypisanymi im adresami. Będąc na danej stronie szperacz zapisuje również informacje o linkach, prowadzących do owej strony, różnicuje wartość, dokonuje analiz statystycznych. Bazy są cały czas organizowane, porządkowane, aktualizowane i czyszczone. Wyszukiwarka nie szuka w Sieci - przeszukuje swoją bazę indeksową.

- interfejs (interfejs wyszukiwawczy): część software, odpowiadająca za komunikację między wyszukiwarką a użytkownikiem. Miejsce wpisywania zapytania i pokazywania odpowiedzi. Pozwala na konstruowanie i odczytywanie/odebranie wyników wyszukiwania, komunikowania się człowieka z wyszukiwarką i nawzajem. Obecnie firmy stawiają na prostotę i satysfakcję klienta. Nie ma możliwości zawężenia niektórych parametrów wyszukiwanych materiałów z poziomu zadawania pytania, jedynie w „narzędziach wyszukiwania”.

Jest on ważny w dwóch momentach: dzięki niemu zadaję pytanie i wyświetlam/odbieram wyniki. Odbieram wyniki w formie listy hierarchicznej. Są one ułożone według relewantności (według odpowiedniości względem zapytania). Odpowiedzi bardziej relewantne na górze, mniej relewantne niżej/na dalszych stronach wyszukiwarki.

Relewantność (znaczenia):
1) zgodność z potrzebą
2) odpowiedniość z zapytaniem/prośbą (podst. Znaczenie)

Pertynentny – zaspokajający potrzebę
Relewantny – zgodny z potrzebą/adekwatny do potrzeby

Analiza składniowa (syntaktyczna) – proces analizy tekstu, w celu ustalenia jego struktury gramatycznej i zgodności z gramatyką języka. 

Obecne narzędzia wychodzą poza relewancje i próbują znaleźć to, o co chodziło pytającemu (są bardziej pertynentne). Są wyszukiwarki które nie wyświetlają wyników w liście hierarchicznej, tylko wyświetlają to w formie grupy tematycznej, w formie działów.

- algorytm rankingowy: narzędzie decydujące o kolejności wyświetlania wyników w zbiorze wyników wyszukiwania według relewantności - im bardziej odpowiednie do zapytania, tym wyżej na liście wyników. Obszar szczególnie otaczany tajemnicą przez producentów wyszukiwarek.

  1. Dlaczego wyszukiwarki nie wszystko w sieci widzą:

  1. Podstawowe operatory specjalistyczne w Google

+ (plus) Szukaj ze wszystkimi słowami (koniunkcja logiczna)
- (minus) Szukaj bez słów (negacja)
OR Szukaj z którymkolwiek ze słów (alternatywa logiczna
* Znacznik trunkacji/odcięcie końcówki wyrazu (widcard)
cudzysłów Szukaj z wyrażeniem
filetype: Szukaj określonego formatu pliku
url: Szukaj strony zawierające zadany ciąg znaków w adresie URL
host: Szukaj treści tylko ze wskazanej strony internetowej (np. host:www.inib.uj.edu.pl)
site: Szukaj stron ze wskazanej domeny geograficznej i/lub funkcjonalnej
link: Szukaj stron zawierających odnośnik do wskazanego adresu
  1. Algorytm rankingowy

Algorytm rankingowy - mechanizm który decyduje o kolejności wyświetlania wyników w zbiorze wyników wyszukiwania (w wyszukiwarce). Pozycjonowanie - zapewnianie wysokiego miejsce w zbiorze wyników wyszukiwarek

Algorytm:

1) Czynniki zależne od słów użytych w zapytaniu:

- częstotliwość występowania tych słów z zapytania na stronie WWW (frekwencja słowa - stosunek liczby wystąpień danego terminu do ogólnej liczby słów na danej stronie WWW) (słowo reprezentatywne - dobrze reprezentuje treść)

- miejsce wystąpienia słowa na stronie WWW

strona składa się z: części nagłówkowej [cz. Nagł. = HEAD] (nie wyświetla się w wyszukiwarce, zawiera informacje o stronie) oraz części właściwej [BODY]

Metainformacja = informacja o informacji

Keywords, describtion & title oddaje najlepiej charakter strony.

Heady są nieobowiązkowe więc wyniki nie byłyby dokładne gdyby wyszukiwarki brały pod uwagę tylko heady. Gdyby treść headów były brane pod uwagę to byłyby celem nieuczciwych działań webmasterskich. Wyszukiwarki porównują słowa z head do body.

Linki/podstrona – jeśli tam pojawi się nasze słowo kluczowe to strona w oczach wyszukiwarki automatycznie staje się bardziej relatywna.

Nie wiemy dokładnie które słowa są indeksowane, więc słowa ważne powinny znajdować się w różnych miejscach strony.

- odległość między słowami zapytania (kiedy w zapytaniu użyte są co najmniej 2 słowa) pierwsze pokażą się te strony na których 2 słowa są najbliżej siebie

2) Czynniki niezależne od słów użytych w zapytaniu:

- liczba i rodzaj (skąd pochodzą) linków prowadzących do danej strony (mechanizm plebiscytowy = dobre jest to na co głosuje dużo osób; „głosowanie” - podlinkowanie stron WWW; Google nie indeksuje stron, do których nie prowadzą żadne linki). Wyżej w zbiorze będą strony, do których prowadzi dużo linków.

Nie liczy się wyłącznie liczba linków, ale również fakt skąd one prowadzą (strony do których prowadzi więcej linków są ważniejsze (są opiniotwórcze). Ważne jest czy linki prowadzą z serwisów społecznościowych (trzeba się promować na serwisach społecznościowych). Na pozycje w rankingu wpływa obecność w serwisach społecznościowych

- czynnik zachowań użytkownika (jeżeli użytkownicy nie wchodzą na konkretną stronę, albo wchodzą na chwilę, Google umieszcza daną stronę niżej; tzn. strony często i długo odwiedzane przez użytkowników są na pierwszej (ew. lepszej) pozycji.

Wyszukiwarka korzysta z wszystkich czynników aby przedstawić wyniki wyszukiwania.

  1. Przykłady wyszukiwarek specjalistycznych, wyszukiwarki plików graficznych (+ możliwości konstruowania zapytania oraz specyficzne możliwości – takie jakich nie ma w innych), wyszukiwarki newsowych.

a) Wyszukiwarki graficzne:
Google Grafika (posiada wszystkie standardowe możliwości wyszukiwarek graficznych)
Yahoo Images (posiada: rozmiar obrazu, skala chromatyczna i dominanta barwna, typ zasobu)
Exalead (posiada: rozmiar obrazu, orientacja w płaszczyźnie, obiekt na obrazie, format pliku, skala chromatyczna i dominanta barwna)
Picsearch (posiada: dominant barwna, rozmiar pliku, orientacja w płaszczyźnie, typ zasobu)

Standardowe możliwości określania parametrów obrazu w wyszukiwarkach graficznych:

  1. Rozmiar obrazu w pikselach lub według uśrednionej podziałki (małe, średnie, duże)

  2. Format pliku (jpg, gif….)

  3. Skala chromatyczna i dominanta barwna

  4. Typ zasobu (obraz statyczny, animacja, grafika wektorowa, zdjęcie, obiekt ClipArt…)

  5. Obiekt przedstawiony na obrazie (np. twarz)

  6. Orientacja w płaszczyźnie (pionowa, pozioma, kwadrat)

Wyszukiwarki plików graficznych NIE są tym samym, co archiwa/galerie/repozytoria grafiki (zawierające obrazy, rysunki, wykresy, zdjęcia itp., czasami także dodatkowo multimedia), takie jak Flickr lub Wikimedia Commons. Więcej na temat stock galleries można znaleźć w blogu Stockoplastykon.

b) Wyszukiwarki globalne
Google
WP
Onet
Bing
Altavista
Alltheweb
Dogpile
Mamma
Yippy
MRSAPO
Ask
AOL Search

c) Wyszukiwarki plików video
Blinkx
Truveo

d) Wyszukiwarki wiadomości bieżących
Google News
Yahoo News
Altavista News
NetSprint

e) Wyszukiwarki specjalistyczne
Google Books
Google Scholar
OAister

  1. Multiwyszukiwarki

Dogpile, Clusty i Mamma to METAWYSZUKIWARKI. Nie mają własnych szperaczy, a zatem nie mają też własnej bazy indeksowej. Ich działanie polega na tym, że współpracują z kilkoma wyszukiwarkami globalnymi, do których wysyłają zadaną przez użytkownika instrukcję. Kiedy każda z wyszukiwarek współpracujących odsyła zbiór swoich wyników, a metawyszukiwarka sortuje te rezultaty według własnego algorytmu rankingowego i wybiera do wyświetlenia dla użytkownika tylko te, które zostaną uznane za najbardziej relewantne. Za pomocą metawyszukiwarki wykonuje się kwerendę jednocześnie w kilku wyszukiwarkach globalnych, a ponadto uzyskuje się wyniki posortowane, mające najwyższy wskaźnik relewancji.

Dogpile wyszukuje w Google, Yahoo i Yandex!

  1. Google Scholar

Wyszukiwarka specjalna, dedykowana wyłącznie do treści naukowych, penetrująca między innymi zasoby Open Access. Nie współpracuje z NUKAT, ciągnie kooperację z WorldCat.

UWAGA! WAŻNE!

Pomocnik Google Scholara:

- rejestruje wzajemne cytowania
- pokazuje powiązane artykuły
- pokazuje ilość wersji danego tekstu dostępnych w sieci
- możliwość cytowania (importowanie danych opisu bibliograficznego do programu odpowiadającego za tworzenie opisów bibliograficznych)

  1. Web 2.0, Web 3.0, serwisy Nauka 2.0

Web 2.0: wcześniej komunikacja była jednokierunkowa. Web 2.0 to komunikacja w obu kierunkach; komentowanie blogów, filmów, wpisów; praca w chmurze nad projektem, współkreowanie dokumentów; tagowanie wpisów; współedycja (np. wikipedia). Budowanie społeczności sieciowych.

Web 2.0 nowe formy wypowiedzi naukowej:
-blogi naukowe
-narzędzia typowo społecznościowe (naukowy, współpraca, w badaniach)
-narzędzia wspólnego pisania tekstu przez sieć
-narzędzia pozwalające budować warsztat informacyjny naukowców
-repozytoria danych naukowych pochodzących z badań
-prezentacje z konferencji
-portale naukowe

Koncepcja semantyzacji (web 3.0) sieci: sprawienie, by Internet był zrozumiały przez maszyny. Wynika z ograniczeń człowieka, niezdolnego do ogarnięcia wszystkich znajdujących się w sieci treści.

Serwisy Nauka 2.0
1. Serwisy dzielenia się wiedzą i dokumentami (serwisy typu knowledge / content sharing) oparte na idei samopublikacji

1.1. Dzielenie się dokumentami

Issue
- Profil naukowy
- 100% pewności danych
- NIE JEST natomiast serwisem stricte naukowym
- NIE JEST dedykowany do samopublikacji

Knol: a unit of knowledge
hasło przewodnie: „Share what you know. Write a knol ”
użytkownicy zamieszczają w serwisie artkuły o nazwie Knol (unit of knowledge)

Scribd
- największa na świecie biblioteka cyfrowa
- nie ma określonego profilu, znajdziemy tam teksty zarówno naukowe jak i literaturę piękną
- dostęp jest odpłatny

Squidoo
hasło przewodnie: Share your knowledge. Make a difference. ”
użytkownicy zamieszczają w serwisie artykuły zwane lenses – soczewkami

1.2 Dzielenie się prezentacjami PPT
SlideBoom
SlideShare
- NIE JEST dedykowany wyłącznie do materiałów naukowych
- można dodać: prezentacje, dokumenty, pliki video, infografiki
- jest do serwis samo publikacji prezentacji A NIE dokumentów.

1.3. Dzielenie się danymi w postaci opracowań graficznych
Many Eyes
- serwis tylko z infografikami
- najważniejszym źródłem jest informacja o pochodzeniu danych
- nie znajdziemy komentarzy tekstowych

1.4. Dzielenie się fotografiami, filmami:
Flickr
Fotosik.pl
Ovi
Teachertube
- odłam youtube do materiałów naukowych

2. Porządkowanie zasobów Internetu i informacja o informacji (serwisy typu social bookmarking)
Użytkownicy kompletują publicznie dostępne biblioteki linków do rekomendowanych przez siebie materiałów naukowych (social bookmarks), charakteryzując treść polecanych zasobów za pomocą narzędzi subiektywnej klasyfikacji treści (tagów, czyli folksonomii)

Delicious
CiteULike
- nie dostanę darmowego dostępu do WSZYSTKICH rzeczy darmowo dostępnych w sieci
- strona nie linkuje TYLKO do rzeczy dostępnych w internecie za darmo
- tylko część artykułów/materiałów będzie dla nas dostępna w pełnym tekście
- można od razu utworzyć opis bibliograficzny artykułu za pomocą „export” i przesłać na komputer.
MojeTropy.pl
Bibsonomy
Connotea

3. Współtworzenie dokumentów
Wiktionary
Scholarpedia
Library Success: A Best Practices Wiki
LISWiki

4. Serwisy typy pytanie – odpowiedź
Pytamy.pl
Answerbag.com

5. Serwisy budowania społeczności
Profeo – Społeczność Profesjonalistów

6. Serwisy podkastowe
Podkasty

7. Blogi i blogosfera

7.1 Blogi naukowe i agregatory blogów naukowych

ScienceBlog
Agregator blogów naukowych:

• narzędzie Web 2.0 indeksujące komunikaty / doniesienia / newsy publikowane na stronach www organizacji zajmujących się badaniami naukowymi

• oferuje bieżąco aktualizowany przegląd nowości ze świata nauki

• artykuły piane przystępnie, w języku sprzyjających popularyzacji odkryć naukowych

• platforma, na której kilkunastu uczonych i amatorów / pasjonatów nauki prowadzi własne blogi

• umożliwia komentowanie postów zamieszczanych w blogach, które są prowadzone w serwisie

• umożliwia komentowanie poszczególnych artykułów (doniesień / komunikatów / newsów) pochodzących z indeksowanych stron instytucji naukowych

• w tematyce indeksowanych stron www dominują nauki ścisłe i przyrodnicze

Research Blogging
Agregator blogów naukowych:

• indeksuje zawartość blogów tworzonych wyłącznie przez naukowców i przez instytucje prowadzące badania naukowe

• indeksowane blogi reprezentują głównie dziedzinę nauk ścisłych i przyrodniczych, nauki humanistyczne są w mniejszości

• nie umożliwia prowadzenia blogów własnych osobom indywidualnym

• jest wyposażony w formularz wyszukiwania zaawansowanego i katalog rzeczowy

• każdy post jest scharakteryzowany rzeczowo za pomocą tagów

• w rekordach postów uwidocznione są opisy bibliograficzne cytowanych publikacji z linkiem do pełnego tekstu, jeśli jest on dostępny w sieci (za darmo lub w komercyjnej bazie piśmiennictwa)

• oferuje selektywny przegląd tematyczny nowości z blogów naukowych, opracowywany przez redakcję serwisu (Editors selection)

7.2 Wyszukiwarki blogów
Blog Serach Engine
Google Blog Search

  1. Rozszerzona rzeczywistość (augmented reality)

Środowisko (system, technologia), w którym obraz rzeczywisty jest wzbogacony o elementy generowane komputerowo. Grafika komputerowa jest nakładana w czasie rzeczywistym na obraz z kamery (smartfony, tablety, gogle, bioniczne soczewki kontaktowe).

  1. Co to są domeny. Jak się je konstruuje. Jak działają, do czego służą. Zasady tworzenia adresu domenowego. Serwery DNS.

Domena internetowa – ciąg nazw systemu Domain Name System (DNS) wykorzystywany w Internecie, składający się z wyrazów umieszczonych w pewnym poddrzewie struktury DNS tj. zakończonych stałym sufiksem (np. ".wikipedia.org").

System serwerów i protokół komunikacyjny, które obsługują rozproszoną bazę danych adresów sieciowych. Np. .gov, .mil,. edu., .org,. .ac(wlkbrytania), .com, .eu

Jak skonstruować adres domenowy?
Nazwadomeny.poddomena.domenanajwyższegopoziomu

System DNS (Domain Name Service) - jest jedną z najstarszych usług internetowych. Pierwszy dokument na ten temat w 1982 roku napisał Jon Postel. Istotą tego systemu jest jego decentralizacja. Serwery systemu DNS są rozsiane na całym świecie i wspólnie wykonują pracę polegającą na tłumaczeniu odpowiednich nazw domenowych na adresy numeryczne, jedyne zrozumiałe dla komputerów. Istnieje 13 głównych serwerów DNS oraz tysiące mniejszych, które bez przerwy kontaktują się ze sobą, wymieniając się zaktualizowanymi bazami danych o wpisach na listy DNS.

Istotą systemu nazw domenowych jest jego hierarchiczna struktura. To ona powoduje, że system może być w znacznym stopniu zdecentralizowany. Z tej struktury wywodzi się także jedno z podstawowych pojęć, a mianowicie domena najwyższego poziomu (ang. Top Level Domain, czasem zapisywana w skrócie jako TLD).

Domena najwyższego poziomu (ang. TLD – Top-Level Domain) – domena internetowa, powyżej której nie istnieją żadne inne domeny w systemie DNS. Są one tworzone i zarządzane przez IANA i ICANN. Każda domena w Internecie składa się z pewnej liczby nazw, oddzielonych kropkami. Ostatnia z tych nazw jest domeną najwyższego poziomu (Na przykład w "pl.wikipedia.org" domeną najwyższego poziomu jest "org".)

Domeny najwyższego poziomu/Top Level Domain/TLD:
- Domeny krajowe (ang. country code – ccTLD)
- Domeny funkcjonalne (ang. generic – gTLD).

Domeny krajowe – każdy kraj otrzymał unikatowy dwuliterowy kod domeny krajowej, i to właśnie w gestii każdego kraju jest powołanie jakiejś jednostki, która tą właśnie domeną ma zarządzać. Polska otrzymała prawo do domeny .pl, natomiast zarządzanie nią powierzono Naukowej i Akademickiej Sieci Komputerowej (NASK)

Domeny funkcjonalne - nie są one przyporządkowane do żadnego konkretnego kraju. Zarządza nimi amerykańska organizacja ICANN (The Internet Corporation for Assigned Names and Numbers – Internetowa Korporacja ds. Nadawania Nazw i Numerów).

Nazwa domeny nie ma nic wspólnego z fizycznym umiejscowieniem komputera, na którym owa domena się znajduje.

Fragment nazwy, który znajduje się przed nazwą, która identyfikuje domenę TLD, nazywa się poddomeną (np.: com.pl)

Tworzenie adresu domenowego:
Musimy zastanowić się nad nazwą. W nazwach domen nie są rozróżniane małe i duże litery, nazwa domeny powinna mieć nie więcej niż 12 znaków, w nazwach domen nie może występować spacja.

  1. RSS

Skrót RSS dawniej oznaczał RDF Site Summary lub Rich Site Summary. W obecnej wersji (2.0) oznacza Really Simple Syndication czy ”bardzo prosta syndykacja”. Ostatnie słowo pierwotnie wiązano z licencjonowaniem materiałów obecnych w jakimś medium (na przykład gazecie, a także stronie WWW), czyli sprzedawaniem praw do publikacji komuś innemu. Teraz oznacza to najczęściej udostępnianie internautom streszczeń zawartości witryn w ramach tak zwanych kanałów RSS (RSS feeds). Narzędzie to umożliwia czytelnikom otrzymywanie powiadomień o publikacji zawartości na stronie WWW.

Technologia RSS powstała pod koniec lat dziewięćdziesiątych. Ramanathan Guha, pracownik firmy Netscape, opracował bazujący na specyfikacji Resource Description Framework standard RDF Site Summary (znany jako RSS 0.9). W 2002 r. pojawił się RSS 2.0 i współczesna nazwa Really Simple Syndication. Wersja ta była pierwszą stworzoną przede wszystkim w oparciu o XML.

Logo RSS – białe fale radiowe na tle pomarańczowego kwadratu. Grafika została wprowadzona przez Mozillę, później przejęli ją pozostali.

Aby móc korzystać z RSS-a, trzeba zaopatrzyć się w odpowiednią aplikację – czytnik. Pierwszy rodzaj czytników obejmuje usługi online działające w oknie przeglądarki – interaktywne witryny, w ramach których użytkownik może edytować listę subskrybowanych kanałów oraz przeglądać nowe nagłówki.

Trzy najpopularniejsze tego typu aplikacje to:
- Google Reader
- Bloglines
- NewsGator

Zasada działania tych usług jest bardzo prosta. Najpierw należy się zarejestrować (w przypadku posiadania już poczty Gmail w Google, wystarczy zalogować się pod wskazanym adresem, a produkt zostanie automatycznie uruchomiony). Następny etap to dodanie subskrypcji za pośrednictwem odpowiedniego okna dialogowego. Nagłówki zaczną pojawiać się w oknie przeglądarki automatycznie. W zależności od ustawień i wykorzystywanej aplikacji możliwe jest przeglądanie wszystkich naraz lub wybieranie kanałów z listy.

Czytniki pozwalają ściągnąć samą treść (z tagami opisującymi charakter elementów), więc pobrane strony są zdecydowanie prostsze niż wersja otwierana w przeglądarce. Z jednej strony pozwala to na pozbycie się reklam, menu, stopek i innych ozdób. Z drugiej tracimy indywidualny charakter witryn (wszystkie wyglądają tak samo) i często komentarze użytkowników. Również skomentowanie tekstu wymaga więcej zachodu niż zwykle.

Feed to inna nazwa kanału RSS!

RSS (Really Simple Syndication) jest sposobem informowania czytelników o nowościach dodanych do witryny. Kanał RSS, czyli zbiór ostatnich wiadomości – zwykle tytułów i fragmentów artykułów – może być odczytywany na wiele sposobów. Najpopularniejsze to czytniki online w formie stale aktualizowanych stron i samodzielne programy podobne do klientów poczty. Nic nie stoi jednak na przeszkodzie, aby korzystać z RSS-ów w przeglądarce czy komunikatorze internetowym.

Główną zaletą RSS-ów jest to, że o aktualizacjach strony jesteśmy informowani prawie od razu. Dużą zaletą w stosunku do newsletterów przesyłanych e-mailem jest anonimowość. Dodając feed do czytnika nie musimy podawać żadnych informacji o sobie, więc nadawca nie wyśle nam niechcianych informacji (spamu). Jeśli kanał przestanie nas interesować, wystarczy usunąć go z czytnika. Ujednolicanie wyglądu stron i pomijanie komentarzy uznawane jest za podstawowe wady RSS-ów. Poza tym problemem są luki w standardzie i niezgodność formatu z poprzednimi wersjami.

Kanały RSS można odczytywać obecnie za pośrednictwem:

  1. DOAJ, DOAR

DOAJ - Directory of Open Access Journals
Światowy uniwersalny katalog czasopism naukowych OA z możliwością wyszukiwania pojedynczych artykułów (uniwersalny = o zakresie obejmującym wszystkie dziedziny wiedzy)
DOAJ nie jest ani wyszukiwarką OA, ani archiwum dziedzinowym, ani repozytorium! To, że jest wyposażony w wyszukiwarkę, nie oznacza, że SAM JEST WYSZUKIWARKĄ!

Serwis OPENDOAR, dostępny z poziomu platformy Sherpa (sherpa.ac.uk) ma cztery ważne segmenty:

  1. Search for repositories => indeks (spis, wykaz) ponad 2100 archiwów dziedzinowych / repozytoriów instytucjonalnych z całego świata, z zestawem filtrów (wyszukiwarką) umożliwiającą zlokalizowanie szukanego obiektu według kryteriów rzeczowych i formalnych

  2. Search repository contents (OpenDoar Global Search) => wyszukiwarka indeksująca zawartość wszystkich 2100 archiwów / repozytoriów skatalogowanych w OpenDOAR, za jej pomocą można lokalizować e-printy pochodzące z tych zasobów

  3. List of repositories => alfabetyczny wykaz 2100 archiwów dziedzinowych i repozytoriów instytucjonalnych z całego świata, do przeglądania w układzie abecadłowym według nazw kontynentów i poszczególnych krajów

  4. Repository statistcs => automatycznie generowane wykresy statystyczne obrazujące różnorodne aspekty funkcjonowania zasobów OA, zarejestrowanych w OpenDOAR


Uwaga!

  1. Zielona i złota droga do otwartego dostępu

Zielona droga do otwartego dostępu – autoarchiwizacja (self-archiving). Samodzielne, dobrowolne udostępniania w Internecie cyfrowych kopii swoich publikowanych i/lub niepublikowanych tekstów naukowych i przydatnych w uprawianiu nauki lub w dydaktyce. Mamy oficjalną publikację, wydaną w oficjalnym czasopiśmie, ale jednocześnie publikujemy ją we własnym zakresie. Upublicznianie dzieł w repozytoriach.

Złota droga do otwartego dostępu (trudna, rozwija się znacznie wolniej od zielonej) - rezygnujemy z komercyjnych czasopism i publikujemy czasopisma w całości dostępne online (darmowe). Są to czasopisma niekomercyjne.

"Zielona droga"

1) Repozytorium AMUR (repozytorium.amu.edu.pl - rep. uniwersytetu im. Adama Mickiewicza w Poznaniu)

2) Sherpa/Romeo (Sherpa.ac.uk./romeo) - na tej stronie możemy sprawdzić jaka jest polityka wydawcy

3) Katalog repozytoriów Open Accessowych z możliwością bezpośredniego przeszukiwania zawartości tych repozytoriów (opendoar.org)

4) Ranking Web of Repositories (repositories.webmetrics.info)

5) Directory of Open Access Books (doabooks.org)

"Złota droga"

1) Directory of Open Journals (Doaj.org)

Przykłady wydawców (złota droga)

- Public Library of Science (PLOS) = darmowe dla użytkowników, płatne dla autorów (plos.org)

- Biomed Central

Hybryda zielono-złotej drogi

Oficjalne wydanie, tylko pojedyncze artykuły są darmowe, gdyż są wykupione bezpośrednio przez autora.

  1. Rodzaje archiwów i repozytoriów

Archiwum dziedzinowe - zasadniczo niezwiązana z żadną instytucją (uczelnią, ośrodkiem badawczo-naukowym, resortem państwowym) baza e-printów skupiająca piśmiennictwo o zakresie treściowym ograniczonym do danej dyscypliny naukowej lub grupy dyscyplin pokrewnych; w archiwach dziedzinowych gromadzi się piśmiennictwo stricte naukowe i/lub fachowe i/lub przydatne do uprawiania nauki i/lub samokształcenia i doskonalenia kompetencji zawodowych.

Repozytorium instytucjonalne - baza e-printów stworzona przez daną uczelnię lub ośrodek badawczo-naukowy, służąca autorachiwizacji prac naukowych przez pracowników i niekiedy również studentów tej instytucji. Repozytoria uczelniane mają z reguły charakter czysto naukowy.

  1. E-printy

Eprint (e-print) – wersja elektroniczna tekstu naukowego.

E-printy dzielą się na:
Preprinty - elektroniczne wersje tekstów naukowych (lub służących uprawianiu nauki) udostępniane przez autorów w zasobach OA przed publikacją w oficjalnym obiegu wydawniczym (tradycyjnym bądź elektronicznym); preprinty bywają recenzowane, jeśli zostały już przyjęte do druku w wydawnictwie naukowym, i nierecenzowane, jeśli autor nie zamierza ogłaszać ich w oficjalnym obiegu wydawniczym.

Plusy preprintów:
- szybszy dostęp
- są darmowe

Minusy preprintów:
- wersja o niepewnej wiarygodności
- trudności w robieniu przypisów, w identyfikacji

Postprinty - elektroniczne kopie tekstów naukowych, najczęściej recenzowanych, udostępniane przez autorów w zasobach OA po opublikowaniu w oficjalnym obiegu wydawniczym.

Plusy postprintów:
- są darmowe
- mają dynamiczna postać (w razie potrzeby możliwość wprowadzenia korekty)

Minusy postprintów:
- wątpliwa wiarygodność
- problem z identyfikacją, wielość wersji, temporalność tych wersji

  1. Komercyjne czytelnie online

a) Bazy danych dostępne przez Bibliotekę Jagiellońską (zakładka E-zasoby) i inne biblioteki akademickie
b) Ibuk (ibuk.pl)
c) Next to
d) Czytelnia medyczna
e) Czytelnia online
f) C.E.E.O.L the Central and Eastern European Online Library

Jak płacić? Sms-em lub przelewem, można wykupić jedną książkę lub abonament.

20. Budowa i upowszechnienie organizacji wprowadzającej standardy Sieci

W3C: World Wide Web Consortium (www.w3.org):

- tworzą standardy dot. spraw technicznych (języki i standardy dostępności pozwalające sprawdzać czy dane strony są zrobione poprawnie wg tych standardów), aplikacje dla www,

- zajmują się semantycznym Webem

-jednym z istotniejszych standardów nad którym W3C pracuje to standardy dostępności - umożliwienie równego dostępu do Internetu ludziom niewidzącym i niedowidzącym.

21. Ocena jakości tego co znajdzie się w sieci

Rodzaje wiarygodności:
-presumbed credibility (założenia odbiorcy, np. „ludzie od reklamy zawsze kłamią”)
-reputed credibility (etykietki dodane do źródła – profesor, doktor)
-surface credibility (np. „ocenianie książki po jej okładce”)
-experienced credibility (bezpośrednia, wnikliwa ocena źródła przez użytkownika)

1. presumbed credibility– bierze się ze stereotypów,
! Bardzo dużo zależy od naszego nastawienia do źródła !
2. reputed credibility – związana z reputacją

Można wskazać kilka podstawowych elementów od których przede wszystkim zależy postrzeganie wiarygodności przekazu:

22. Czynniki warunkujące uczestnictwo w środowisku informacyjnym Internetu.

Dostęp do Internetu : technika(sprzęt i fizyczne połączenie z siecią , kable), usługodawca, czynniki ekonomiczne

Korzystanie z Internetu : umiejętność pisania, czytania ze zrozumieniem, budowania adresów internetowych, wyszukiwania i oceniania informacji, trzeba znać dużo zasobów oraz znać i rozumieć działanie wyszukiwarek (w jaki sposób są tworzone bazy i w jaki sposób wyszukiwarka je przeszukuje), znajomość programów i sprzętu23. Koncepcja semantycznej sieci, semantycznego webu.

Web 3.0 - sprawienie, by Internet był zrozumiały przez maszyny. Wynika z ograniczeń człowieka, niezdolnego do ogarnięcia wszystkich znajdujących się w sieci treści.

Kreowanie „wirtualnej rzeczywistości” spowodowało zaburzenie przepływu informacji ze środowiska realnego do „wirtualnego”. Rozgraniczenie obu tych światów lekko się zaburzyło. Pojawiła się wiara, że w Sieci budujemy lepszy świat, że Sieć dostarcza nam lepszych opcji i alternatyw, zapewnia lepszą kontrolę nad swoimi poczynaniami.

Hikikomori - problem, powstały wśród japońskich nastolatków, nie opuszczających swoich pokojów przez długie okresy czasu, wszystkie potrzeby wypełniających za pomocą technologii.

Wirtualna rzeczywistość:
a) Reintegracja środowiska informacyjnego: wirtual i real w zintegrowanym i zbalansowanym środowisku informacyjnym. Złoty środek pomiędzy życiem technologicznym i biologicznym.
b) Konwergencja: zbieżność, przenikanie, intermedialność
c) Równoległość środowisk: do pewnego stopnia ta sama treść, dystrybuowana i formułowana jednocześnie przy pomocy różnych mediów w rzeczywistości realnej i cyfrowej (druk, wersja cyfrowa, audiobook…)
d) Wymienność mediów - telefon w Internecie, Internet w telefonie
e) Integracja: proces tworzenia się całości z części (żeby działało jak jedno). Chodzi o uzyskanie funkcjonalnej całości złożonej z różnorodnych elementów, a nie tylko o przenikanie się, bądź upodobnienie, jak w przypadku konwergencji.

QR Kody (Fotokody) – kody graficzne, które po zeskanowaniu przez telefon, tablet itp. Zapewniają dostęp do informacji nt. otagowanej rzeczy. Pod postacią kodu zaszyfrowany jest link do konkretnej strony internetowej. Używane są na materiałach reklamowych (np. plakatach), półkach bibliotecznych, książkach, w muzeum, na rekordach bibliograficznych w katalogach.

Fotokody:
- na materiałach reklamowych: szybkie połączenie z mobilną wersją serwisu www biblioteki
- na półkach bibliotecznych: przekierowanie użytkowników do przewodników tematycznych i innych zasobów informacji
- w katalogach na rekordach bibliograficznych: otwarcie dostępu do szerszych informacji o danym obiekcie (abstrakt, lokalizacja…)
- w kluczowych punktach biblioteki: dla instrukcji i edukacji bibliotecznej, w tym np. możliwości pobierania przewodników dźwiękowych
- bezpośrednio w książkach i czasopismach: linki do pełnych tekstów w wersji cyfrowej, informacje o polecanej dalszej lekturze, linki do nagrań dźwiękowych i filmów związanych z danym obiektem

24. Strategie poszukiwania informacji według Berkina

SPOSÓB CEL TRYB ZASOBY
Wyszukiw. Przeglądan. Uczenie się Selekcja

Wyszukiwanie – gdy formułuję zapytanie w którym określam cechy które mają być znalezione. Aby wyszukiwać należy umieć sformułować pytanie.

Przeglądanie - bezpośredni ogląd różnych obiektów informacyjnych po to by odnaleźć to co nas interesuje. Nie formułuję zapytania w jakimś urządzeniu, jedynie oglądam chcąc coś znaleźć.

Uczenie się– uczenie się środowiska inf. , sposobu zadawania pytań, etc. Rozpoznanie narzędzia którym się posługujemy, sieci, zasobu; rozpoznanie środowiska informacyjnego, w którym jesteśmy.

Selekcja - gdy celem naszych działań jest konkretnie wybrane przez nas narzędzie, serwer, przeglądarka (którą znamy), gdy wiemy co i gdzie chcemy znaleźć; celem jest selekcja, wybranie informacji.

Uczenie i selekcja w realu się przenikają!

Rozpoznanie – zakłada że po wejściu w kontakt z ofnormacją stwierdzę że to jest właśnie to czego szukam. Z góry nie jestem w stanie/nie chce określać cech informacji licząc na to że rozpoznam informację która jest dla mnie relewantna, rozpoznam ją w zbiorze inf. wyszukanych.

Specyfikacja – gdy jestem w stanie określić konkretne cechy poszukiwanej informacji i mając je określone mogę je albo wyszukiwać albo przeglądać; chodzi o to co ja wiem gdy podchodzę do wyszukiwania informacji.; Gdy jestem w stanie określić pożądane cechy poszukiwanej informacji. Wskazanie cech poszukiwanej informacji (coś istnieje, jakie ma cechy i jakich cech poszukujemy - nagroda: dostajemy DOKŁADNIE to czego poszukiwaliśmy)

Metainformacja – informacja o informacji. Wszystkie opisy innych treści, karty katalogowe innych treści. Jeśli wyszukuję tylko w abstraktach, polach autorskich etc. to jest metawyszukiwanie, bo wyszukuję w metainformacji.

Informacja – przeglądanie bezpośrednich stron gdy wiemy co dokładnie chcemy znaleźć. Gdy szukam w treści – jest to wyszukiwanie bezpośrednie.

Metainformacja = informacja o informacji (np. opis bibliograficzny, bibliografia, katalog biblioteczny)
Wpisując zapytanie wyszukiwawcze w Google szukamy zarówno w metainformacji jak i w informacji!

25. Zagrożenia w sieci

Wirus – program komputerowy, którego celem jest namnażanie się. Przesyłany w mejlach (załącznikach). Zalicza się do złośliwego oprogramowania.

Koń trojański - Oprogramowanie, które podszywając się pod aplikacje dodatkowo instaluje na komputerze niechciane, często ukryte przed użytkownikiem funkcje. Należy do złośliwego oprogramowania.

Spyware – program komputerowy którego celem jest szpiegowanie (śledzenie) działań użytkownika. Programy te gromadzą dane o użytkowniku i przesyłają autorowi oprogramowania, dane jak np. dane teleadresowe, numery kart płatniczych, hasła, adresy mailowe.

Zagrożenia środowiska informacyjnego/ zagrożenia w sieci :

ZŁOŚLIWE OPROGRAMOWANIE

Grupy złośliwego oprogramowania:

Przed szkodliwym oprogramowaniem bronimy się w sposób:
- czynny (zastosowanie programów antywirusowych – możemy instalować bezpośrednio na PC-ie lub też stawiać firewall’e instalowane na podsieci)

Używanie antywirusów: działanie w tle lub skanowanie (co pewien czas skanuje wszystko co mamy na komputerze)

- bierny (archiwa własnych zasobów przechowywane poza komputerem –nośniki niepodłączone do komputera np. pendrive’y.

2 procedury:
♦ back up (robi się na dokumentach na których jeszcze pracujemy, służą odtworzeniu jeśli stracimy dany dokument)
♦ archiwum (dotyczy dokumentów na których już nie pracujemy, znajduje się na nośnikach niepodłączonych do sieci np. płytka)

Spyware – programy szpiegujące
Adware – ich celem jest dystrybucja reklam
a) Legalny adware - gdy zgadzamy się na ściągnięcie na nasz komputer adware’a.
b) Nielegalny adware - jest nieuzgodniony z klientem, jest ukryty, ściąga ze swojej strony dużą ilość reklam

DZIAŁANIA SOCJOTECHNICZNE (działania nakierowane na człowieka)

Phishing – wyciąganie różnych informacji od innych użytkowników sieci

Bezpieczeństwo prywatnych danych osobowych w sieci

Szyfrowanie danych w sieci:
Szyfrowanie ----transfer deszyfrowanie

PGP – Pretty Good Privacy (na tej bazie działa dziś dużo rozwiązań szyfrujących w sieci)- koncepcja szyfrowania z użyciem 2 kluczy: prywatnego i publicznego. Stanowią nierozerwalną parę.

26. Podpis elektroniczny

Podpis elektroniczny – fragment kodu komputerowego (klucz) dodany do wiadomości.; Dodanie pewnego kodu do materiału który wysyłamy.

Aby złożyć podpis trzeba mieć:
- kod (karta z chipem np. karta SD)
- urządzenie certyfikowane do składania podpisu
- certyfikat wydany przez instytucję do tego powołaną

Podpis elektroniczny należy odnawiać (kupuje się go średnio na okres jednego roku). Aby kupić podpis musimy udowodnić swoją tożsamość.

Certyfikaty:

Podpis elektroniczny gwarantuje integralność dokumentu. Gwarantuje niezmienność treści dokumentu po podpisaniu.

Podpis jest sprzedawany z dodatkową możliwością datowania czasem (określa dokładną godzinę (dokładny moment) podpisania dokumentu)

27. Jakość wyszukiwarek

Jakość jest związana z wartościowaniem. Ocena jakości jest subiektywna, zależy od człowieka i sytuacji. Taka ocena jest nie trwała (to co dzisiaj jest dobre, następnego dnia może być złe).

JAKOŚĆ (cechy produktu + cechy klienta = opinie, przekonania itp.)

Jakość:
-cechy wyszukiwarek (które każdy widzi tak samo)
-to co jest w głowie odbiorcy (każdy widzi inaczej)

Obiektywne cechy które składają się na potencjał wyszukiwarki.
Elementy na podstawie których porównuje się wyszukiwarki.: (Jest to sposób oceny wyszukiwarki)
-wielkość bazy (im baza większa tym lepiej; tym większa szansa na znalezienie potrzebnych informacji)
-możliwości konstruowania zapytania
-możliwości indywidualizowania interfejsu (zmiana języka itp.)
-narzędzia wspomagające (dialogi, podpowiedzi, sugestie poprawiania błędów literowych)

Subiektywne cechy które składają się na potencjał wyszukiwarki :
-Ocena będzie zależeć od potrzeby danej osoby – po co mu jest ta informacja [cel wyszukiwania] + elementy indywidualne [doświadczenie, oczekiwania, preferencje, umiejętności, typ osobowości]:
-Potrzeba informacyjna którą użytkownik chce zaspokoić (po co komuś jest dana informacja?)
-Zadaniowość (która wyszukiwarka da nam relewantność odpowiedzi) : na liczbę relewantnych odpowiedzi, stopień relewantności wyników, porządek zbioru wyników. )
-Kolejność wyników( każdy kolejny wynik powinien być mniej relewantny)

28. Strategia wyszukiwania informacji w Internecie (wg Batesa)

Pozyskiwanie informacji:
a) świadome (celowe) [na tym się skupiają pracownicy informacji]
b) okazjonalne (przypadkowe, „przy okazji”)

Active [Aktywny] Passive [Pasywny]
Directed [Ukierunkowany] SEARCHING / WYSZUKIWANIE MONITORING / MONITOROWANIE
Undirected [Nieukierunkowany] BROWSING / PRZEGLĄDANIE BEING AWARE / BYCIE ŚWIADOMYM

Aktywne wyszukiwanie – to my podejmujemy działania w celu pozyskania informacji (kiedy sami szukamy informacji).

Wyszukiwanie – jest wtedy kiedy jesteśmy w stanie określić cechy tego o co chcemy zapytać. ; sformułowanie zapytania i zadanie je jakiemuś narzędziu

Przeglądanie –wyszukujemy bez formułowania zapytania , ale przeglądamy zbiór w którym spodziewamy się znaleźć to czego szuka

Bierne wyszukiwanie (pasywne) – wtedy kiedy sami nie wyszukujemy; zakładamy sobie kanały, żeby informacje do nas spływały; nieukierunkowane

Monitorowanie – zachowanie bierne; „obchodzenie” swojego terytorium , przeglądanie pogody, oglądanie wiadomości sportowych; użytkownik nie oczekuje konkretnej informacji, tylko ogółów z jakiejś dziedziny

Bycie świadomym – zdolność do wychwytywania i przyswajania informacji, które są dla mnie ważne, które mogą mi się przydać. Otwartość na zintegrowanie z własną wiedza dotychczasową informacji które trafiają do nas bardzo przypadkowo.

Strategia – wybór różnych elementów zachowań, które składają się w jedną całość w danej sytuacji właściwej.

Ważna jest kolejność naszych zachowań!

Człowiek poszukując informacji w sposób bardzo dziwny i nie prosty do niej dociera. Wyszukiwanie „zbieranie jagód”. Jak człowiek który zbierając jagody kuca przy krzaczku i nie widzi innych krzaków. Jego trasa jest przypadkowa, nie jest wybierana świadomie. Kierujemy się wygodą. Podobnie wygląda droga do informacji. Celem każdego człowieka jest zaspokojenie potrzeby z którą rozpoczął wyszukiwanie. My – profesjonaliści – dążymy do wyprostowania tej ścieżki.

29. Zasady funkcjonowania Wikipedii

Wikipedia powstała w 2001 r. jako rodzaj brudnopisu dla „bardziej poważnego” projektu o nazwie „Nupedia”.

Założyciele Wikipedii: Jimmy Wales, Larry Sanger

Trzy podstawowe zasady dotyczącego tego, co można w tym projekcie umieszczać (wg Larry’ego Sangera):

  1. Weryfikowalność - zgodnie z tą zasadą w Wikipedii można umieszczać tylko takie informacje, które wcześniej zostały opublikowane w wiarygodnych źródłach. Zasada ta w praktyce działa w ten sposób, że jeśli jeden z edytorów uzna, że jakieś informacje podane w haśle są wątpliwe, może je odpowiednio oznakować i zażądać od autora podania ich źródła. Jeśli ten nie potrafi podać takiego źródła – kwestionowany fragment tekstu można usunąć.

  2. Zakaz twórczości własnej (no original research) – zasada ta zabrania dodawania do Wikipedii treści stanowiących bezpośrednio efekt własnych badań, obserwacji czy przemyśleń. Nie można też umieszczać informacji podanych w publikacjach własnego autorstwa i wydanych własnym sumptem, np. we własnym blogu czy książce wydanej w małym nakładzie na własny koszt. Chroni to Wikipedię przed tworzeniem haseł przez różnego rodzaju domorosłych wynalazców, pseudonaukowców i historyków-amatorów, tworzących własne wersje wydarzeń.

  3. Neutralny punkt widzenia – zasada ta głosi, że artykuły w Wikipedii nie powinny być pisane z subiektywnego punktu widzenia ich autorów, lecz że powinny zawierać wszystkie ważniejsze fakty na dany temat bez ich bezpośredniego oceniania. Jeśli istnieje konieczność opisania w haśle opinii, muszą one być jednoznacznie przypisane do określonego autorytetu, który je wypowiedział. Zasada ta jest szczególnie ważna przy tematach, które z natury są kontrowersyjne i wokół których toczy się gorąca debata społeczna (np. aborcja). Należy powstrzymać się od komentarza odautorskiego, stawiającego kropkę nad „i” i pozostawić ocenę argumentów czytelnikowi. Wyżej opisane zasady są rodzajem ideału, do którego w ramach Wikipedii się dąży. Nie znaczy to jednak, że wszystkie artykuły zawarte w tym projekcie są zawsze w pełni weryfikowalne i neutralne. Zasady te stanowią jednak podstawę rozstrzygania sporów edycyjnych.

Mechanizmy programowe wspierające wzajemną kontrolę edytorów - dzięki temu, że każdy artykuł może w każdej chwili edytować każdy – błędy popełnione przez jedną osobę mogą być szybko poprawione przez kolejną. Ten mechanizm ciągłej, wzajemnej kontroli zastępuje w Wikipedii pracę wykonywaną w profesjonalnych wydawnictwach przez rady redakcyjne, edytorów i korektorów.

Jednak zasady te byłyby martwe, gdyby oprogramowanie Wikipedii nie posiadało mechanizmów wspierających obserwowanie i sprawdzanie tego, co piszą twórcy Wikipedii.

Co widzimy ‘wewnątrz’ wikipedii :

Podstawowym mechanizmem wzajemnej kontroli jest historia hasła. Przy każdym artykule w Wikipedii jest zakładka „Historia i autorzy”. W zakładce tej znajduje się lista zawierająca chronologicznie ułożony spis wszystkich kolejnych edycji tego hasła zawierający informację, kiedy została dokonana oraz przez kogo. Oprogramowanie przechowuje każdą kolejną wersję artykułu, nawet jeśli dana edycja polegała na dodaniu jednego przecinka. Klikając w link przy opisie danej licencji, można zobaczyć, jak wyglądało hasło w danym momencie. Stare wersje artykułu są w pełni edytowalne, dzięki czemu można łatwo przywrócić starszą wersję, jeśli kolejne edycje były sprzeczne z zasadami Wikipedii. Ponadto, zaznaczając dwie dowolnie wybrane wersje artykułu, można wywołać stronę, w której przedstawione są zaznaczone różnymi kolorami różnice między nimi. Ułatwia to – zwłaszcza przy obszernych artykułach – zorientowanie się, co konkretnie zmieniono w określonej edycji.

Wszystkie ostatnio wykonane edycje we wszystkich hasłach w Wikipedii można przejrzeć za pomocą specjalnej strony o nazwie „Ostatnie zmiany”. Strona specjalna „Wkład użytkownika” umożliwia z kolei prześledzenie wszystkich jego edycji. Jest to przydatne w sytuacji, gdy dochodzimy do wniosku, że któryś z edytorów stale i notorycznie łamał jakąś z zasad. Można wtedy za pomocą tej strony cofnąć wszystkie lub część jego edycji.

Każdy zalogowany edytor Wikipedii może też utworzyć własną listę artykułów obserwowanych i następnie wygenerować listę ostatnich zmian ograniczoną tylko do tych wybranych artykułów. Stosunkowo niedawno wprowadzonym mechanizmem są tzw. wersje przejrzane artykułów. Edytorzy o odpowiednim stażu i liczbie edycji dostają uprawnienia tzw. redaktora, które pozwalają oznaczać określone wersje artykułów jako przejrzane. Jeśli artykuł ma wersję przejrzaną, czytelnikowi Wikipedii wyświetlana jest właśnie ta wersja, nawet wówczas, kiedy istnieją kolejne, dzięki czemu nie będzie musiał on czytać wersji, która być może została akurat uszkodzona przez początkującego edytora lub celowo zwandalizowana.

Wojna edycyjna - jest to sytuacja, gdy dwóch lub więcej edytorów, korzystając z mechanizmu historii hasła, na zmianę przywraca swoją wersję tego hasła, uważając, że jest właściwsza od pozostałych. Wojna edycyjna zazwyczaj, choć nie zawsze, prowadzi do pogorszenia jakości artykułu. Istnieje wiele metod polubownego rozwiązywania tego rodzaju konfliktów:

  1. bezpośrednia dyskusja między toczącymi „wojnę”. Dyskusję tę można prowadzić na stronie dyskusyjnej kontrowersyjnego artykułu. Każde hasło w Wikipedii ma bowiem zakładkę „Dyskusja”, która prowadzi do odpowiedniej podstrony przypisanej do hasła, gdzie można toczyć dyskusje na jego temat.

  2. Gdy dyskusja nie prowadzi do kompromisu, można poprosić dowolnego wikipedystę o mediacje.

  3. Gdy mediacja nie przynosi efektu, dyskusję przenosi się zwykle na szersze forum – do tzw. kawiarenki (jest to specjalna strona do dyskusji ogólnych) lub na mailową listę dyskusyjną.

  4. Gdy to wszystko nie pomaga, można w ostatniej instancji zgłosić konflikt do rozstrzygnięcia przez wybierany przez całą społeczność 10-osobowy Komitet Arbitrażowy.

W trakcie trwania ostrego konfliktu administratorzy Wikipedii (którzy są również wybierani przez społeczność i odróżniają się od zwykłych edytorów tylko tym, że mają dostęp do kilku dodatkowych funkcji) mogą czasowo zablokować artykuł będący przedmiotem sporu przed edycją lub zablokować możliwość edytowania jednemu lub kilku skłóconym ze sobą wikipedystom. Tego rodzaju artykuły są zwykle opatrywane specjalnymi szablonami ostrzegającymi czytelników, że z hasłem jest coś nie tak.

Najczęściej stosowane tego rodzaju szablony to:
- „kontrowersja” (ostrzegający, że wokół artykułu toczy się obecnie wojna edycyjna)
- „brak źródeł” (wzywający do uzupełniania źródeł podanych informacji)
- „POV” (ostrzegający, że artykuł nie spełnia zasady neutralnego punktu widzenia).

Hasła oznaczone takimi szablonami nie zawsze są całkowicie bezwartościowe – trzeba jednak czytać je ze wzmożoną czujnością.

Są pewne granice tego, co Wikipedia może zawierać. Granice te są ustalane w procesie dyskusji nad tym, czy określony artykuł jako całość jest encyklopedyczny, tzn. czy omawia zagadnienia, które powinny znaleźć się w Wikipedii, czy też hasło należy usunąć. Konflikt ten jest rozwiązywany w formie dyskusji-głosowania, co zastępuje w pewnym sensie radę redakcyjną w zwykłych encyklopediach, ustalającą docelowy spis jej haseł. Głosowanie to może rozpocząć każdy edytor w stosunku do każdego artykułu, umieszczając w nim szablon informujący o rozpoczęciu debaty nad usunięciem, a następnie wstawiając hasło na specjalną stronę, na której odbywa się dyskusja i głosowanie. Gdy większość głosujących uzna, że hasło należy usunąć, jeden z administratorów wykonuje tę czynność, gdy większość uzna, że hasło ma pozostać, nikt nie może go od tej pory usunąć. W tej chwili w polskiej Wikipedii trwa stopniowa reforma tego systemu, mająca zmienić go z głosowań większościowych na dyskusje bardziej merytoryczne, dążące do uzyskania konsensusu.

Oprócz ogólnych narzędzi pracy społeczność Wikipedii wypracowała wiele dodatkowych metod kontroli i poprawy jakości artykułów. Zalicza się do nich m.in.:

Wikiprojekty – składają się z grupy wikipedystów zorganizowanych wokół wspólnych zadań lub zainteresowań. Wikiprojekty przyjmują formę strony, na której znajduje się lista jego uczestników oraz opis celów i zadań, a także miejsce na toczenie dyskusji.

Dobre artykuły i artykuły na medal – jest to system nadawania odpowiednich „odznaczeń” dla szczególnie dobrych haseł w Wikipedii.

Czasowe projekty celowe – są to inicjatywy związane z poprawą jakości tekstów nakierowane na rozwiązanie jednego, często powtarzającego się problemu w Wikipedii. Organizowane są w formie akcji i swoistych konkursów, w których występuje rywalizacja, kto więcej i szybciej zrobi coś dobrego w ramach danej akcji.

Logo Wikipedii w postaci niedokończonej kuli ziemskiej wykonanej z klocków przypominających puzzle. Puzzle – ziemia – jest z jednej strony wiecznie niedokończona, ale z drugiej strony też wiecznie otwarta. Logo symbolizuje zatem, z jednej strony, fakt ciągłego procesu tworzenia, któremu daleko do doskonałości, a z drugiej, otwartości – rodzaj zaproszenia do dołożenia własnego kawałka układanki, który domknie choć trochę (ale prawie na pewno nie do końca) budowanie największej na świecie, wielojęzycznej, międzynarodowej encyklopedii świata, której istnienie codziennie przeczy poglądom, że ludzie są skłonni działać wyłącznie we własnym interesie i nie interesuje ich dobro wspólne.


Wyszukiwarka

Podobne podstrony:
egzamin interna - pytania testowe, Interna
sbd-egz-edu2007, Egzamin sbd Jacka, System do przeprowadzania egzaminów w internecie - Moduł student
sbd-egz-edu2007, Egzamin sbd MackaR, System do przeprowadzania egzaminów w internecie - Moduł autora
PYTANIA EGZAMIN INTERNA, wet, Interna(2)
Egzamin z interny, Ratownicto Medyczne, choroby wewnętrzne
Egzamin z interny 13.06.2007, Egzamin z interny 13
zagadnienia EGZAMIN interna 2015, studia pielęgniarstwo, pediatria
Małopolski Komendant Wojewódzki Policji, Najnowsze testy egzaminacyjne z internetu
Egzamin z interny (1), Egzamin z interny, 30 V 2007
Przebieg egzaminu na Licencję Pracownika Ochrony Fizycznej I, Najnowsze testy egzaminacyjne z intern
Egzamin INTERNA (3)
Egzamin interna
Egzamin interna test 10
EGZAMIN Z INTERNY 14.06.2008, EGZAMIN Z INTERNY 14
sbd-egz-edu2007, Egzamin sbd Daniela, System do przeprowadzania egzaminów w internecie - Moduł stude
dodatek do egzaminu z interny
Egzamin Internet id 152310 Nieznany
Zagadnienia na egzamin z interny, Interna

więcej podobnych podstron