INTERNET JAKO ŚRODOWISKO INFORMACJI - WYKŁAD:
DR REMIGIUSZ SAPA
Zakres tematyczny wykładów:
Środowisko
historia
Web 2.0 - druga rewolucja w środowisku informacyjnym Internetu
zasoby i usługi w Internecie - wielkość i różnorodność, zasoby widzialne i niewidzialne
użytkownicy i wykorzystanie zasobów w Internecie
język Internetu
Wyszukiwanie - typologia narzędzi wyszukiwawczych informacji w Internecie
wyszukiwarki
katalogi
serwisy tematyczne
indeksowanie, katalogowanie
Nauka w Internecie
Ocena
ocena wyszukiwawczych stron i serwisów WWW dla celów selekcji. Wiarygodność jako kryterium podstawowe.
Ocena jakości i przydatności narzędzi wyszukiwania informacji
Strategia - jak efektownie zachowywać się w sieci
Bezpieczeństwo
Egzamin [pisemny w formie testu] obejmuje wykład, ćwiczenia i literaturę obowiązkową.
Literatura obowiązkowa:
Dworniczak, Mirosław (2006). Domenowe ABC. Wszystko, czego chciałbyś się dowiedzieć o domenach, ale nie masz kogo spytać. Magazyn Internet nr 5, s. 24-31.
Grzenkowicz, Krystian (2005). Pożegnanie z telefonem? Magazyn Internet nr 1, s. 52-56.
lub Rafa, Jarosław (2005). Tanie telefonowanie. Telefonia internetowa bez tajemnic. Magazyn Internet nr 12, s. 30-45.
Kopiciński, Arkadiusz (2004). RSS: świeżutkie aktualności prosto na pulpit. Magazyn Internet nr 8, s. 73-75.
Kornacki, Mateusz (2006). Aukcje internetowe od podstaw. Serwisy aukcyjne w Polsce. Magazyn Internet nr 6, s. 24-28.
Skórka, Stanisław (2002). Nawigacja jako strategia wyszukiwawcza w hierarchicznym systemie hipermedialnym. http://www.zsi.pwr.wroc.pl/zsi/missi2002/pdf/s502.pdf
Zimnicki, Michał (2005). Wszystkie drogi prowadzą do Sieci. Technologie dostępowe. Magazyn Internet nr 3, s. 32-38.
Temat 1: Czym jest Internet? Po co i skąd się wziął? 02.10.2007 r.
Internet - jest to globalna sieć komputerowa oparta na protokole komunikacyjnym TCP/IP; sieć, która zawiera różne podsieci; żeby sieć mogła funkcjonować, wszystkie komputery w tej sieci muszą posługiwać się jednym językiem: TCP/IP; środowisko informacyjne współczesnego człowieka.
Historia Internetu:
Powstanie: od lat '50 XX wieku do roku 1989;
1962 r. - Paul Baron opublikował raport o rozproszonej komunikacji w sieci, każdy węzeł ma podobną funkcję w sieci;
komunikacja pakietowa:
informacja podzielona na pakiety;
każdy pakiet posiada swój numer (informację o kolejności) i zna adres, pod który ma dotrzeć;
podczas drogi pakietów mogą tworzyć się tak zwane miejsca buforowe, czyli kolejki, korki w sieci;
każdy pakiet ma swój adres IP;
ten system adresowania jest wspólny dla całej sieci;
zasady dzielenia pakietów zależą od TCP
jest to pomysł z lat '60.
Pierwsza sieć została uruchomiona w 1969 roku w USA na potrzeby wojska ARPA NET (Agencja do zaawansowanych przedsięwzięć badawczych);
1973 r. - Internet „wychodzi” z USA:
pierwsze połączenie: USA - Wielka Brytania;
cały czas korzystają tylko: wojsko + naukowcy;
lata '70 - powstanie i pojawienie się usług typu e-mail, telnet;
1974 r. - powstanie telnet-u;
1975 r. - wysłanie e-maila przez królową brytyjską;
pierwsza lista mailingowa;
1975 r. - listy dyskusyjne;
1979 r. - grupy dyskusyjne;
lata '80 (`82/'83) - odejście wojska od Internetu, staje się on samodzielny, cywilny;
wojskowy staje się MILNET;
1989 r. - 100 000 serwerów;
Temat 2: Historia - ciąg dalszy. 09.10.2007 r.
przełom lat '80 i '90 - okres pierwszej rewolucji w Internecie:
stworzenie podstaw dokumentu hipertekstowego (1989 r. Tims Berners Lee) - dzisiejsze WWW;
wpuszczenie biznesu do sieci (1991 r.);
1993 r. - wyprodukowanie i wypuszczenie na rynek pierwszej przeglądarki internetowej - MOZAIK;
1995 r. - powstaje INTERNET EXPLORER i NETSKEIP (nowe wyszukiwarki);
od 1995 r. Internet jest łatwy i graficzny - taki jak dzisiaj, koniec trudnej warstwy technologicznej;
dynamiczny rozwój do 2001/2002 roku, potem następuje kryzys, dużo firm bankrutuje;
od 2003 r. w sieci jest miejsce raczej dla dużych projektów, mniejsze mają znacznie trudniej, jest to czas profesjonalizmu i sporej konkurencji (spokojny, ale szybki rozwój).
Polska w sieci:
do 1990 r. embargo technologiczne zabraniający sprzedaży Polsce wysokich technologii (1990 -zniesienie);
od 1990 r. do Polski zaczęły napływać nowe technologie;
od 1992 r. ma miejsce połączenie Polski z siecią europejską, połączenie z Internetem rozwijało się dwutorowo:
Naczelna Akademicka Sieć Komunikacyjna (?) (NASK);
Tp SA.
W połowie lat '90 pojawiają się portale (w Polsce na przełomie tysiącleci);
ok. 2001-2002 r. pojawia się Web 2.0 - określenie nowego charakteru zasobów informacyjnych; podstawową rolę w nich ma pełnić użytkownik; współtworzenie serwisu przez użytkowników i nadawców, powstają nowe społeczności.
Web 2.0:
nacisk położony na współtworzenie, współkierowanie:
Blogi;
Bookmarking and Tagging;
Collaboration and Productivity;
RSS;
Wikids (np. Wikipedia);
SMS/ Instant Messaging (IM);
Social Sharing;
Audio / video;
Gaming / virtual Reality (gry sieciowe).
Volksonomia - sposób na masowe opisywanie zbiorów, katalogowanie Internetu.
ZASOBY INTERNETU:
nie da się policzyć stron WWW, zasobów - ciągle powstają nowe, inne są zamykane;
zasoby mogą być:
widoczne (widzialne) - są wyszukiwane przez wyszukiwarki;
niewidoczne (niewidzialne) - nie widać ich w wyszukiwarkach, zasoby te są znacznie większe od zasobów znajdywanych przez wyszukiwarki;
1998 r. - 2 mln stron
1999 r. - 4 mln
2000 r. - 7 mln
2001 r. - 8 mln
2002 r. - 9 mln
rząd wielkości poszczególnych stron ok. 140 000 000
Temat 3: Użytkownicy Internetu. 16.10.2007 r.
Użytkownicy Internetu:
miliony internautów:
Azja - 437 mln
Europa - 372 mln
Ameryka Północna - 233 mln
Ameryka Łacińska - 110 mln
Afryka - 54 mln
Bliski Wschód - 20 mln
Australia i Oceania - 19 mln
Europa:
40 % Europejczyków korzysta z Internetu;
30 % Polaków, to użytkownicy Internetu;
86 % Islandczyków korzysta z Internetu:
duży procent (ok. 70%-80%), to użytkownicy krajów skandynawskich;
do średniaków (60%) należą: Wielka Brytania, Monako, Włochy;
dynamika wzrostu w Polsce - 300%.
Ruch w sieci:
największy ruch:
USA - 85
Azja - 67
Australia - 59
Europa - 69
Ameryka Południowa - 56
Internauci:
poszukiwacze informacji (1);
ci, którzy ściągają coś z sieci (2);
ci, którzy przez Internet też coś wysyłają (3);
dokonują konkretnych operacji, dokonują przelewów przez sieć (4);
najmniej liczni - 4
potem 3, 2, 1.
Co kupują w sieci ci, co kupują cokolwiek:
książki, muzykę, filmy
ubrania, modę,
sprzęt elektroniczny, sprzęt komputerowy,
wakacje,
jedzenie,
akcje, obligacje,
meble,
biżuterię,
samochody.
środowisko cyfrowe jest łatwe do inwigilacji, do kontroli,
poczucie bezpieczeństwa w sieci;
przed kilkoma laty Internet uważany był za niebezpieczny dla transakcji finansowych.
Schorzenia internautów:
fobia społeczna;
depresja;
zespół deficytu uwagi;
skrajne zachowania schizoidalne;
itd. itp.
Lektury :
Gomuła Jerzy, Pytkowska Krystyna (2005) Zaczatowani, wyd. Santorski and CO
Tadeusiewicz Ryszard (2002) Społeczeństwo Internetu, Warszawa, Akademicka Oficyna Wydawnicza Exit
Internet. Fenomen społeczeństwa informacyjnego, Częstochowa, Edycja św. Pawła, 2001
Grzenia Jan (2006) Komunikacja j językowa w Internecie, Warszawa, wyd. PWN.
Ograniczenia dostępu do sieci:
- bariera techniczna (komputer, oprogramowanie, kabel);
- bariera ekonomiczna (koszty);
- bariery intelektualne (wiedza i umiejętności).
Długosz Joanna (2003) Społeczeństwo informacyjne a wykluczeni. Zadania edukacji i polityki społecznej. Potencjalny udział bibliotek. Biuletyn EBIB nr 7. (http://ebib.oss.wroc.pl/2003/47/dlugosz.php)
W3C World Wide Web organizacje
Internet Society
IRC - rozmowy czatowe, w czasie rzeczywistym;
Lata '90 - formułowanie kodeksów zachowań uczestników Internetu (netykieta - zbiór zasad tworzony przez ludzi, obowiązujących w grupach dyskusyjnych, czatach, itp.);
SPAM - śmieci internetowe, niechciane wiadomości, materiały sieciowe;
Wyszukiwanie:
Wyszukiwarki (narzędzia automatyczne);
Katalogi (rzecz tworzona przez człowieka);
Serwisy tematyczne o kontrolowanej jakości.
KATALOGI:
- w latach '90 w ludziach zaczęła budzić się chęć uporządkowania Internetu, zaowocowało to tworzeniem katalogów globalnych;
- pierwowzorem wszystkich katalogów był katalog YAHOO!
- zasada drzewa hierarchicznego;
- pod koniec lat '90 z katalogów korzystało 20 % użytkowników, 20% wyszukiwań odbywało się w katalogach;
Clusty - wyszukiwarka grupująca znalezione strony w różne typy;
Vivisimo - wyszukiwarka jak wyżej;
BUBL - serwis informacyjny; stosuje 10-tną klasyfikację Dueya - nadawanie zagadnieniom hierarchicznych kodów liczbowych;
Barbara Sosińska-Kalata Struktury organizacji wiedzy, piśmiennictwa i zasobów informacyjnych, Warszawa, wyd. SBP, 2002.
SERWISY TEMATCZNE O KONTROLOWANEJ JAKOŚCI:
- mają charakter wąski, ale głęboki, dużo na jeden temat;
- zdolność do integracji zasobów widocznych i niewidocznych;
- istnieją kryteria pozwalające dokonać selekcji;
- wąska tematyka, orientacja na jeden zakres tematyczny.
INTUTE - serwis tematyczny dla studentów i naukowców;
INFOMINE - naukowy serwis tematyczny;
Derfert - Wolf Lidia Serwisy tematyczne o kontrolowanej jakości w Internecie - subject gatweys
Temat 4: Wyszukiwarki. 30.10.2007r.
wyszukiwarka internetowa - program, którego zadaniem jest ułatwienie użytkownikom Internetu znalezienie informacji w sieci.
Wyszukiwarka realizuje cztery podstawowe funkcje:
program indeksujący (szperacz) - program, który wędruje po sieci i indeksuje strony. Indeksuje czyli tworzy indeks, bazę danych.
bazy danych;
interfejs;
algorytm rankingowy - decyduje o kolejności zbioru wyników.
1.11 szperacz 1. PL baza danych bigos dużo wyników
1.11 szperacz 1. BR baza danych bigos mało lub w ogóle
1.11 szperacz 1. globalna 15.05 bigos dużo
05.05.08r. szperacz 1. globalna 15.05 bigos bardzo mało
W Polsce Google - ok. 90% wyszukiwań
Drugi Onet.pl - 5 % wyszukiwań
thrumbshots.com - porównuje wyszukiwarki
Temat 5: Algorytm rankingowy wyszukiwarek. 06.11.2007 r.
Kryteria zależne od słów użytych do zapytania:
miejsce występowania słów z zapytania na stronie WWW lub w dokumencie;
częstotliwość ich wystąpienia;
odległość między tymi słowami.
Ad. a)
Informacje o stronie, które się nie pojawiają, nie wyświetlają, np. tytuł strony czy inf. o czym ona jest; title, descriptier (opis), keywords (słowa kluczowe)
- nie wszystkie strony mają HEADy
Strona WWW, dokument html
Ad. b) Ad. c)
Odległość między słowami zapytania może mieć istotną rolę w procesie wyszukiwania.
Kryteria niezależne od zapytania:
„Link linkowi nie równy.”
ważna jest nie tylko liczba linków do nas prowadzących, ale i ich jakość;
strona świetna merytorycznie, ale wypromowana dostanie „mało punktów” od wyszukiwarki, będzie się znajdować daleko lub w ogóle na liście wyników wyszukiwania;
weryfikacja podobieństwa na podstawie występujących słów zapobiega manipulacjom;
liczba i rodzaj linków;
zachowanie użytkownika, który widzi listę wyników;
www1. 1 s. 2.
www2. 30 min => 4.
www3. - 1.
te rzeczy brane są pod uwagę w statystyce;
algorytm rankingowy jest stosowany w wyszukiwarkach, aby uporządkować wyniki wyszukiwania zgodnie z ich relewancją - zgodnie z zapytaniem, zgodnością do zaspokojenia naszej potrzeby informacyjnej, np. Madonna (MB) i Madonna (piosenkarka).
relewancja - zgodność z zapytaniem;
pertynencja - zdolność do zaspokojenia naszej potrzeby informacji;
Ptint, nr 1, rok 2000, str. 13 - 18, Algorytm rankingowy…
Temat 6: Nauka w Internecie. 13.11.2007 r.
mała różnica czasowa między publikacją w czasopiśmie i w Internecie;
w Internecie zanik wersji finalnej artykułu naukowego;
preprinty - materiały jeszcze nie publikowane, nieraz jeszcze nie recenzowane;
postprinty - materiały już opublikowane
e-printy - post- i preprinty
nie bardzo wiadomo jak opisywać te pozycje, gdyż wiele wersji tego samego artykułu, tego samego tekstu;
można pokazać światu od razu co się stworzyło (archiwa e-printów);
artykuły oczekujące na wydanie mogą być dostępne w repozytoriach w Internecie, szybszy dostęp do materiałów naukowych;
e-printy można stale modyfikować, uzupełniać;
OPEN ACCESS - wolny dostęp
zakładanie czasopism całkowicie bezpłatnych (złota droga);
Green - zielona droga - samoarchiwizacja, archiwa dyscyplin, repozytoria uczelniane, strony www naukowców;
Polityka wydawców:
wydawca zielony - pozwala na dostęp do pre- i postprintów publikowanych w sieci za darmo;
wydawca niebieski - tylko postprinty;
wydawca żółty - tylko preprinty;
wydawca biały - nie pozwala na nic;
nie ma jednego miejsca w sieci, w którym znalazły by się wszystkie e-printy;
OPEN DOAR - katalog Open Access
Ad. 1.
mamy ogromną liczbę czasopism w Internecie;
dostęp do nich jest utrudniony;
Internet zmienia charakter periodyku;
Internet może zmieniać postać czasopism, może ją wyeliminować.
Temat 7: Wyszukiwarki specjalistyczne. 20.11.2007 r.
Niedźwiecka Barbara http://ebib.oss.wroc.pl/2005/63
SPECJALIZACJE
pewne określone rodzaje plików: 2. ze względu na treść:
grafika; - historia;
muzyka; - medycyna;
film;
Ad.1
wyszukiwarki multimedialne;
skupiają się na wyszukiwaniu grafiki, dźwięku, filmu;
rozpoznają wyrazy jako kody, ale nie rozpoznają ich treści, znaczenia;
Zazwyczaj dwa sposoby wyszukiwania wykorzystywane są w zakresie wyszukiwania tekstowego;
interpretowanie konkretu słownego pliku (tekst wokół obrazka, metadane)
coraz częściej próbuje się wprowadzić narzędzia rozpoznające fragmenty tekstu, np. dialogu z filmu;
everyzing.com - narzędzie, które rozpoznaje fragmenty tekstu z filmów, wyszukiwarka;
blinkx - podobny mechanizm, tu jednak nie jest on tak wyraźnie widoczny;
podstawę nadal stanowi kontekst słowny poszukiwanego obiektu;
Ad. 2.
dajemy wyszukiwarce listę adresów, które szperacz regularnie odwiedza i indeksuje wartościowe strony;
póki co analizy treści w sieci zatrzymują się na poziomie syntaktycznym, wyszukiwarka widzi kody liter, ale nie rozumie ich treści;
aby wyspecjalizować wyszukiwarkę możemy wbudować jej pewien tezaurus, zbiór słów znaczących dla danej dziedziny - nie do końca wiemy, co wyszukiwarka nam odrzuci, a co nie, dokładność może być słaba;
Google Scholar;
Przypisy;
Strategia kuli śnieżnej - bierzemy artykuł, książkę, która ma listę przypisów;
Jeśli publikacja jest w postaci cyfrowej i jest dobrze opracowana, znaczy, że przypisy są aktywnymi linkami, po których możemy się poruszać, wtedy mamy do czynienia z bardzo materiałem źródłowym;
ISI - Instytut Informacji w Filadelfii publikujący bazy danych ze słowem przypis, poszykuje wg przypisów a nie haseł;
Te możliwości wykorzystywane są w wyszukiwarkach naukowych;
Większość e-printów nie ma haseł przedmiotowych, nikt ich nie opracowuje, dlatego nie odnajdziemy ich wg haseł;
Dla naukowców jest niezwykle ważne by być cytowanym przez co są „więcej warci”, wyżej umieszczani w wynikach wyszukiwania;
Temat 8: Nauka w sieci - ciąg dalszy. 27.11.2007 r.
1. Oaister - www.oaister.com
większość archiwów jest dostępna dla wszystkich i za darmo;
z repozytoriami bywa gorzej, dostęp jest ograniczony;
repozytoria prac magisterskich i doktorskich - zawierają prace niepublikowane;
wyszukiwarka pozwalająca z jednego wejścia przeszukiwać kilka repozytoriów i archiwów;
większość archiwów i repozytoriów stosuje jeden standard opisów, meta danych, a także jeden protokół techniczny - OA Protokol;
najsprawniejsza do tej pory wyszukiwarka repozytoriów i archiwów, prawie 1000 repozytoriów i archiwów;
pytania muszą być konkretne, rozsądne, baza jest bowiem ogromna;
dobrze wyszukuje się publikacje tych, którzy umieszczają swoje publikacje w repozytoriach, archiwach;
Google Scholar:
wyszukuje wszędzie, nie tylko w repozytoriach i archiwach;
ma osobną wyszukiwarkę książek;
Serwisy społecznościowe:
You Tube (serwis z filmikami);
Slideshare (www.slideshare.net)
baza prezentacji Power point;
można znaleźć prezentacje naukowe;
Digital schoolarship:
materiały, które można odtwarzać jedynie cyfrowo, nie da się tego wydrukować;
twory o charakterze edukacyjnym, recenzowane;
BBC History:
materiały naukowe;
także dla dzieci;
Mummy Maker (dla dzieci);
Blogi:
zasoby nierecenzowane;
pewna forma uzupełniania pracy naukowej, rozmowa z naukowcem, dyskusja;
27.11.2007 r.
Temat 9: Jakość informacji, ocena wyszukiwanych informacji, problem jakości zasobów Internetu.
Jakość - zgodność z wzorcem; zadowolenie, satysfakcja klienta; sposób myślenia o towarze; przydatność.
trudno powiedzieć w sieci, że zasoby są dobre albo złe, wszystko jest subiektywne i zależy od danej chwili i danej potrzeby;
kryterium przydatności wynika z subiektywnych potrzeb;
wiarygodność - w dużym stopniu leży po stronie tego, który informację dostarcza, musimy szukać źródeł wiarygodnych;
autorstwo przekazu;
cel autorów;
Temat 10: Jakość wyszukiwarek. 11.12.2007 r.
Choroś Kazimierz (2002) [dok. el.] Efektywność wyszukiwarek internetowych; http://www.zsi.pwa.wroc.pl/zsi/missi2002/pdf/s108/pdf[7/choros]
Sapa Remigiusz (2005) [dok. el.] Wyszukiwanie elektronicznych artefaktów obiektów kultury i Internecie, [w] Kocójowa Maria (red.) Informacja obiektów kultury w Internecie, Kraków: Wyd. UJ, s. 45-52.
CECHY OBIEKTYWNE |
CECHY SUBIEKTYWNE |
1. wielkość bazy danych; |
1. precyzja a kompletność - możemy jedynie porównywać narzędzia, nie znamy bowiem pełnej zawartości sieci; |
2. możliwość konstruowania zapytania, instrukcji wyszukiwawczej; |
2. liczba wyszukanych relewantnych obiektów (!) |
3. możliwość indywidualizacji interfejsu; |
3. stopień relewantności zbioru wyników (precyzja) (!) |
4. obecność elementów dialogu w interfejsie; |
4. sprawność algorytmu rankingowego (im dalej tym gorzej) (!) |
nadmiar też dobry nie jest;
dzisiaj wyszukiwarki bardziej stawiają na precyzję niż na kompletność;
to, czy strona jest dobra, trafna jest bardzo ciężko stwierdzić, ocenić wyszukiwarce podczas wyszukiwania, ocenić czy dana strona jest czy nie jest na dany temat;
Temat 11: Strategie wyszukiwawcze w Internecie (wyszukiwanie informacji). 11.12.2007 r.
zachowanie aktywne zachowanie pasywne
ukierunkowane
nieukierunkowane
przeglądanie może też dotyczyć informacji o informacji (browning);
bycie świadomym jest bardziej pasywne od monitoringu;
nie jesteśmy w stanie wyłączyć się ze świata informacji;
deprywacja - odcięcie się od bodźców - może prowadzić do fiksacji;
przypadkowe pozyskiwanie informacji (nie szukałem a znalazłem);
przypadek:
rola niespodziewanych odkryć w nauce;
myślenie kreatywne;
równoległość procesów zachodzących przy okazji poszukiwania informacji;
odgrywa niezwykle ważną rolę;
przypadkowo, czyli jak?
poszukujący wie dokładnie czego i gdzie szukać, ale to czy i ile informacji znajdzie nie do końca zależy od jego działań (przypadek grzybiarza);
pozyskiwanie informacji w efekcie działań, których bezpośrednim celem nie było zdobywanie żadnych konkretnych informacji (gotowość do absorpcji);
pozyskiwanie informacji w wyniku jej świadomego poszukiwania, ale przy nieprecyzyjnym zapytaniu, zdefiniowaniu cech poszukiwanej informacji (szczęśliwy traf);
pozyskiwanie informacji w wyniku działania, którego celem było świadome i celowe poszukiwanie innych informacji (napotykanie informacji);
wyznacznikiem przypadkowości jest brak celowego dążenia;
wyszukiwarka może wyszukiwać tylko wg jednej potrzeby, człowiek mimowolnie znajduje ich wiele;
Temat 12: Zagadnienia do egzaminu. 18.12.2007 r.
wymagane bardzo precyzyjne odpowiedzi;
umiejętność selekcji wiedzy
ok. 25 pytań / 1 godz.
Zagadnienia:
użytkownicy Internetu, rozpoznanie skali, rzędu, użytkownicy w Polsce, Europie, na świecie, procent, jednostka;
zasoby niewidoczne, co to? skąd? jak wyszukiwać i gdzie?
co to jest wyszukiwarka? elementy funkcjonalne, od czego i jak zależy wyszukiwanie, jakie są najczęściej używane wyszukiwarki w Polsce, ile wyszukiwań się wykonuje, skala problemu;
historia Internetu, refleksje, rozumienie historii, skąd się wziął dzisiejszy Internet, najistotniejsze zmiany;
Web 2.0 - co wnosi, idea, koncepcja, serwisy społecznościowe, różnorodność serwisów;
logika Bula, zbiory, koniunkcja, alternatywa;
konstrukcja zapytania wyszukiwawczego, hipotetycznie, standardowe komendy i operatory, tworzenie instrukcji (+, -, `', title, domain, url, link), napisać wyrażenia wyszukiwawcze;
czym jest koniunkcja i alternatywa w wyszukiwarkach, co z tego wynika;
algorytm rankingowy, co może mieć wpływ na kolejność wyników;
serwisy tematyczne o kontrolowanej jakości, czym jest serwis, czym różni się od wyszukiwarki, katalogów, zalety, plusy, minusy, przykłady, serwisy dotyczące INIB, polskie serwisy (EBIB), INTUTE;
literatura obowiązkowa: telefonia internetowa, jakie wersje, możliwości, warunki działania;
wyszukiwarki multimedialne, graficzne, jak wygląda spis wyników, przykłady, czym różnią się od globalnych, jak to się dzieje, że znajdują obrazki, cechy specyficzne interfejsu, ustawienia wyszukiwania;
wyszukiwarki newsowe;
wyszukiwarki filmów;
nauka w sieci, różnice między tym co darmowe a co komercyjne, idea Open Access, drogi dostępu, skąd biorą się artykuły w sieci, złota i zielona droga, gdzie szukać komercyjnych
zasobów, archiwa, repozytoria, Oaister (wyszukuje w archiwach i repozytoriach wg idei OA, 1000 archiwów i repozytoriów sprawna wyszukiwarka, w większości darmowy dostęp do e-printów, trochę lepszy od Scholara), preprint, postprinty - co wynika z ich dostępu (wiele wersji jednego artykułu);
znajomość archiwów INIBu: E-LIS - działanie, Delist;
serwisy dostarczające informacji, gdzie w sieci znajdują się listy darmowych czasopism naukowych (Romeo, Sherpa);
zadania problemowe w podziale na kroki;
RSS - co to, jak działa, po co, jak z tego korzystać, funkcje, charakter;
Listy i grupy dyskusyjne, do czego się przydają;
Nazwy domenowe - czym są, struktura;
aukcje internetowe, jak to działa, jak działa system płatności, zabezpieczenia, itp. Skala obrotów;
technologia dostępu do sieci, technologia DNS, inne formy dostępu;
semantyczny Internet;
podpis elektroniczny;
bezpieczeństwo w sieci, wirusy, konie trojańskie, jak się przed tym bronić, skąd czerpać o nich informacje;
strategie wyszukiwawcze;
jakość, jak to rozumieć, obszary oceny, co i kiedy oceniać;
Temat 13: Strategie. 18.12.2007 r.
Model Belkina:
4 podstawowe wymiary, w których dokonywać się analiza informacji:
wymiar sposobu;
wymiar celu;
wymiar trybu;
wymiar zasobu;
SPOSÓB |
CEL |
TRYB |
ZASOBY |
||||
Przeglądanie |
Wyszukiwanie |
Uczenie się |
Selekcja (wybór) |
Specyfikacja |
Rozpoznanie |
Meta informacja |
informacja |
|
X |
X |
|
X |
|
X |
|
|
X |
X |
|
|
X |
|
X |
|
X |
|
X |
|
X |
X |
|
X |
|
|
X |
X |
|
|
X |
X |
|
X |
|
|
X |
X |
|
każde zachowanie informacji wymaga wyboru jednej z tych dróg (z tego, z tego, z tego, z tego), można stworzyć 16 takich strategii;
konstruowanie strategii wymaga wyboru odpowiedniej opcji;
I SPOSÓB:
przeglądanie - oglądanie czegoś, brak pytania;
wyszukiwanie - podajemy informację a narzędzie czy osoba wyszukują nam to, czego potrzebujemy, formułujemy zapytanie;
II CEL:
uczenie się - wyszukujemy by się czegoś nauczyć, jeśli chcę się zainteresować nową dyscypliną wiedzy, staram się ją poznać, oglądnąć, nauczyć się w niej poruszać, wyszukiwać;
III TRYB:
specyfikacja - jestem w stanie określić cechy tego co szukam;
rozpoznanie - nie znam cech, ale jak zobaczę, to rozpoznam („o, to ten”);
IV ZASOBY:
mata informacja - np. katalog biblioteczny;
informacja - gazeta, portal;
tworząc strategie ważne jest ustalenie strategii wyjścia, później elastycznie strategie się zmieniają w zależności od problemu;
13
Algorytm rankingowy
interfejs
Baza danych
szperacz
HEAD - część nagłówkowa
BODY - część właściwa strony www
Pies
kot
Pies kot
WWW 2
pies
WWW 1
Pies
Pies
pies
Pies
Pies
Pies
pies
WYSZUKIWANIE MONITORING
PRZEGLĄDANIE ŚWIADOMOŚĆ