7 Technologie zarzadzania wiedz Nieznany (2)

background image

1

Technologie zarządzania
wiedzą

Dr Joanna Paliszkiewicz

Cele



Scharakteryzować podstawowe kategorie technologii
stosowanych w zarządzaniu wiedzą;



Omówić rozmaite technologie: wyodrębnienia,
porządkowania, przechowywania i upowszechniania
wiedzy;



Ukazać różnice funkcjonalne między
poszczególnymi typami technologii;



Dobierać technologie zarządzania wiedzą
odpowiednio do istniejących potrzeb.

background image

2

Narzędzia porządkowania
wiedzy

Narzędzia porządkowania wiedzy –
ontologia i taksonomia

Zasoby wiedzy można zobrazować za pomocą

schematu przedstawiającego jej składniki

(podstawowe terminy) i ich wzajemne

powiązania. Nazywamy to „mapą wiedzy” lub

„ontologią”.

background image

3

Ontologia - definicja

Ontologia - formalna specyfikacja wspólnej

warstwy pojęciowej.

Gruber (1993)

To oznacza, że ontologia dostarcza formalnego słownictwa do opisania danej

dziedziny.

Budowa ontologii (wg. Usholda i
Gruningera)

1.

Określenie celu i zakresu

2.

Trzyetapowy proces budowy ontologii

a)

kodowanie ontologii - zdefiniowanie podstawowych
terminów, takich jak „klasa”, „jednostka” czy „relacja”
oraz wybór języka lub symboli opisu;

b)

połączenie istniejących ontologii.

3.

Ocena ontologii.

4.

Dokumentacja ontologii.

5.

Sformułowanie wytycznych dla poprzednich faz.

background image

4

Budowa ontologii - wady



Jednakże ontologie tworzone bez wykorzystywania
technologii, poza tym, że ich konstruowanie
pochłania dużo czasu, są podatne na błędy i dość
kłopotliwe pod względem bieżącego uzupełniania i
poprawiania (Ding, Foo, 2002).



Jeśli następuje istotna zwłoka w aktualizacji,
ogranicza to użyteczność ontologii i hamuje jej
rozwój. Te mankamenty przyczyniły się do wzrostu
zainteresowania pół- lub w pełni automatycznymi
systemami budowania ontologii.

Do znajdowania pojęć ze strumienia nieprzetworzonych danych

wykorzystuje się wiele stosunkowo zaawansowanych metod, takich jak:



oznaczanie części mowy w celu identyfikacji najczęściej powtarzających
się słów lub fraz, które następnie można użyć do definiowania pojęć i
przeprowadzenia analizy składniowej;



ujednoznacznianie sensu słów w celu wyodrębnienia relacji typu „jest
(czymś)” albo „jest związany z (czymś)”, gdzie różnica tkwi w
językowych właściwościach rzeczowników;



segmentacja ciągu znaków na krótsze odcinki rozgraniczone znakiem
separatora (na przykład spacje między wyrazami) i ustalenie długości
każdego ciągu;



dopasowywanie wzorców - system może na przykład zapamiętać zestaw
słów tworzących pary oraz ich znaczenie i na tej podstawie wyszukiwać w
dokumencie gotowe wyrażenia.

background image

5

Automatyczna klasyfikacja ontologii –
systemy uczące się



Podstawowym aspektem najnowszej generacji
automatycznych klasyfikatorów jest wykorzystanie
systemów uczących się. Są to systemy, które uczą
się rozpoznawać i klasyfikować informacje na
podstawie przykładowego zestawu danych. Im
większy i bardziej różnorodny ten przykładowy
zestaw, tym większa jest trafność rozpoznawania.
Ponadto ta generacja klasyfikatorów charakteryzuje
się wysokim stopniem uniwersalności. Można je
wykorzystywać wielokrotnie w odniesieniu do
różnych dziedzin, co pozwala obniżyć całkowite
koszty tworzenia ontologii.

Sposoby przedstawiania ontologii:



Forma hierarchii pojęciowej, podobnej
wyglądem do taksonomii;



Układ grafów z zestawem wyrazów
bliskoznacznych dla każdego słowa;



Format języka znaczników XML.

background image

6

Wady narzędzi do tworzenia ontologii:



Narzędzia te mogą mieć na przykład problem z interpretacją
tego samego słowa w różnych kontekstach lub rozpoznaniem
różnych wyrażeń odnoszących się do tego samego pojęcia.
Pomocne w tym względzie są systemy uczące się, które
potrafią same rozpoznawać i przyswajać pewne wzorce, ale
analizowane dane często charakteryzują się bardzo
skomplikowanymi, trudnymi do wykrycia zależnościami.
Podstawowy problem zatem to niebezpieczeństwo spłycenia
semantycznego obrazu dziedziny, która w rzeczywistości jest
znacznie głębsza i bogatsza.



Poza tym skonstruowana automatycznie ontologia może
odbiegać od wyobrażeń danej społeczności lub grupy
ekspertów.

Aktualnie wyróżnia się następujące
sposoby integrowania ontologii:



wykorzystywanie istniejącej ontologii łączącej
wybrane dziedziny;



wzajemne dopasowywanie ontologii poprzez
mechanizmy translacyjne, oparte na technologii
agentowej;



scalanie istniejących ontologii w jedną nową
ontologię;



łączenie ontologii poprzez grupowanie elementów
na zasadzie podobieństwa.

background image

7

Semantyka



Przez semantykę rozumiemy znaczenie, jakie
jednostki lub grupy przypisują danemu
terminowi lub pojęciu.

Narzędzie wyodrębniania
wiedzy

background image

8

Mapy poznawcze



Każdy człowiek przypisuje poszczególnym
obszarom wiedzy swoje własne ontologie albo
- inaczej - mapy poznawcze.



Taka mapa stanowi wizualne przedstawienie
danej dziedziny, powstaje w wyniku
uzmysłowienia poj
ęć składających się na
dan
ą dziedzinę oraz łączących je zależności.

Mapy poznawcze



W wypadku zarówno pojedynczych osób, jak i całych
organizacji mapy poznawcze najcz
ęściej mają
charakter ukryty, pozostają niezwerbalizowane.



Zawarta w nich wiedza uchodzi za kluczowe źródło
przewagi konkurencyjnej, gdy
ż jest trudna do
wyartykułowania i skopiowania, bardzo zale
ży od
kontekstu i ma bezpo
średnie przełożenie praktyczne

(Ambrosini, Bowman, 2002; Bareny, 1991; Grant, 1996).

background image

9

Narzędzia do sporządzania map
poznawczych



Sporządzanie mapy poznawczej to użyteczna metoda
obrazowania wiedzy i doświadczenia jednostki oraz jej
spojrzenia na rzeczywistość

(Eden, Ackermann, 1998; Weick, Bougon, 1986).

Za podstawę metody służy sformułowana przez Kelly”ego
teoria konstruktu osobistego (Kelly, 1955). Ramy całego
procesu wytycza następujące stwierdzenie:

Dopóki nie usłyszę, co mówię, dopóty nie wiem, co myślę.

Narzędzia do sporządzania map
poznawczych



Obecnie narzędzia do sporządzania map
poznawczych wykorzystuje się przede
wszystkim do mapowania wiedzy
strategicznej (Huff, Jenkins, 2002) przy
użyciu map związków przyczynowych.

background image

10

Mapy związków przyczynowych



Mapy związków przyczynowych to mapy poznawcze, w
których poszczególne elementy są powiązane gęstą siecią
zależności przyczynowo-skutkowych.

Mapy związków przyczynowych



Główna zaleta map związków przyczynowych
polega na tym, że pozwalają uporządkować i
przeanalizować coś, co jest rozmyte i
niekonkretne, poprzez zobrazowanie relacji
między pojęciami

(Ambrosini, Bowman, 2002; Weick, Bougon, 1986).

background image

11

Narzędzia do sporządzania map poznawczych są wykorzystywane w

procesie budowania strategii firmy do ujawniania:



wiedzy ukrytej,



założeń,



teorii,



wartości,



przekonań,



aspiracji i obaw członków naczelnego
kierownictwa

Metody sporządzania map
poznawczych



Technika kart owalnych w połączeniu z
odpowiednim oprogramowaniem (np.
Decision Explorer), wyposażonym w
praktyczne narzędzia do graficznej
prezentacji, wyszukiwania i analizowania
danych.



Metoda ta, oparta na myśleniu wizualnym,
pozwala skonkretyzować pojęcia i idee oraz
występujące między nimi powiązania.

background image

12

Etapy sporządzania mapy z użyciem
kart owalnych

1.

Prowadzący prosi grupę o skupienie się na pytaniu lub
zagadnieniu.

2.

Uczestnicy pokrywają obszar roboczy, na przykład ścianę,
dużymi arkuszami białego papieru.

3.

Każdy z uczestników otrzymuje zestaw kart owalnych, na
których, odwołując się do posiadanej wiedzy, będzie
zapisywał swoje opinie na dany temat w celu ich
późniejszego zaprezentowania grupie.

4.

Na każdej karcie powinna być zapisana tylko jedna myśl.

Etapy sporządzania mapy z użyciem
kart owalnych

5.

Uczestnicy zostają poinformowani, że karty nie mogą być
usuwane (chyba że za zgodą całej grupy), a ewentualne
sprzeciwy należy wyrażać jasno i otwarcie.

6.

Prowadzący układa zapisane karty w grupy i podgrupy. Jeśli
potrzebuje więcej czasu na zastanowienie, zwłaszcza gdy ma
problem z identyfikacją wątków i zależności, może stworzyć
grupę przejściową, do której trafiają karty trudne do
zaklasyfikowania.

7.

Prowadzący ustala powiązania między poszczególnymi
kartami lub grupami kart według kryterium „środki i cele”
lub „warianty i zamierzone efekty”. Innymi słowy sprawdza,
do jakich innych stwierdzeń lub ich grup prowadzą
poszczególne wypowiedzi.

background image

13

Metoda sporządzania map
poznawczych



To zbiorowe ćwiczenie. w którym obowiązują
jednolite zasady w wypadku każdego zadania,
pozwa1a uczestnikom spojrzeć na
zagadnienie z różnych punktów widzenia i
być może zmienić swoje podejście do sprawy
bez konieczności obrony swojego stanowiska.
tym samym sprzyja ono społecznym
negocjacjom i pełniejszemu utożsamianiu się
z grupą i jej przyjętymi utaleniami.

Budowanie strategii z wykorzystaniem
modelu „kropli”



W procesie budowy strategii mapy związków przyczynowych
przekształca się do modelu „kropli”, w którym na samym
szczycie znajdują się cele lub pożądane skutki.



Są to pojęcia umieszczone na końcu ciągu strzałek, z których
nie wychodzą kolejne strzałki oznaczające następstwa.



Poniżej znajduje się warstwa z pojęciami określanymi jako
zagadnienia lub strategie, prowadzące do realizacji dążeń. P



odstawę stanowią bardziej szczegółowe opcje lub posunięcia,
które decydują o kształcie potencjalnych strategii.

background image

14

Za pomocą programu komputerowego można przeprowadzić

pogłębioną analizę mapy poznawczej. aby:



zidentyfikować najczęściej wykorzystywane
pojęcia;



oszacować położenie danego pojęcia
względem środka ciężkości danej struktury;



zbadać sprzężenie zwrotne.

Narzędzia do wyszukiwania informacji



W klasycznym podejściu wyszukiwanie informacji opiera się
na dwóch procesach.



Pierwszy z nich polega na stworzeniu indeksu umożliwiającego
poznanie struktury dokumentu i lokalizację określonego tekstu. Dane
tekstowe mogą być wprowadzone do systemu i od razu przetworzone,
na przykład poprzez usunięcie słów pospolitych. Często nazywa się to
logiczną perspektywą dokumentu. Indeks przyspiesza wyszukiwanie
informacji i obniża koszty przetwarzania danych. Jego brak oznacza
konieczność dokładnego przeszukiwania każdego zapisu po kolei.
Wszystkie systemy wyszukiwania informacji mają indeks ułatwiający
zlokalizowanie odpowiednich wpisów poprzez zastosowanie metody
listy odwróconej.



Drugi proces polega na tym, że wyszukuje się odpowiedzi na zadane
pytanie, wykorzystując specjalne algorytmy, za których pomocą
uporządkowuje się wyniki wyszukiwania według ich różnie rozumianej
przydatności dla użytkownika.

background image

15

Hierarchiczna klasyfikacja terminów



Indeks zbioru dokumentów, artykułów czy raportów
rynkowych można stworzyć z wykorzystaniem
hierarchicznej klasyfikacji terminów występujących
w tekście. Każdemu elementowi zbioru przypisuje
się charakteryzujące go hasła indeksu i w ten sposób
ułatwia przeszukiwanie zbioru. Tę metodę już od
dawna wykorzystuje się w bibliotekach. Przykładem
takiego indeksu są kody SIC (Standard Industry
Classification -
standardowa klasyfikacja branżowa),
służące do opisywania dokumentów.

Uniwersalna klasyfikacja



Inny przykład to spotykana w większości bibliotek
uniwersalna klasyfikacja dziesiętna Deweya, według której
dzieli się całą wiedzę na 999 poddziałów rozbitych na wiele
jeszcze węższych kategorii, uwzględniających wszelkie
niuanse poszczególnych dziedzin. Hasła indeksu często są
zbiorem wybranych kluczowych pojęć, których znaczenie
ułatwia ustalenie głównych tematów dokumentu. Indeks
może być tworzony ręcznie, przez odpowiedniego specjalistę,
lub automatycznie, tj. z wykorzystaniem narzędzi do
indeksowania tekstów.



Efektywność tych narzędzi stale się zwiększa i w niektórych
wypadkach jest porównywalna do ludzkiej.

background image

16

Proces automatycznej klasyfikacji tekstu może
obejmować jedną lub więcej z poniższych czynności:



Analiza leksykalna. Wyodrębnienie słów z ciągu
znaków, obejmującego (oprócz liter) cyfry, znaki
przestankowe i myślniki.



Skracanie. Słowa, które występują w dokumentach
zbyt często, na przykład pospolite słowa
(stopwords), są eliminowane, gdyż nie nadają się na
kryterium wyszukiwania. Z jednej strony, pozwala
to zmniejszyć rozmiary indeksu, ale z drugiej może
prowadzić do pominięcia istotnych pozycji w
wynikach.

Proces automatycznej klasyfikacji tekstu może
obejmować jedną lub więcej z poniższych czynności:



Ponieważ znaczenie zdania zależy głównie od rzeczowników, to one
najczęściej służą za hasła indeksu, a nie czasowniki, przedimki,
przymiotniki, przysłówki czy spójniki. Rzeczowniki, które występują w
tekście obok siebie, mogą być połączone w jedno hasło zwane grupą
rzeczowników (na przykład analiza efektywności inwestycji). Usprawnia
to znacznie wyszukiwanie.



Usuwanie afiksów (stemming), czyli pozbawianie słów przyrostków i
przedrostków w celu zwiększenia skuteczności wyszukiwania. Chodzi o
to, aby za pomocą wyszukiwarki odnajdywać nie tylko te dokumenty, w
których pojawia się słowo podane przez użytkownika, lecz także te, w
których występuje ten sam rdzeń. Na przykład po wpisaniu wyrazu
„budowa” odnajdzie się między innymi takie słowa, jak „budować”,
„budowla”, „budowniczy” czy „budowlany”.

background image

17

Powiązania



W wypadku analizy leksykalnej i grupowania
rzeczowników może się pojawić dodatkowe
powiązanie z terminami niewystępującymi w
indeksie, które odgrywają rolę alternatywnych
deskryptorów w procesie wyszukiwania.
Powiązanie takie ustanawia się ręcznie bądź
automatycznie.

Nadawanie struktury:



Po zakończeniu klasyfikacji, jeśli w ogóle ją przeprowadzono, należy
nadać indeksowi określoną strukturę. Oto trzy najpopularniejsze
rozwiązania:



Lista odwrócona. W większości wypadków jest to najlepszy wariant. Pod
tym terminem kryje się po prostu słowniczek czy też lista (indeks) słów
występujących w tekście, przy których podano miejsce ich wystąpienia.



Pliki sufiksów. Tekst jest traktowany nie jako ciąg słów, ale jako zbiór
danych o strukturze pliku. Indeksy tego typu są szczególnie przydatne przy
złożonych zapytaniach dotyczących zasobów, w których słowa nie są
podstawowymi elementami, jak na przykład genetyczne bazy danych.



Pliki sygnatur. Przy tej strukturze indeksu analizowany tekst jest dzielony na
bloki. Pozwała to przyspieszyć wyszukiwanie dzięki zmniejszeniu rozmiarów
tekstu, ale jednocześnie oznacza sekwencyjne przeszukiwanie
poszczególnych bloków. W większości zastosowań listy odwrócone
sprawdzają się znacznie lepiej niż pliki sygnatur.

background image

18

Wyszukiwanie informacji



Po zindeksowaniu tekstowej bazy danych
można przystąpić do wyszukiwania
informacji. W tym celu należy sprecyzować
swoje potrzeby informacyjne, wpisując w
interfejsie użytkownika słowa wytyczające
kierunek poszukiwań.

Proces wyszukiwania informacji



Chcąc sformułować zapytanie z użyciem
kluczowych słów, można się posłużyć regułami
stosowanymi w klasyfikacji tekstów. Zapytanie po
wprowadzeniu zostaje przetworzone tak, aby można
je było przedstawić w postaci haseł i struktur. W tym
celu przeprowadza się analizę współwystępowania,
częstotliwości występowania i pozycji terminów
oraz ewentualnie semantyki i składni. Podobnemu
procesowi są poddawane dokumenty w bazie
danych, a następnie reprezentacja zapytania jest
porównywana z reprezentacją dokumentu.

background image

19

Zapytanie można formułować:



z użyciem operatorów logicznych („czy”, „i”, „ale” itp.),
które pozwalają bardzo precyzyjnie określić kryteria
wyszukiwania; jest to metoda najpopularniejsza, a zarazem
najczęściej wykorzystywana w systemach komercyjnych; jej
główna wada polega na tym, że dokładne trzymanie się
zadanej kombinacji operatorów może zaowocować zbyt małą
lub zbyt dużą liczbą wyszukanych dokumentów;



wektorowo - hasłom indeksu zostają przypisane wagi
odpowiadające częstotliwości ich występowania w
dokumencie; założenie jest takie, że hasła pojawiające się
rzadziej przeważnie są bardziej istotne dla wyników
wyszukiwania;

Zapytanie można formułować:



probabilistycznie - poszczególnym dokumentom zostają
przypisane prawdopodobieństwa, że okażą się zgodne z
potrzebami użytkownika; ta metoda jest dość
problematyczna, gdyż wyliczenie tego prawdopodobieństwa
graniczy z niemożliwością, jeśli nie istnieje mechanizm
sprzężenia zwrotnego pozwalający systemowi na lepsze
rozpoznanie potrzeb użytkownika;



za pomocą wyrażeń rozmytych, co pozwala rozszerzyć
zapytanie o całą grupę wyrazów bliskoznacznych, a tym
samym zwiększyć liczbę wyszukanych dokumentów.

background image

20

Proces wyszukiwania informacji



Wyszukane dokumenty następnie szereguje się
według prawdopodobieństwa ich przydatności,
opartego na zgodności z logicznym, wektorowym
lub probabilistycznym wzorcem zapytania. Na tym
etapie niektóre systemy umożliwiają użytkownikowi
aktywny udział w procesie wyszukiwania poprzez
wskazanie, czy dany dokument odpowiada jego
potrzebom. Następuje wówczas przeformułowanie
algorytmu wyszukiwania tak, aby można było
odnaleźć inne dokumenty podobne do wskazanego.
Mechanizm ten nazywa się zwrotnym uściślaniem
zawartości.

Proces wyszukiwania informacji



Ponieważ w większości organizacji bazy danych
rozrastają się w tempie wykładniczym, niezbędne
stają się technologie wyszukiwania, umożliwiające
szybkie i sprawne dotarcie do potrzebnych
informacji.



Jedno z możliwych rozwiązań polega na przetwarzaniu
równoległym, gdy wyszukiwaniem zajmuje się kilka
procesorów jednocześnie, przy czym każdy koncentruje
się na innym aspekcie problemu.



Inna metoda to przetwarzanie rozproszone, gdzie z
zapytaniem zmaga się kilka komputerów połączonych w
sieć.

background image

21

Automatyczne wyszukiwarki



Automatyczne wyszukiwarki sieciowe są
najpopularniejszym sposobem znajdowania
informacji w Internecie. Opierają się one
głównie na połączeniu indeksatora ze
szperaczem

Szperacze - opis



Szperacz to program oparty na technologii agentowej, wysyłający do
serwerów sieciowych pytania o nowe lub zaktualizowane strony.



Rezultaty pracy szperaczy zostają następnie zindeksowane przez
wyszukiwarkę.



Indeksy najczęściej przybierają jedną z możliwych postaci listy
odwróconej.



Druga część wyszukiwarki zajmuje się zapytaniem użytkownika.
Najczęściej internauci podają dwa słowa, a średnia długość zapytania
wynosi 2,3 słowa.



Wyszukiwarka przegląda indeks według różnego typu algorytmów, a
następnie szereguje rezultaty.



Niektórzy uważają, że jeśli zawartość Sieci dalej będzie się rozrastać w
tempie wykładniczym, wyszukiwarki oparte na modelu indeksator-
szperacz przestaną się sprawdzać.

background image

22

Metoda wyszukiwania rozproszonego



Alternatywą dla powyższego modelu jest metodą
wyszukiwania rozproszonego, gdzie wiele
połączonych ze sobą serwerów sieciowych odgrywa
rolę zbieraczy (na podobieństwo szperaczy) lub
„brokerów” (obsługują interfejs zapytań i
indeksowanie), dzieląc pracę pomiędzy siebie.



W Sieci funkcjonują także metawyszukiwarki, które
wysyłają zapytanie do różnych wyszukiwarek, a
następnie sortują otrzymane odpowiedzi, aby
zaprezentować je użytkownikowi według
określonego kryterium.

Technologia agentowa



Technologia agentowa to programy komputerowe,
które funkcjonują jak roboty (w sposób
autonomiczny) z zadaniem znalezienia najlepszego
rozwiązania w ramach wyznaczonej im funkcji.
Inaczej mówiąc, mają umiejętność samodzielnego
działania w pewnym otoczeniu i osiągania
naznaczonych przez ich twórcę celów. Potrafią
pracować bez ingerencji człowieka i sprawować
kontrolę nad swoimi poczynaniami i stanem
wewnętrznym

background image

23

Technologia agentowa



Programy agentowe są podobne do szperaczy,
które identyfikują określony materiał pod
względem treści, struktury i właściwości.
Wyspecjalizowane szperacze potrafią się
uczyć na podstawie informacji pochodzących
od użytkownika i modyfikować rezultaty
swojego działania odpowiednio do zdobytej
wiedzy.

Technologia agentowa



Osiągnięciem tej technologii są inteligentne systemy
agentowe, które charakteryzują się elastycznym i
samodzielnym działaniem. Ich elastyczność polega
na wrażliwości na zmiany w otoczeniu, zdolności
dostosowania się do sytuacji i podejmowania działań
z własnej inicjatywy oraz umiejętności współpracy z
innymi tego typu systemami lub ludźmi w celu
sprawniejszego rozwiązywania problemów.

background image

24

Technologia agentowa



Programy agentowe są szczególnie przydatne przy
pracy z systemami złożonymi, bo nadają im
modularną strukturę. Mówiąc krótko, dzielą duży,
skomplikowany problem na mniejsze, prostsze,
łatwiejsze w operowaniu składniki. Następnie
rozwiązują po kolei te mniejsze problemy przy
użyciu odpowiednich w danym wypadku technik.
Inną metodą stosowaną przez programy agentowe w
systemach złożonych jest wyodrębnianie. Polega to
na potraktowaniu systemu jako zbioru
współpracujących ze sobą, autonomicznych
programów agentowych.

Zastosowanie technologii agentowej



Filtrowanie poczty elektronicznej. Programy agentowe traktują jako
lekcję każdy ruch użytkownika. Po pewnym czasie zaczynają
przewidywać jego zachowania na podstawie odkrytych prawidłowości.
Wraz ze wzrostem trafności tych przewidywań system zaczyna podsuwać
użytkownikowi sugestie dotyczące nadchodzącej poczty, ułatwiając mu
połapanie się w lawinie e-maili. Jest to funkcja szczególnie przydatna dla
osób borykających się z przeciążeniem informacyjnym, skupiających się
wyłącznie na swoich potrzebach informacyjnych i niechcących marnować
czasu na inne rzeczy.



Obsługa transakcji wewnątrzorganizacyjnych. Za pomocą programów
agentowych działy lub filie przedsiębiorstwa negocjują między sobą
warunki dostaw, takie jak cena, termin i jakość. Zapewnia to obsługę
klientów wewnętrznych w systemie just-in-time.

background image

25

Zastosowanie technologii agentowej



Owijki agentowe (agent wrappers). Rozwiązanie stosowane
w dużych organizacjach, umożliwiające okresową
aktualizację danych wykorzystywanych w ramach
kluczowych funkcji poprzez interakcję oprogramowania z
innymi częściami systemu.



Streszczanie. Analiza tekstu dokumentów w celu wyszukania
kluczowych zdań.



Zarządzanie wiadomościami z serwisów informacyjnych.
Filtrowanie, grupowanie, streszczanie i dostarczanie
wybranych wiadomości do odpowiednich adresatów.

Wady technologii agentowych



brak nadrzędnego systemu kontrolującego;



zdolność do znajdowania optymalnych rozwiązań w
skali lokalnej, ale nie globalnej;



długi okres rozwoju, jaki musi przejść program
agentowy, zanim człowiek może mu spokojnie
powierzyć podejmowanie określonych decyzji;



problem niedostosowania do potrzeb użytkownika w
wypadku zmiany preferencji.

background image

26

Technologia personalizacji



Wykorzystując technologię agentową,
opracowano technologię umożliwiającą
automatyczne zindywidualizowanie
informacji przesyłanych użytkownikowi.
Podstawowy cel personalizacji to
stuprocentowe zaspokojenie potrzeb każdego
użytkownika. System sam z siebie
dopasowuje się na bieżąco do jego wymagań.

Technologia personalizacji



W wypadku wyszukiwania informacji personalizacja
może polegać na ograniczeniu pola poszukiwań do
kategorii najczęściej przeglądanych przez daną
osobę albo na przypisaniu większych wag
dokumentom z tych kategorii. System personalizacji
potrafi optymalizować kryteria wyszukiwania na
podstawie analizy kluczowych słów
charakteryzujących grupy zainteresowań, do których
jest podłączony użytkownik, lub przeglądane
przezeń dokumenty. Ponadto może analizować
schematy zapytań i wyniki wyszukiwania pod kątem
zgodności z potrzebami użytkownika

background image

27

Cookie



Przedsiębiorstwa wykorzystują technologię
personalizacji, aby poszerzyć swoją wiedzę o
zachowaniach i preferencjach klientów.
Najpopularniejszym narzędziem służącym do
osiągnięcia tego celu są cookies. Są to małe
pliki umieszczane w komputerze
użytkownika, umożliwiające witrynom
internetowym jego identyfikację.

Cookie



Za pomocą cookie narusza się prywatność użytkownika i
odczytuje jego preferencje z bazy danych. Zazwyczaj pliki te
zawierają tylko numer identyfikacyjny oraz informacje
dotyczące ostatniej wizyty na danej witrynie. To jednak
wystarcza przedsiębiorstwu, aby powiązać z danym
komputerem pochodzące z innych źródeł informacje na temat
jego użytkownika.



Całkiem zrozumiałe wydają się obawy, że cookies mogą
posłużyć do wykradania prywatnych tajemnic lub numerów
kart kredytowych. Można oczywiście zablokować swój
komputer przed inwazją internetowych szpiegów, ale często
przekracza to umiejętności przeciętnego człowieka. W wielu
wypadkach użytkownicy nawet nie zdają sobie sprawy, że
narusza się ich prywatność.

background image

28

Wartościowanie wiedzy

Wnioskowanie na podstawie podobnych przypadków



Wnioskowanie na podstawie podobnych przypadków (Case-
based Reasoning
CBR) jest jednym z elementów sztucznej
inteligencji.



Systemy CBR umożliwiają gromadzenie przykładów różnych
problemów wraz z ich rozwiązaniami i poprzedzającym je
tokiem rozumowania, a następnie wyszukiwanie przypadków
odpowiadających określonym kryteriom. Użytkownik może
scharakteryzować swój aktualny problem za pomocą
rozmaitych deskryptorów i sprawdzić w bazie przypadków,
czy ktoś wcześniej nie uporał się już z podobną przeszkodą.
Jeśli znajdzie odpowiedni przykład, zostaje potem powiązany
z aktualnym problemem po wprowadzeniu do bazy jego
opisu, analizy i rozwiązania.

background image

29

CBR



Systemy CBR umożliwiają gromadzenie przykładów różnych
problemów wraz z ich rozwiązaniami i poprzedzającym je
tokiem rozumowania, a następnie wyszukiwanie przypadków
odpowiadających określonym kryteriom.



Użytkownik może scharakteryzować swój aktualny problem
za pomocą rozmaitych deskryptorów i sprawdzić w bazie
przypadków, czy ktoś wcześniej nie uporał się już z podobną
przeszkodą.



Jeśli znajdzie odpowiedni przykład, zostaje potem powiązany
z aktualnym problemem po wprowadzeniu do bazy jego
opisu, analizy i rozwiązania.

Przykładowo, w systemie CBR wspomagającym realizację przedsięwzięć
budowlanych zastosowano następujące deskryptory przypadków:



problemy - wymagania i możliwości klienta, specyfikacja i
ś

rodowisko projektu, rozkład czynników ryzyka i zależności

między nimi;



rozwiązania realizacyjne sposoby zaopatrzenia, struktura i
formy kontraktu oraz struktura zarządzania projektem;



rezultaty przedsięwzięcia - odchylenia od harmonogramu i
budżetu, zgodność ze specyfikacją, bezpieczeństwo, usługi
konserwacyjne po oddaniu do użytku, obciążenia
administracyjne, trwałość obiektu, stopa zwrotu z projektu.

background image

30

CBR



Oprogramowanie CBR okazuje się szczególnie
przydatne w wypadku telefonicznych centrów
obsługi klienta, których pracownicy często słyszą
powtarzające się pytania. Mogą wówczas wyszukać
istniejące rozwiązania i ewentualnie zaadaptować je
na potrzeby bieżącej sytuacji, aby następnie
uzupełnić zasoby systemu o swoje doświadczenia,
wnioski i rozwiązania.

Wielowymiarowe przetwarzanie analityczne OLAP -
Online Analytical Processing



OLAP - umożliwia

analizę danych podzielonych

na rozmaite kategorie w wielu wymiarach,
przekrojach i rzutach.

background image

31

Zgodnie z definicją OLAP Council wielowymiarowe

przetwarzanie analityczne zapewnia użytkownikowi:



wszechstronną interpretację danych poprzez
mo
żliwość ich oglądania w wielu różnych
przekrojach, tworzonych szybko i spójnie w
drodze interakcji ze zbioru nieprzetworzonych
danych, w celu odzwierciedlenia wszystkich
aspektów wielowymiarowo
ści
przedsi
ębiorstwa istotnych dla użytkownika.

Wielowymiarowe przetwarzanie analityczne
OLAP - Online Analytical Processing



Podstawowym elementem OLAP jest
wielowymiarowa kostka danych, gdzie każdy
wymiar odpowiada jednej zmiennej. Analiza
polega na obracaniu i przecinaniu tej kostki
pod różnymi kątami. Nazywa się to techniką
cięcia i rzutowania (suce and dice).

background image

32

Eksploracja w bazach danych



Termin eksploracja danych (data mining)
oznacza proces generowania wiedzy ze zbioru
ustrukturalizowanych danych.



Eksploracja danych czy - inaczej -
odkrywanie wiedzy, obejmuje cykliczny
proces selekcji i analizy danych,
interpretowania modelu i syntetyzowania
rezultatów.

Etapy rozwoju technik odkrywania
wiedzy:



Pierwszy etap (lata osiemdziesiąte XX wieku): koncentracja
na pojedynczych zadaniach, takich jak tworzenie
klasyfikatorów, wyszukiwanie powiązanych ze sobą danych
oraz wizualizacja danych według jednego schematu.



Drugi etap (około 1995 roku): pakiety eksploracyjne
wspomagające wstępną obróbkę i selekcję danych,
wyposażone w różne możliwości odkrywania wiedzy.



Trzeci etap: proces odkrywania obejmuje wszelkie aspekty
danej dziedziny wiedzy, dostarczając gotowych rozwiązań w
takich obszarach, jak marketing, wykrywanie oszustw,
kontrola produkcji czy Internet.

background image

33

Narzędzia odkrywania wiedzy:



Systemy eksperckie imitują sposób rozumowania
specjalistów dysponujących dużą wiedzą w wąskiej
dziedzinie. Składają się one z wiedzy bazowej, obejmującej
dane i reguły, oraz z mechanizmu wnioskowania logicznego,
który generuje nowe reguły i dane na podstawie
zgromadzonej wiedzy. Wada systemów eksperckich polega
na ich ograniczeniu do wąskiej dziedziny, uzależnieniu od
wiedzy specjalistów, braku jasności i wewnętrznych
sprzecznościach. Mankamenty te próbuje się eliminować,
tworząc systemy eksperckie oparte na logice rozmytej, w
których prawdziwość lub fałszywość stwierdzenia nie jest
określona jednoznacznie, lecz może być stopniowana w skali
od O do 1.

Narzędzia odkrywania wiedzy:



Drzewa decyzyjne opierają się na prostym modelu drzewa, w
którym każda gałąź reprezentuje odrębną klasę lub podklasę.
Drzewa decyzyjne są przydatne, gdy użytkownik chce
uzyskać ogólną orientację w danych, aby dalsze
postępowanie zawierzyć swej intuicji.



Indukcja reguł to wykorzystanie metod statystycznych do
wykrywania reguł odnoszących się do częstotliwości
korelacji, marginesu błędu i trafności prognoz. Reguły te
zazwyczaj przybierają postać stwierdzenia „jeśli..., to...”.

background image

34

Narzędzia odkrywania wiedzy:



Algorytmy genetyczne i programowanie genetyczne są wzorowane na
mechanizmach naturalnej selekcji i służą wykształcaniu złożonych
struktur danych. Znajdują zastosowanie przy rozwiązywaniu trudnych
zadań z zakresu optymalizacji. Ich główna wada polega na tym, że nie
wyjaśniają zależności między danymi.



Sieci neuronowe albo sieci ze wsteczną propagacją ędów to narzędzia,
które imitują budowę i sposób funkcjonowania mózgu. Połączenia między
sztucznymi neuronami mogą mieć przypisaną różną wagę, co pozwala
systemowi przyswajać i zapamiętywać informacje. Sieci neuronowe są
przydatne przede wszystkim w sytuacjach, gdy dysponujemy dużym
zbiorem danych historycznych, które można wykorzystać jako materiał
treningowy. Ich wartość polega na zdolności przetwarzania danych
wielowymiarowych, zawierających dużo szumu informacyjnego. Jednak
sieci neuronowe nie ułatwiają zrozumienia istoty zjawisk, a poza tym
nieraz wymagają długiego okresu treningowego.

Narzędzia odkrywania wiedzy:



Pamięć asocjacyjna polega na zapisywaniu w modelu
pamięci długookresowej powiązanych ze sobą par danych. Te
pary mogą być potem wyszukane i wykorzystane do
wykształcenia nowych powiązań, prowadzących do
twórczego wyjścia z nietypowych sytuacji.



Techniki grupowania nadają się idealnie do wstępnej
klasyfikacji danych. Ich działanie polega na identyfikacji
ś

ciśle powiązanych ze sobą danych. Mogą one przetwarzać

wielowymiarowe zbiory danych zawierające szum
informacyjny, ale przeważnie wymagają sporo czasu, aby
poprawie identyfikować zależności.

background image

35

Odkrywanie wiedzy w postaci prawidłowości charakteryzujących

zbiór danych można podzielić na następujące kategorie zadań:



analiza zależności - wyszukiwanie powiązań i
ciągów danych;



identyfikacja klas - grupowanie pojęć i tworzenie
taksonomii matematycznych;



opis pojęć - streszczanie, rozgraniczanie i

porównywanie różnych pojęć;



określanie odchyleń - badanie nieprawidłowości i
zmian w danych;



wizualizacja - przedstawianie wyników analizy.

Odkrywanie wiedzy - problemy



Podstawowym problemem w obszarze
odkrywania wiedzy jest stworzenie
inteligentnego systemu, który zwiększałby
selektywność wyszukiwania oraz potrafił
lepiej zaspokoić potrzeby użytkownika.

background image

36

Systemy uczące się



Systemy uczące się uważa się za kluczowe
narzędzie w odkrywaniu wiedzy zapisanej w
bazach danych ze względu na łatwość
przedstawienia skomplikowanych danych czy
rozwiązania nieprecyzyjnie zdefiniowanego
problemu oraz wyszukiwania informacji
różnymi metodami.

Systemy uczące się



Elastyczność systemów uczących się czyni je niezwykle
przydatnymi do rozwiązywania problemów, w których
niewiele wiadomo o ich kontekście.



Na potrzeby tych systemów opracowano niezwykle skuteczne
algorytmy:



boosting,



support vector machines.

Warto podkreślić, że na rynku występuje duża liczba

systemów uczących się, które w wypadku rozbudowanych
baz danych są naprawdę niezastąpione.

background image

37

Upowszechnianie wiedzy

Upowszechnianie wiedzy



Internet



Intranet



Extranet

background image

38

Internet



Początki Internetu sięgają 1969 roku, kiedy Adyanced
Research Projects Agency (Agencja Badań Naukowych)
zainteresowała się możliwością połączenia łączami
komputerowymi ośrodków naukowych i akademickich na
całym świecie. Ośrodki te miały własne sieci komputerowe,
lokalne (LocalArea Neworks LAN), obejmujące komputery
usytuowane blisko siebie i połączone zwykłymi kablami, lub
rozległe (Wide Area Networks — WAN), o większym zasięgu
terytorialnym, z łączami podobnymi do telefonicznych.
Internet wymyślono jako sieć łączącą te wszystkie sieci w
jedną całość i obsługiwaną przez specjalne komputery zwane
ruterami.

Internet



Generalnie biorąc, stworzono coś na kształt systemu
pocztowego, który wymagał ustalenia uniwersalnego zestawu
reguł, określającego sposób przesyłania i odbierania danych.
Ten zestaw reguł czy inaczej — protokół nazwano TCP/IP
(Transmission Control Protocol/Internet Protocol); dzieli on
zbiór danych lub informacji na pokaźne pakiety przesyłane do
komputera ulokowanego w innym punkcie sieci, a TCP
składa je na miejscu przeznaczenia w całość. Każdy
komputer w Internecie ma własny niepowtarzalny adres IP,
dzięki czemu każdy pakiet danych jest oznakowany adresem
nadawcy i adresem odbiorcy.

background image

39

Internet



Jednym z podstawowych zastosowań
Internetu jest poczta elektroniczna. Oprócz
zwykłych wiadomości umożliwia ona
przesyłanie w postaci załączników,
sformatowanych dokumentów oraz plików
graficznych, dźwiękowych i wideo.

Internet



Całe oprogramowanie stosowane w Internecie opiera
się na technologii klient-serwer. Oznacza to, że dany
program działa albo jako serwer oferujący usługi
innym komputerom podłączonym do sieci, albo jako
klient korzystający z usług serwerów. Wszystkie
dane, czy to w postaci e-maili, czy stron
internetowych, są przechowywane w komputerach
zwanych serwerami. Program-klient prosi o
informacje umieszczone na innym komputerze, a
program-serwer wysyła żądaną informację do klienta
poprzez Internet.

background image

40

Internet



Podstawowym dokumentem w sieci WWW jest strona internetowa o
określonej lokalizacji. Lokalizację tę określa adres URL (Uniform
Resource Locator),
czyli inaczej identyfikator strony zaczynający się od
takiego skrótu, jak „http” lub „ftp”. Kiedy klikamy na odsyłacz,
przeglądarka (klient) wysyła pod dany adres prośbę o wybraną stronę, a w
odpowiedzi serwer przesyła ją do komputera.



W przeszłości większość stron internetowych tworzono z użyciem języka
znaczników HTML (Hypertext Markup Language). Każda taka strona
składa się z ciągu znaczników albo instrukcji
- określających rozmieszczenie i wygląd elementów tekstowych,
graficznych, wideo i dźwiękowych - oraz z odsyłaczy do innych
dokumentów.

XML



Niedawno pojawił się nowy język znaczników — XML (Extensible
Markup Language),
stanowiący uzupełnienie HTML i zwiększający
użyteczność Sieci.



O ile HTML przekazuje głównie informacje dotyczące sposobu
formatowania strony, o tyle XML dostarcza także cennych informacji co
do jej zawartości. Na przykład znacznik HTML wskazuje jedynie, że dana
liczba ma być wyświetlona w określony sposób, z użyciem wytłuszczonej
lub pochylonej czcionki, jako nagłówek lub tekst właściwy. Natomiast
XML pozwala także opisać, co oznacza dana liczba, czy jest to prędkość,
data, czy wielkość sprzedaży. Te dodatkowe informacje umieszczone w
kodzie strony umożliwiają nowym programom komputerowym
automatyczne operowanie danymi i ich interpretację oraz wykonywanie
różnych działań bez bezpośredniej ingerencji człowieka. Informacje te
nazywa się metadanymi, czyli danymi na temat danych.

background image

41

XML



Metadane są ściśle powiązane z ich zawartością i zapewniają bezpośredni do niej
dostęp.



W roku 1995 opracowano standard opisu zasobów bibliotecznych za pomocą
metadanych, nazwany Dublin Core. Umożliwia on pełniejszą kontrolę nad
zasobami zgromadzonymi w Sieci. W opisie wykorzystuje się następujące
elementy: tytuł, autor, temat i kluczowe słowa, opis, wydawca, współtwórca, data,
typ zasobu, format, identyfikator zasobu, źródło, język, odniesienie, zakres,
zarządzanie prawami. Pojawiły się także inne standardy opisu, tworzone
specjalnie na użytek różnych sektorów gospodarki. Przyjmują one postać pliku
DTD (Document Type Definition), często nazywanego słownikiem, a
określającego formalną strukturę dokumentu zapisanego w języku XML. Ze
względu na globalny zasięg Internetu XML opiera się na zestawie znaków
Unicode, który docelowo ma obejmować znaki wszystkich alfabetów świata.
Ponadto XML uwzględnia kierunek pisania tekstu (na przykład od prawej do
lewej w języku arabskim), reguły dzielenia wyrazów oraz zasady zwracania się do
innych osób.

XML - zalety



Przedsiębiorstwa mogą udostępnić swoje zasoby danych
klientom i dostawcom przy stosunkowo niskim nakładzie
pracy poprzez stworzenie odrębnych schematów DTD dla
poszczególnych partnerów.



Plik źródłowy można odczytywać w różnej postaci i na
różnych platformach typu komputer osobisty, komputer
kieszonkowy, notes elektroniczny itp. Ponieważ informacje
zawarte w dokumentach XML są tak szczegółowe,
zapewniają znacznie lepsze efekty wyszukiwania za pomocą
wyszukiwarek sieciowych.

background image

42

XML - wady



Korzystając z istniejących standardów
branżowych, będzie można tak ustawić
wyszukiwarki oparte na języku XML, aby
preferowały informacje, opinie, produkty i
usługi.

Rozwój sieci WWW



Rozwój sieci WWW, zdaniem jej twórcy, Tima Bernersa-
Lee, będzie zmierzać W kierunku sieci semantycznej. Sieć
taka zapewniałaby użytkownikowi natychmiastowy dostęp do
szczegółowych informacji potrzebnych do podjęcia decyzji,
bez konieczności przeglądania całej masy dokumentów.
Chodzi o to, aby uczynić sieć bardziej efektywną. Jednak
standardowym językiem i formatem sieci semantycznej
będzie najprawdopodobniej nie XML, lecz RDF (Resource
Description Framework),
który obrazuje powiązania w
sposób bezpośredni i jednoznaczny w postaci
zdecentralizowanego modelu, a specjalne programy, zwane
parserami, z łatwością mogą odszyfrować tak zapisane
informacje.

background image

43

Intranet



Intranet to sieć komputerowa oparta na technologii
internetowej, ale o zasięgu ograniczonym do jednej
organizacji. Obejmuje takie funkcje, jak poczta
elektroniczna, zdalny dostęp, narzędzia do pracy
zespołowej, równoczesne korzystanie z aplikacji
oraz wewnętrzny system komunikacji. Chroni ona
zasoby informacyjne organizacji przed
nieuprawnionymi użytkownikami za pomocą
oprogramowania typu firewall, które uniemożliwia
osobom postronnym wejście do sieci z zewnątrz, ale
jednocześnie nie blokuje pracownikom dostępu do
Internetu.

Najpopularniejsze zastosowania
intranetu to:

• dostęp do baz danych;
• fora dyskusyjne;
• rozsyłanie dokumentów elektronicznych;
• zarządzanie wynagrodzeniami i
ś

wiadczeniami pracowniczymi;

• szkolenia online;
• pomoc dla użytkowników — zestawienia
odpowiedzi na najczęściej zadawane pytania
(FAQ).

background image

44

Intranet



Budując sieć wewnętrzną, organizacja powinna się
wystrzegać tworzenia wielkich, skomplikowanych
systemów wyposażonych w wyrafinowane funkcje,
z których nikt nie korzysta. Wszelkie rozwiązania
należy projektować pod kątem rzeczywistych, jasno
określonych potrzeb użytkowników. Inne
niebezpieczeństwo polega na wykorzystaniu
intranetu do wznoszenia elektronicznych barier
dzielących organizację, wbrew deklarowanej
zasadzie wymieniania się wiedzą.

Bezpieczeństwo intranetu



Większość organizacji korzysta z technologii
firewall w celu zabezpieczenia swoich
zasobów informacyjnych przed
nieuprawnionymi osobami.

background image

45

Do najważniejszych funkcji systemów
firewall należą:

• kontrola dostępu do sieci na różnych poziomach
uprzywilejowania;
• kontrola na poziomie aplikacji;
• zarządzanie uprawnieniami użytkowników;
• izolowanie określonych usług;
• tworzenie kopii zapasowych i analiza raportów;
• alarmowanie;
• maskowanie wewnętrznej struktury sieci;
• ochrona poufności;
• odpieranie ataków elektronicznych włamywaczy.

Bezpieczeństwo intranetu



Za pomocą systemu firewall bada się (z użyciem specjalnego
filtra) każdy pakiet danych przesyłany do sieci, aby odrzucić
te wiadomości lub próby dostępu, które nie spełniają
kryteriów określonych przez administratora.



Zaawansowany firewall wykorzystuje dwa filtry pakietów,
które uzupełniają się nawzajem. Atak na tak zabezpieczony
serwer nie zagraża sieci wewnętrznej. Jednak o
stuprocentowym bezpieczeństwie nie ma mowy. W celu
zwiększenia skuteczności technologii firewall w przyszłości
najprawdopodobniej będzie się wykorzystywać technologie
szyfrujące.

background image

46

Internet oferuje klika sposobów wymiany myśli,
poglądów i informacji w trybie tekstowym



Grupy dyskusyjne to globalne fora poświęcone
najrozmaitszym tematom. Mają one postać elektronicznych
tablic ogłoszeniowych, na których użytkownicy umieszczają
swoje wiadomości, aby inni mogli je przeczytać.



Innym rodzajem publicznego forum ułatwiającego dzielenie

się wiedzą na określone tematy są listy dyskusyjne.
Wystarczy się zapisać na taką listę, aby za pośrednictwem e-
maila otrzymywać wiadomości wysyłane przez jej członków i
ewentualnie na nie odpowiadać. W przeciwieństwie do grup
dyskusyjnych nad listami dyskusyjnymi czuwa przeważnie
moderator, który ma prawo blokować dostęp do listy osobom,
które pisząc wiadomości, łamią ustalone zasady

Internet oferuje klika sposobów wymiany myśli,
poglądów i informacji w trybie tekstowym



Ogromną popularnością cieszą się tzw. chaty, czyli
tematyczne kawiarenki internetowe, w których użytkownicy
mogą rozmawiać ze sobą na żywo, wystukując wypowiedzi
na klawiaturze. Jeśli z czasem liczba odwiedzających dany
chat znacząco wzrasta, można z niego wyodrębnić kolejne,
węższe tematycznie chaty.



Pojawiły się już też kawiarenki internetowe obsługujące
komunikację głosową. Użytkownicy umawiają się na
spotkanie w kawiarence o konkretnej godzinie, aby potem do
woli wymieniać się przemyśleniami i informacjami.

background image

47

Narzędzia do pracy w grupach



Oprogramowanie do pracy w grupach ma
przede wszystkim ułatwiać ludziom
współpracę, a tym samym dzielenie się
wiedzą. Od strony ekonomicznej założenie
jest takie, że lepsza współpraca prowadzi do
wzrostu produktywności, obniżenia kosztów i
poprawy jakości, bo zapewnia podejmowanie
trafniejszych decyzji.

Narzędzia do pracy w grupach



Narzędzia do pracy w grupach należą do
technologii informacyjno-komunikacyjnych
(Information Communication Technology -
ICT), wspomagających:



współpracę,



komunikację,



koordynację działań w czasie i przestrzeni,



korzystanie ze wspólnych obszarów roboczych

background image

48

Narzędzia do pracy w grupach



Dwie najpopularniejsze technologie tej
kategorii to:



poczta elektroniczna,



dyskusyjne bazy danych Lotus Notes (Lotus
Notes uważa się powszechnie za pierwszy
produkt oferujący użytkownikom możliwość
korzystania z dyskusyjnych baz danych, e-maili z
załącznikami, wspólnych baz danych,
automatyzacji obiegu pracy oraz tworzenia
własnych aplikacji).

Narzędzia do pracy w grupach -
funkcje

• wspomaganie grupowego podejmowania
decyzji poprzez burzę mózgów, generowanie
pomysłów i głosowanie;
• kolektywne pisanie i wirtualne tablice;
• konferencje komputerowe;
• planowanie spotkań i terminarze zajęć;
• twórcze wykorzystanie poczty
elektronicznej.

background image

49

Wideokonferencje



Technologia wideokonferencji biurkowych
(Desktop yideoconferencing — DTVC)
umożliwia dwóm lub więcej osobom
widzenie i słyszenie się za pośrednictwem
komputera osobistego, a tym samym wspólną
pracę i wymianę wiedzą bez wstawania od
biurka. Do przekazywania sygnału do
pozostałych rozmówców służą mała kamera i
mikrofon, umieszczone na monitorze.

Książka telefoniczna ekspertów:
katalog umiej
ętności



Organizacje często stają przed koniecznością wyszukania
wśród personelu osób mających określone umiejętności lub
wiedzę, potrzebne do rozwiązania zaistaniałego problemu. Z
tego względu wiele firm prowadzi obecnie coś w rodzaju
wewnętrznych żółtych książek telefonicznych. Zawierają one
spis wszystkich pracowników wraz z krótką charakterystyką
ich wiedzy, umiejętności i doświadczenia. Do spisów tych ma
dostęp każdy zatrudniony. Wystarczy, że poda w intranetowej
wyszukiwarce odpowiednie kluczowe słowa, a otrzyma listę
specjalistów spełniających jego potrzeby.



Podobne katalogi można tworzyć dla istniejących w
organizacji wspólnot, grup zainteresowań i list dyskusyjnych.

background image

50

E-learning



Przez pojęcie e-learning rozumiemy uczenie
się w trybie online oraz szkolenia z
wykorzystaniem komputerów lub Internetu.



Inaczej mówiąc, chodzi o zastosowanie
technologii internetowych do zarządzania
procesem nabywania wiedzy i umiejętności,
przy czym Internet wcale nie jest niezbędny
do osiągnięcia tego celu.

Najlepsze produkty w tej kategorii zazwyczaj wiążą się z całym

wachlarzem rozmaitych metod uczenia się, takich jak:

• nauka pod okiem mentora;
• fora dyskusyjne;
• dyskusje prowadzone przez ekspertów;
• seminaria sieciowe;
• spotkania w trybie online;
• lekcje w wirtualnych klasach.

background image

51

E-learning



Rozwiązania z zakresu e-learning powinny
zaspokajać rzeczywiste potrzeby organizacji i
stanowić integralną część programu szkolenia
i rozwoju personelu. Nie ma
sensu wprowadzać ich tylko dlatego, że
obniżają koszty.

Przechowywanie i
prezentowanie wiedzy

background image

52

Hurtownie danych



Hurtownia danych to rozbudowana baza
danych, która służy do przechowywania
ogromnych ilości informacji, pochodzących z
najrozmaitszych źródeł. Powinna
funkcjonować jako uniwersalny magazyn
danych, z którego można korzystać, chcąc
zastosować różnego typu narzędzia
analityczne.

Wśród podstawowych cech hurtowni
danych wymienia się:

• orientację tematyczną dane można uporządkować
według zagadnień biznesowych;
• jednorodność - dane wykorzystywane przez różne
aplikacje są przetwarzane z zachowaniem spójności;
• zmienność w czasie - dane podlegają aktualizacji
wraz ze zmianą uwarunkowań;
• stabilność - wprowadzanie i wyszukiwanie danych
w bazie nie nastręczają żadnych trudności.

background image

53

Dane zgromadzone w hurtowni mogą być podzielone na różne

kategorie i poziomy, takie jak:



szczegółowe dane bieżące,



szczegółowe dane historyczne,



dane słabo skondensowane (na potrzeby
kierowników średniego szczebla),



dane mocno skondensowane (na potrzeby
naczelnego kierownictwa),



metadane.

Hurtownia danych



Szczegółowe dane historyczne najczęściej umieszcza się na
najniższym poziomie struktury, ponieważ liczą co najmniej
2—3 lata i rzadko się do nich sięga.



Metadane opisują znaczenie i strukturę danych oraz sposób,
w jaki zostały stworzone, udostępnione i wykorzystane, a
także ułatwiają zlokalizowanie poszczególnych elementów
zawartości hurtowni oraz sporządzenie jej mapy. Ponadto są
wskazówką przy stosowaniu różnych algorytmów
syntetyzowania danych.

background image

54

Hurtownia danych



Funkcję hurtowni danych umożliwiającej
przechowywanie, przeszukiwanie i
przetwarzanie dużych zbiorów danych
najczęściej pełnią dzisiaj relacyjne bazy
danych. Praktycznie każde większe
przedsiębiorstwo posiada takie bazy danych,
wspomagające zarządzanie wynagrodzeniami,
sprzedażą, działalnością marketingową itp.

Wizualizacja



Technologie wizualizacji, ułatwiające
wychwycenie i zrozumienie
skomplikowanych zależności między danymi
dzięki użyciu rozbudowanej grafiki
komputerowej, mają stosunkowo krótką
historię. Stanowią one nieocenione narzędzie,
zwłaszcza jeśli chodzi o przedstawianie
efektów eksploracji danych czy wyszukiwania
informacji.

background image

55

W systemach wyszukiwania informacji na przykład dane można
obrazować i modelować z wykorzystaniem następujących
technik:



dwu- lub trójwymiarowe wykresy rozrzutu;



dwu- lub trójwymiarowe pola wektorowe z danymi
wyrażonymi w sposób geometryczny;



ujęcie danych w formie drzewa lub innej struktury
hierarchicznej w celu uzyskania pełniejszego obrazu
zagadnienia;



siatki przestrzenne;



mapy odzwierciedlające wzajemne usytuowanie elementów
domeny;



mapy bibliometryczne obrazujące wzajemne usytuowanie
autorów i ich prac oraz grupujące te osoby według różnych
kryteriów.

Narzędzia wizualizacji



Bardziej zaawansowane narzędzia
wizualizacji wykorzystują kolor oraz techniki
renderingu i fotorealizmu,

background image

56

Przechowywanie i prezentowanie
wiedzy - podsumowanie



Wiele ze stosowanych w tej dziedzinie
technik w dłuższej perspektywie z pewnością
zostanie przeniesionych na grunt zarządzania
wiedzą wymusi to rosnąca złożoność samych
informacji i ich analizy.


Wyszukiwarka

Podobne podstrony:
12 TECHNOLOGIA I KONTROLA ZAGES Nieznany (2)
Linear Technology Top Markings Nieznany
Efektywne zarzadzanie projektam Nieznany
12 Zarzadzanie strategiczne a Nieznany (2)
Holistyczne zarzadzanie placami Nieznany
PODSTAWY ZARZADZANIA KONTROLA Z Nieznany
prjket technologiczny id 320215 Nieznany
PODSTAWY TECHNOLOGII 1 id 36842 Nieznany
1 Podstawy zarzadzaniaid 8628 Nieznany
4 zarzadzanie bezpieczenstwem i Nieznany (2)
Podstawy zarzadzania (prezentac Nieznany
02 NoZ def model zarzadzanie ki Nieznany
3 Personel i Zarzadzanie Mediac Nieznany
18 Technologia strugania wyrown Nieznany
20 Technologia toczenia i obtac Nieznany
etyka2 personel zarzadzajacy id Nieznany

więcej podobnych podstron