1
Technologie zarządzania
wiedzą
Dr Joanna Paliszkiewicz
Cele
Scharakteryzować podstawowe kategorie technologii
stosowanych w zarządzaniu wiedzą;
Omówić rozmaite technologie: wyodrębnienia,
porządkowania, przechowywania i upowszechniania
wiedzy;
Ukazać różnice funkcjonalne między
poszczególnymi typami technologii;
Dobierać technologie zarządzania wiedzą
odpowiednio do istniejących potrzeb.
2
Narzędzia porządkowania
wiedzy
Narzędzia porządkowania wiedzy –
ontologia i taksonomia
Zasoby wiedzy można zobrazować za pomocą
schematu przedstawiającego jej składniki
(podstawowe terminy) i ich wzajemne
powiązania. Nazywamy to „mapą wiedzy” lub
„ontologią”.
3
Ontologia - definicja
Ontologia - formalna specyfikacja wspólnej
warstwy pojęciowej.
Gruber (1993)
To oznacza, że ontologia dostarcza formalnego słownictwa do opisania danej
dziedziny.
Budowa ontologii (wg. Usholda i
Gruningera)
1.
Określenie celu i zakresu
2.
Trzyetapowy proces budowy ontologii
a)
kodowanie ontologii - zdefiniowanie podstawowych
terminów, takich jak „klasa”, „jednostka” czy „relacja”
oraz wybór języka lub symboli opisu;
b)
połączenie istniejących ontologii.
3.
Ocena ontologii.
4.
Dokumentacja ontologii.
5.
Sformułowanie wytycznych dla poprzednich faz.
4
Budowa ontologii - wady
Jednakże ontologie tworzone bez wykorzystywania
technologii, poza tym, że ich konstruowanie
pochłania dużo czasu, są podatne na błędy i dość
kłopotliwe pod względem bieżącego uzupełniania i
poprawiania (Ding, Foo, 2002).
Jeśli następuje istotna zwłoka w aktualizacji,
ogranicza to użyteczność ontologii i hamuje jej
rozwój. Te mankamenty przyczyniły się do wzrostu
zainteresowania pół- lub w pełni automatycznymi
systemami budowania ontologii.
Do znajdowania pojęć ze strumienia nieprzetworzonych danych
wykorzystuje się wiele stosunkowo zaawansowanych metod, takich jak:
oznaczanie części mowy w celu identyfikacji najczęściej powtarzających
się słów lub fraz, które następnie można użyć do definiowania pojęć i
przeprowadzenia analizy składniowej;
ujednoznacznianie sensu słów w celu wyodrębnienia relacji typu „jest
(czymś)” albo „jest związany z (czymś)”, gdzie różnica tkwi w
językowych właściwościach rzeczowników;
segmentacja ciągu znaków na krótsze odcinki rozgraniczone znakiem
separatora (na przykład spacje między wyrazami) i ustalenie długości
każdego ciągu;
dopasowywanie wzorców - system może na przykład zapamiętać zestaw
słów tworzących pary oraz ich znaczenie i na tej podstawie wyszukiwać w
dokumencie gotowe wyrażenia.
5
Automatyczna klasyfikacja ontologii –
systemy uczące się
Podstawowym aspektem najnowszej generacji
automatycznych klasyfikatorów jest wykorzystanie
systemów uczących się. Są to systemy, które uczą
się rozpoznawać i klasyfikować informacje na
podstawie przykładowego zestawu danych. Im
większy i bardziej różnorodny ten przykładowy
zestaw, tym większa jest trafność rozpoznawania.
Ponadto ta generacja klasyfikatorów charakteryzuje
się wysokim stopniem uniwersalności. Można je
wykorzystywać wielokrotnie w odniesieniu do
różnych dziedzin, co pozwala obniżyć całkowite
koszty tworzenia ontologii.
Sposoby przedstawiania ontologii:
Forma hierarchii pojęciowej, podobnej
wyglądem do taksonomii;
Układ grafów z zestawem wyrazów
bliskoznacznych dla każdego słowa;
Format języka znaczników XML.
6
Wady narzędzi do tworzenia ontologii:
Narzędzia te mogą mieć na przykład problem z interpretacją
tego samego słowa w różnych kontekstach lub rozpoznaniem
różnych wyrażeń odnoszących się do tego samego pojęcia.
Pomocne w tym względzie są systemy uczące się, które
potrafią same rozpoznawać i przyswajać pewne wzorce, ale
analizowane dane często charakteryzują się bardzo
skomplikowanymi, trudnymi do wykrycia zależnościami.
Podstawowy problem zatem to niebezpieczeństwo spłycenia
semantycznego obrazu dziedziny, która w rzeczywistości jest
znacznie głębsza i bogatsza.
Poza tym skonstruowana automatycznie ontologia może
odbiegać od wyobrażeń danej społeczności lub grupy
ekspertów.
Aktualnie wyróżnia się następujące
sposoby integrowania ontologii:
wykorzystywanie istniejącej ontologii łączącej
wybrane dziedziny;
wzajemne dopasowywanie ontologii poprzez
mechanizmy translacyjne, oparte na technologii
agentowej;
scalanie istniejących ontologii w jedną nową
ontologię;
łączenie ontologii poprzez grupowanie elementów
na zasadzie podobieństwa.
7
Semantyka
Przez semantykę rozumiemy znaczenie, jakie
jednostki lub grupy przypisują danemu
terminowi lub pojęciu.
Narzędzie wyodrębniania
wiedzy
8
Mapy poznawcze
Każdy człowiek przypisuje poszczególnym
obszarom wiedzy swoje własne ontologie albo
- inaczej - mapy poznawcze.
Taka mapa stanowi wizualne przedstawienie
danej dziedziny, powstaje w wyniku
uzmysłowienia pojęć składających się na
daną dziedzinę oraz łączących je zależności.
Mapy poznawcze
W wypadku zarówno pojedynczych osób, jak i całych
organizacji mapy poznawcze najczęściej mają
charakter ukryty, pozostają niezwerbalizowane.
Zawarta w nich wiedza uchodzi za kluczowe źródło
przewagi konkurencyjnej, gdyż jest trudna do
wyartykułowania i skopiowania, bardzo zależy od
kontekstu i ma bezpośrednie przełożenie praktyczne
(Ambrosini, Bowman, 2002; Bareny, 1991; Grant, 1996).
9
Narzędzia do sporządzania map
poznawczych
Sporządzanie mapy poznawczej to użyteczna metoda
obrazowania wiedzy i doświadczenia jednostki oraz jej
spojrzenia na rzeczywistość
(Eden, Ackermann, 1998; Weick, Bougon, 1986).
Za podstawę metody służy sformułowana przez Kelly”ego
teoria konstruktu osobistego (Kelly, 1955). Ramy całego
procesu wytycza następujące stwierdzenie:
Dopóki nie usłyszę, co mówię, dopóty nie wiem, co myślę.
Narzędzia do sporządzania map
poznawczych
Obecnie narzędzia do sporządzania map
poznawczych wykorzystuje się przede
wszystkim do mapowania wiedzy
strategicznej (Huff, Jenkins, 2002) przy
użyciu map związków przyczynowych.
10
Mapy związków przyczynowych
Mapy związków przyczynowych to mapy poznawcze, w
których poszczególne elementy są powiązane gęstą siecią
zależności przyczynowo-skutkowych.
Mapy związków przyczynowych
Główna zaleta map związków przyczynowych
polega na tym, że pozwalają uporządkować i
przeanalizować coś, co jest rozmyte i
niekonkretne, poprzez zobrazowanie relacji
między pojęciami
(Ambrosini, Bowman, 2002; Weick, Bougon, 1986).
11
Narzędzia do sporządzania map poznawczych są wykorzystywane w
procesie budowania strategii firmy do ujawniania:
wiedzy ukrytej,
założeń,
teorii,
wartości,
przekonań,
aspiracji i obaw członków naczelnego
kierownictwa
Metody sporządzania map
poznawczych
Technika kart owalnych w połączeniu z
odpowiednim oprogramowaniem (np.
Decision Explorer), wyposażonym w
praktyczne narzędzia do graficznej
prezentacji, wyszukiwania i analizowania
danych.
Metoda ta, oparta na myśleniu wizualnym,
pozwala skonkretyzować pojęcia i idee oraz
występujące między nimi powiązania.
12
Etapy sporządzania mapy z użyciem
kart owalnych
1.
Prowadzący prosi grupę o skupienie się na pytaniu lub
zagadnieniu.
2.
Uczestnicy pokrywają obszar roboczy, na przykład ścianę,
dużymi arkuszami białego papieru.
3.
Każdy z uczestników otrzymuje zestaw kart owalnych, na
których, odwołując się do posiadanej wiedzy, będzie
zapisywał swoje opinie na dany temat w celu ich
późniejszego zaprezentowania grupie.
4.
Na każdej karcie powinna być zapisana tylko jedna myśl.
Etapy sporządzania mapy z użyciem
kart owalnych
5.
Uczestnicy zostają poinformowani, że karty nie mogą być
usuwane (chyba że za zgodą całej grupy), a ewentualne
sprzeciwy należy wyrażać jasno i otwarcie.
6.
Prowadzący układa zapisane karty w grupy i podgrupy. Jeśli
potrzebuje więcej czasu na zastanowienie, zwłaszcza gdy ma
problem z identyfikacją wątków i zależności, może stworzyć
grupę przejściową, do której trafiają karty trudne do
zaklasyfikowania.
7.
Prowadzący ustala powiązania między poszczególnymi
kartami lub grupami kart według kryterium „środki i cele”
lub „warianty i zamierzone efekty”. Innymi słowy sprawdza,
do jakich innych stwierdzeń lub ich grup prowadzą
poszczególne wypowiedzi.
13
Metoda sporządzania map
poznawczych
To zbiorowe ćwiczenie. w którym obowiązują
jednolite zasady w wypadku każdego zadania,
pozwa1a uczestnikom spojrzeć na
zagadnienie z różnych punktów widzenia i
być może zmienić swoje podejście do sprawy
bez konieczności obrony swojego stanowiska.
tym samym sprzyja ono społecznym
negocjacjom i pełniejszemu utożsamianiu się
z grupą i jej przyjętymi utaleniami.
Budowanie strategii z wykorzystaniem
modelu „kropli”
W procesie budowy strategii mapy związków przyczynowych
przekształca się do modelu „kropli”, w którym na samym
szczycie znajdują się cele lub pożądane skutki.
Są to pojęcia umieszczone na końcu ciągu strzałek, z których
nie wychodzą kolejne strzałki oznaczające następstwa.
Poniżej znajduje się warstwa z pojęciami określanymi jako
zagadnienia lub strategie, prowadzące do realizacji dążeń. P
odstawę stanowią bardziej szczegółowe opcje lub posunięcia,
które decydują o kształcie potencjalnych strategii.
14
Za pomocą programu komputerowego można przeprowadzić
pogłębioną analizę mapy poznawczej. aby:
zidentyfikować najczęściej wykorzystywane
pojęcia;
oszacować położenie danego pojęcia
względem środka ciężkości danej struktury;
zbadać sprzężenie zwrotne.
Narzędzia do wyszukiwania informacji
W klasycznym podejściu wyszukiwanie informacji opiera się
na dwóch procesach.
Pierwszy z nich polega na stworzeniu indeksu umożliwiającego
poznanie struktury dokumentu i lokalizację określonego tekstu. Dane
tekstowe mogą być wprowadzone do systemu i od razu przetworzone,
na przykład poprzez usunięcie słów pospolitych. Często nazywa się to
logiczną perspektywą dokumentu. Indeks przyspiesza wyszukiwanie
informacji i obniża koszty przetwarzania danych. Jego brak oznacza
konieczność dokładnego przeszukiwania każdego zapisu po kolei.
Wszystkie systemy wyszukiwania informacji mają indeks ułatwiający
zlokalizowanie odpowiednich wpisów poprzez zastosowanie metody
listy odwróconej.
Drugi proces polega na tym, że wyszukuje się odpowiedzi na zadane
pytanie, wykorzystując specjalne algorytmy, za których pomocą
uporządkowuje się wyniki wyszukiwania według ich różnie rozumianej
przydatności dla użytkownika.
15
Hierarchiczna klasyfikacja terminów
Indeks zbioru dokumentów, artykułów czy raportów
rynkowych można stworzyć z wykorzystaniem
hierarchicznej klasyfikacji terminów występujących
w tekście. Każdemu elementowi zbioru przypisuje
się charakteryzujące go hasła indeksu i w ten sposób
ułatwia przeszukiwanie zbioru. Tę metodę już od
dawna wykorzystuje się w bibliotekach. Przykładem
takiego indeksu są kody SIC (Standard Industry
Classification - standardowa klasyfikacja branżowa),
służące do opisywania dokumentów.
Uniwersalna klasyfikacja
Inny przykład to spotykana w większości bibliotek
uniwersalna klasyfikacja dziesiętna Deweya, według której
dzieli się całą wiedzę na 999 poddziałów rozbitych na wiele
jeszcze węższych kategorii, uwzględniających wszelkie
niuanse poszczególnych dziedzin. Hasła indeksu często są
zbiorem wybranych kluczowych pojęć, których znaczenie
ułatwia ustalenie głównych tematów dokumentu. Indeks
może być tworzony ręcznie, przez odpowiedniego specjalistę,
lub automatycznie, tj. z wykorzystaniem narzędzi do
indeksowania tekstów.
Efektywność tych narzędzi stale się zwiększa i w niektórych
wypadkach jest porównywalna do ludzkiej.
16
Proces automatycznej klasyfikacji tekstu może
obejmować jedną lub więcej z poniższych czynności:
Analiza leksykalna. Wyodrębnienie słów z ciągu
znaków, obejmującego (oprócz liter) cyfry, znaki
przestankowe i myślniki.
Skracanie. Słowa, które występują w dokumentach
zbyt często, na przykład pospolite słowa
(stopwords), są eliminowane, gdyż nie nadają się na
kryterium wyszukiwania. Z jednej strony, pozwala
to zmniejszyć rozmiary indeksu, ale z drugiej może
prowadzić do pominięcia istotnych pozycji w
wynikach.
Proces automatycznej klasyfikacji tekstu może
obejmować jedną lub więcej z poniższych czynności:
Ponieważ znaczenie zdania zależy głównie od rzeczowników, to one
najczęściej służą za hasła indeksu, a nie czasowniki, przedimki,
przymiotniki, przysłówki czy spójniki. Rzeczowniki, które występują w
tekście obok siebie, mogą być połączone w jedno hasło zwane grupą
rzeczowników (na przykład analiza efektywności inwestycji). Usprawnia
to znacznie wyszukiwanie.
Usuwanie afiksów (stemming), czyli pozbawianie słów przyrostków i
przedrostków w celu zwiększenia skuteczności wyszukiwania. Chodzi o
to, aby za pomocą wyszukiwarki odnajdywać nie tylko te dokumenty, w
których pojawia się słowo podane przez użytkownika, lecz także te, w
których występuje ten sam rdzeń. Na przykład po wpisaniu wyrazu
„budowa” odnajdzie się między innymi takie słowa, jak „budować”,
„budowla”, „budowniczy” czy „budowlany”.
17
Powiązania
W wypadku analizy leksykalnej i grupowania
rzeczowników może się pojawić dodatkowe
powiązanie z terminami niewystępującymi w
indeksie, które odgrywają rolę alternatywnych
deskryptorów w procesie wyszukiwania.
Powiązanie takie ustanawia się ręcznie bądź
automatycznie.
Nadawanie struktury:
Po zakończeniu klasyfikacji, jeśli w ogóle ją przeprowadzono, należy
nadać indeksowi określoną strukturę. Oto trzy najpopularniejsze
rozwiązania:
Lista odwrócona. W większości wypadków jest to najlepszy wariant. Pod
tym terminem kryje się po prostu słowniczek czy też lista (indeks) słów
występujących w tekście, przy których podano miejsce ich wystąpienia.
Pliki sufiksów. Tekst jest traktowany nie jako ciąg słów, ale jako zbiór
danych o strukturze pliku. Indeksy tego typu są szczególnie przydatne przy
złożonych zapytaniach dotyczących zasobów, w których słowa nie są
podstawowymi elementami, jak na przykład genetyczne bazy danych.
Pliki sygnatur. Przy tej strukturze indeksu analizowany tekst jest dzielony na
bloki. Pozwała to przyspieszyć wyszukiwanie dzięki zmniejszeniu rozmiarów
tekstu, ale jednocześnie oznacza sekwencyjne przeszukiwanie
poszczególnych bloków. W większości zastosowań listy odwrócone
sprawdzają się znacznie lepiej niż pliki sygnatur.
18
Wyszukiwanie informacji
Po zindeksowaniu tekstowej bazy danych
można przystąpić do wyszukiwania
informacji. W tym celu należy sprecyzować
swoje potrzeby informacyjne, wpisując w
interfejsie użytkownika słowa wytyczające
kierunek poszukiwań.
Proces wyszukiwania informacji
Chcąc sformułować zapytanie z użyciem
kluczowych słów, można się posłużyć regułami
stosowanymi w klasyfikacji tekstów. Zapytanie po
wprowadzeniu zostaje przetworzone tak, aby można
je było przedstawić w postaci haseł i struktur. W tym
celu przeprowadza się analizę współwystępowania,
częstotliwości występowania i pozycji terminów
oraz ewentualnie semantyki i składni. Podobnemu
procesowi są poddawane dokumenty w bazie
danych, a następnie reprezentacja zapytania jest
porównywana z reprezentacją dokumentu.
19
Zapytanie można formułować:
z użyciem operatorów logicznych („czy”, „i”, „ale” itp.),
które pozwalają bardzo precyzyjnie określić kryteria
wyszukiwania; jest to metoda najpopularniejsza, a zarazem
najczęściej wykorzystywana w systemach komercyjnych; jej
główna wada polega na tym, że dokładne trzymanie się
zadanej kombinacji operatorów może zaowocować zbyt małą
lub zbyt dużą liczbą wyszukanych dokumentów;
wektorowo - hasłom indeksu zostają przypisane wagi
odpowiadające częstotliwości ich występowania w
dokumencie; założenie jest takie, że hasła pojawiające się
rzadziej przeważnie są bardziej istotne dla wyników
wyszukiwania;
Zapytanie można formułować:
probabilistycznie - poszczególnym dokumentom zostają
przypisane prawdopodobieństwa, że okażą się zgodne z
potrzebami użytkownika; ta metoda jest dość
problematyczna, gdyż wyliczenie tego prawdopodobieństwa
graniczy z niemożliwością, jeśli nie istnieje mechanizm
sprzężenia zwrotnego pozwalający systemowi na lepsze
rozpoznanie potrzeb użytkownika;
za pomocą wyrażeń rozmytych, co pozwala rozszerzyć
zapytanie o całą grupę wyrazów bliskoznacznych, a tym
samym zwiększyć liczbę wyszukanych dokumentów.
20
Proces wyszukiwania informacji
Wyszukane dokumenty następnie szereguje się
według prawdopodobieństwa ich przydatności,
opartego na zgodności z logicznym, wektorowym
lub probabilistycznym wzorcem zapytania. Na tym
etapie niektóre systemy umożliwiają użytkownikowi
aktywny udział w procesie wyszukiwania poprzez
wskazanie, czy dany dokument odpowiada jego
potrzebom. Następuje wówczas przeformułowanie
algorytmu wyszukiwania tak, aby można było
odnaleźć inne dokumenty podobne do wskazanego.
Mechanizm ten nazywa się zwrotnym uściślaniem
zawartości.
Proces wyszukiwania informacji
Ponieważ w większości organizacji bazy danych
rozrastają się w tempie wykładniczym, niezbędne
stają się technologie wyszukiwania, umożliwiające
szybkie i sprawne dotarcie do potrzebnych
informacji.
Jedno z możliwych rozwiązań polega na przetwarzaniu
równoległym, gdy wyszukiwaniem zajmuje się kilka
procesorów jednocześnie, przy czym każdy koncentruje
się na innym aspekcie problemu.
Inna metoda to przetwarzanie rozproszone, gdzie z
zapytaniem zmaga się kilka komputerów połączonych w
sieć.
21
Automatyczne wyszukiwarki
Automatyczne wyszukiwarki sieciowe są
najpopularniejszym sposobem znajdowania
informacji w Internecie. Opierają się one
głównie na połączeniu indeksatora ze
szperaczem
Szperacze - opis
Szperacz to program oparty na technologii agentowej, wysyłający do
serwerów sieciowych pytania o nowe lub zaktualizowane strony.
Rezultaty pracy szperaczy zostają następnie zindeksowane przez
wyszukiwarkę.
Indeksy najczęściej przybierają jedną z możliwych postaci listy
odwróconej.
Druga część wyszukiwarki zajmuje się zapytaniem użytkownika.
Najczęściej internauci podają dwa słowa, a średnia długość zapytania
wynosi 2,3 słowa.
Wyszukiwarka przegląda indeks według różnego typu algorytmów, a
następnie szereguje rezultaty.
Niektórzy uważają, że jeśli zawartość Sieci dalej będzie się rozrastać w
tempie wykładniczym, wyszukiwarki oparte na modelu indeksator-
szperacz przestaną się sprawdzać.
22
Metoda wyszukiwania rozproszonego
Alternatywą dla powyższego modelu jest metodą
wyszukiwania rozproszonego, gdzie wiele
połączonych ze sobą serwerów sieciowych odgrywa
rolę zbieraczy (na podobieństwo szperaczy) lub
„brokerów” (obsługują interfejs zapytań i
indeksowanie), dzieląc pracę pomiędzy siebie.
W Sieci funkcjonują także metawyszukiwarki, które
wysyłają zapytanie do różnych wyszukiwarek, a
następnie sortują otrzymane odpowiedzi, aby
zaprezentować je użytkownikowi według
określonego kryterium.
Technologia agentowa
Technologia agentowa to programy komputerowe,
które funkcjonują jak roboty (w sposób
autonomiczny) z zadaniem znalezienia najlepszego
rozwiązania w ramach wyznaczonej im funkcji.
Inaczej mówiąc, mają umiejętność samodzielnego
działania w pewnym otoczeniu i osiągania
naznaczonych przez ich twórcę celów. Potrafią
pracować bez ingerencji człowieka i sprawować
kontrolę nad swoimi poczynaniami i stanem
wewnętrznym
23
Technologia agentowa
Programy agentowe są podobne do szperaczy,
które identyfikują określony materiał pod
względem treści, struktury i właściwości.
Wyspecjalizowane szperacze potrafią się
uczyć na podstawie informacji pochodzących
od użytkownika i modyfikować rezultaty
swojego działania odpowiednio do zdobytej
wiedzy.
Technologia agentowa
Osiągnięciem tej technologii są inteligentne systemy
agentowe, które charakteryzują się elastycznym i
samodzielnym działaniem. Ich elastyczność polega
na wrażliwości na zmiany w otoczeniu, zdolności
dostosowania się do sytuacji i podejmowania działań
z własnej inicjatywy oraz umiejętności współpracy z
innymi tego typu systemami lub ludźmi w celu
sprawniejszego rozwiązywania problemów.
24
Technologia agentowa
Programy agentowe są szczególnie przydatne przy
pracy z systemami złożonymi, bo nadają im
modularną strukturę. Mówiąc krótko, dzielą duży,
skomplikowany problem na mniejsze, prostsze,
łatwiejsze w operowaniu składniki. Następnie
rozwiązują po kolei te mniejsze problemy przy
użyciu odpowiednich w danym wypadku technik.
Inną metodą stosowaną przez programy agentowe w
systemach złożonych jest wyodrębnianie. Polega to
na potraktowaniu systemu jako zbioru
współpracujących ze sobą, autonomicznych
programów agentowych.
Zastosowanie technologii agentowej
Filtrowanie poczty elektronicznej. Programy agentowe traktują jako
lekcję każdy ruch użytkownika. Po pewnym czasie zaczynają
przewidywać jego zachowania na podstawie odkrytych prawidłowości.
Wraz ze wzrostem trafności tych przewidywań system zaczyna podsuwać
użytkownikowi sugestie dotyczące nadchodzącej poczty, ułatwiając mu
połapanie się w lawinie e-maili. Jest to funkcja szczególnie przydatna dla
osób borykających się z przeciążeniem informacyjnym, skupiających się
wyłącznie na swoich potrzebach informacyjnych i niechcących marnować
czasu na inne rzeczy.
Obsługa transakcji wewnątrzorganizacyjnych. Za pomocą programów
agentowych działy lub filie przedsiębiorstwa negocjują między sobą
warunki dostaw, takie jak cena, termin i jakość. Zapewnia to obsługę
klientów wewnętrznych w systemie just-in-time.
25
Zastosowanie technologii agentowej
Owijki agentowe (agent wrappers). Rozwiązanie stosowane
w dużych organizacjach, umożliwiające okresową
aktualizację danych wykorzystywanych w ramach
kluczowych funkcji poprzez interakcję oprogramowania z
innymi częściami systemu.
Streszczanie. Analiza tekstu dokumentów w celu wyszukania
kluczowych zdań.
Zarządzanie wiadomościami z serwisów informacyjnych.
Filtrowanie, grupowanie, streszczanie i dostarczanie
wybranych wiadomości do odpowiednich adresatów.
Wady technologii agentowych
brak nadrzędnego systemu kontrolującego;
zdolność do znajdowania optymalnych rozwiązań w
skali lokalnej, ale nie globalnej;
długi okres rozwoju, jaki musi przejść program
agentowy, zanim człowiek może mu spokojnie
powierzyć podejmowanie określonych decyzji;
problem niedostosowania do potrzeb użytkownika w
wypadku zmiany preferencji.
26
Technologia personalizacji
Wykorzystując technologię agentową,
opracowano technologię umożliwiającą
automatyczne zindywidualizowanie
informacji przesyłanych użytkownikowi.
Podstawowy cel personalizacji to
stuprocentowe zaspokojenie potrzeb każdego
użytkownika. System sam z siebie
dopasowuje się na bieżąco do jego wymagań.
Technologia personalizacji
W wypadku wyszukiwania informacji personalizacja
może polegać na ograniczeniu pola poszukiwań do
kategorii najczęściej przeglądanych przez daną
osobę albo na przypisaniu większych wag
dokumentom z tych kategorii. System personalizacji
potrafi optymalizować kryteria wyszukiwania na
podstawie analizy kluczowych słów
charakteryzujących grupy zainteresowań, do których
jest podłączony użytkownik, lub przeglądane
przezeń dokumenty. Ponadto może analizować
schematy zapytań i wyniki wyszukiwania pod kątem
zgodności z potrzebami użytkownika
27
Cookie
Przedsiębiorstwa wykorzystują technologię
personalizacji, aby poszerzyć swoją wiedzę o
zachowaniach i preferencjach klientów.
Najpopularniejszym narzędziem służącym do
osiągnięcia tego celu są cookies. Są to małe
pliki umieszczane w komputerze
użytkownika, umożliwiające witrynom
internetowym jego identyfikację.
Cookie
Za pomocą cookie narusza się prywatność użytkownika i
odczytuje jego preferencje z bazy danych. Zazwyczaj pliki te
zawierają tylko numer identyfikacyjny oraz informacje
dotyczące ostatniej wizyty na danej witrynie. To jednak
wystarcza przedsiębiorstwu, aby powiązać z danym
komputerem pochodzące z innych źródeł informacje na temat
jego użytkownika.
Całkiem zrozumiałe wydają się obawy, że cookies mogą
posłużyć do wykradania prywatnych tajemnic lub numerów
kart kredytowych. Można oczywiście zablokować swój
komputer przed inwazją internetowych szpiegów, ale często
przekracza to umiejętności przeciętnego człowieka. W wielu
wypadkach użytkownicy nawet nie zdają sobie sprawy, że
narusza się ich prywatność.
28
Wartościowanie wiedzy
Wnioskowanie na podstawie podobnych przypadków
Wnioskowanie na podstawie podobnych przypadków (Case-
based Reasoning CBR) jest jednym z elementów sztucznej
inteligencji.
Systemy CBR umożliwiają gromadzenie przykładów różnych
problemów wraz z ich rozwiązaniami i poprzedzającym je
tokiem rozumowania, a następnie wyszukiwanie przypadków
odpowiadających określonym kryteriom. Użytkownik może
scharakteryzować swój aktualny problem za pomocą
rozmaitych deskryptorów i sprawdzić w bazie przypadków,
czy ktoś wcześniej nie uporał się już z podobną przeszkodą.
Jeśli znajdzie odpowiedni przykład, zostaje potem powiązany
z aktualnym problemem po wprowadzeniu do bazy jego
opisu, analizy i rozwiązania.
29
CBR
Systemy CBR umożliwiają gromadzenie przykładów różnych
problemów wraz z ich rozwiązaniami i poprzedzającym je
tokiem rozumowania, a następnie wyszukiwanie przypadków
odpowiadających określonym kryteriom.
Użytkownik może scharakteryzować swój aktualny problem
za pomocą rozmaitych deskryptorów i sprawdzić w bazie
przypadków, czy ktoś wcześniej nie uporał się już z podobną
przeszkodą.
Jeśli znajdzie odpowiedni przykład, zostaje potem powiązany
z aktualnym problemem po wprowadzeniu do bazy jego
opisu, analizy i rozwiązania.
Przykładowo, w systemie CBR wspomagającym realizację przedsięwzięć
budowlanych zastosowano następujące deskryptory przypadków:
problemy - wymagania i możliwości klienta, specyfikacja i
ś
rodowisko projektu, rozkład czynników ryzyka i zależności
między nimi;
rozwiązania realizacyjne sposoby zaopatrzenia, struktura i
formy kontraktu oraz struktura zarządzania projektem;
rezultaty przedsięwzięcia - odchylenia od harmonogramu i
budżetu, zgodność ze specyfikacją, bezpieczeństwo, usługi
konserwacyjne po oddaniu do użytku, obciążenia
administracyjne, trwałość obiektu, stopa zwrotu z projektu.
30
CBR
Oprogramowanie CBR okazuje się szczególnie
przydatne w wypadku telefonicznych centrów
obsługi klienta, których pracownicy często słyszą
powtarzające się pytania. Mogą wówczas wyszukać
istniejące rozwiązania i ewentualnie zaadaptować je
na potrzeby bieżącej sytuacji, aby następnie
uzupełnić zasoby systemu o swoje doświadczenia,
wnioski i rozwiązania.
Wielowymiarowe przetwarzanie analityczne OLAP -
Online Analytical Processing
OLAP - umożliwia
analizę danych podzielonych
na rozmaite kategorie w wielu wymiarach,
przekrojach i rzutach.
31
Zgodnie z definicją OLAP Council wielowymiarowe
przetwarzanie analityczne zapewnia użytkownikowi:
wszechstronną interpretację danych poprzez
możliwość ich oglądania w wielu różnych
przekrojach, tworzonych szybko i spójnie w
drodze interakcji ze zbioru nieprzetworzonych
danych, w celu odzwierciedlenia wszystkich
aspektów wielowymiarowości
przedsiębiorstwa istotnych dla użytkownika.
Wielowymiarowe przetwarzanie analityczne
OLAP - Online Analytical Processing
Podstawowym elementem OLAP jest
wielowymiarowa kostka danych, gdzie każdy
wymiar odpowiada jednej zmiennej. Analiza
polega na obracaniu i przecinaniu tej kostki
pod różnymi kątami. Nazywa się to techniką
cięcia i rzutowania (suce and dice).
32
Eksploracja w bazach danych
Termin eksploracja danych (data mining)
oznacza proces generowania wiedzy ze zbioru
ustrukturalizowanych danych.
Eksploracja danych czy - inaczej -
odkrywanie wiedzy, obejmuje cykliczny
proces selekcji i analizy danych,
interpretowania modelu i syntetyzowania
rezultatów.
Etapy rozwoju technik odkrywania
wiedzy:
Pierwszy etap (lata osiemdziesiąte XX wieku): koncentracja
na pojedynczych zadaniach, takich jak tworzenie
klasyfikatorów, wyszukiwanie powiązanych ze sobą danych
oraz wizualizacja danych według jednego schematu.
Drugi etap (około 1995 roku): pakiety eksploracyjne
wspomagające wstępną obróbkę i selekcję danych,
wyposażone w różne możliwości odkrywania wiedzy.
Trzeci etap: proces odkrywania obejmuje wszelkie aspekty
danej dziedziny wiedzy, dostarczając gotowych rozwiązań w
takich obszarach, jak marketing, wykrywanie oszustw,
kontrola produkcji czy Internet.
33
Narzędzia odkrywania wiedzy:
Systemy eksperckie imitują sposób rozumowania
specjalistów dysponujących dużą wiedzą w wąskiej
dziedzinie. Składają się one z wiedzy bazowej, obejmującej
dane i reguły, oraz z mechanizmu wnioskowania logicznego,
który generuje nowe reguły i dane na podstawie
zgromadzonej wiedzy. Wada systemów eksperckich polega
na ich ograniczeniu do wąskiej dziedziny, uzależnieniu od
wiedzy specjalistów, braku jasności i wewnętrznych
sprzecznościach. Mankamenty te próbuje się eliminować,
tworząc systemy eksperckie oparte na logice rozmytej, w
których prawdziwość lub fałszywość stwierdzenia nie jest
określona jednoznacznie, lecz może być stopniowana w skali
od O do 1.
Narzędzia odkrywania wiedzy:
Drzewa decyzyjne opierają się na prostym modelu drzewa, w
którym każda gałąź reprezentuje odrębną klasę lub podklasę.
Drzewa decyzyjne są przydatne, gdy użytkownik chce
uzyskać ogólną orientację w danych, aby dalsze
postępowanie zawierzyć swej intuicji.
Indukcja reguł to wykorzystanie metod statystycznych do
wykrywania reguł odnoszących się do częstotliwości
korelacji, marginesu błędu i trafności prognoz. Reguły te
zazwyczaj przybierają postać stwierdzenia „jeśli..., to...”.
34
Narzędzia odkrywania wiedzy:
Algorytmy genetyczne i programowanie genetyczne są wzorowane na
mechanizmach naturalnej selekcji i służą wykształcaniu złożonych
struktur danych. Znajdują zastosowanie przy rozwiązywaniu trudnych
zadań z zakresu optymalizacji. Ich główna wada polega na tym, że nie
wyjaśniają zależności między danymi.
Sieci neuronowe albo sieci ze wsteczną propagacją błędów to narzędzia,
które imitują budowę i sposób funkcjonowania mózgu. Połączenia między
sztucznymi neuronami mogą mieć przypisaną różną wagę, co pozwala
systemowi przyswajać i zapamiętywać informacje. Sieci neuronowe są
przydatne przede wszystkim w sytuacjach, gdy dysponujemy dużym
zbiorem danych historycznych, które można wykorzystać jako materiał
treningowy. Ich wartość polega na zdolności przetwarzania danych
wielowymiarowych, zawierających dużo szumu informacyjnego. Jednak
sieci neuronowe nie ułatwiają zrozumienia istoty zjawisk, a poza tym
nieraz wymagają długiego okresu treningowego.
Narzędzia odkrywania wiedzy:
Pamięć asocjacyjna polega na zapisywaniu w modelu
pamięci długookresowej powiązanych ze sobą par danych. Te
pary mogą być potem wyszukane i wykorzystane do
wykształcenia nowych powiązań, prowadzących do
twórczego wyjścia z nietypowych sytuacji.
Techniki grupowania nadają się idealnie do wstępnej
klasyfikacji danych. Ich działanie polega na identyfikacji
ś
ciśle powiązanych ze sobą danych. Mogą one przetwarzać
wielowymiarowe zbiory danych zawierające szum
informacyjny, ale przeważnie wymagają sporo czasu, aby
poprawie identyfikować zależności.
35
Odkrywanie wiedzy w postaci prawidłowości charakteryzujących
zbiór danych można podzielić na następujące kategorie zadań:
analiza zależności - wyszukiwanie powiązań i
ciągów danych;
identyfikacja klas - grupowanie pojęć i tworzenie
taksonomii matematycznych;
opis pojęć - streszczanie, rozgraniczanie i
porównywanie różnych pojęć;
określanie odchyleń - badanie nieprawidłowości i
zmian w danych;
wizualizacja - przedstawianie wyników analizy.
Odkrywanie wiedzy - problemy
Podstawowym problemem w obszarze
odkrywania wiedzy jest stworzenie
inteligentnego systemu, który zwiększałby
selektywność wyszukiwania oraz potrafił
lepiej zaspokoić potrzeby użytkownika.
36
Systemy uczące się
Systemy uczące się uważa się za kluczowe
narzędzie w odkrywaniu wiedzy zapisanej w
bazach danych ze względu na łatwość
przedstawienia skomplikowanych danych czy
rozwiązania nieprecyzyjnie zdefiniowanego
problemu oraz wyszukiwania informacji
różnymi metodami.
Systemy uczące się
Elastyczność systemów uczących się czyni je niezwykle
przydatnymi do rozwiązywania problemów, w których
niewiele wiadomo o ich kontekście.
Na potrzeby tych systemów opracowano niezwykle skuteczne
algorytmy:
boosting,
support vector machines.
Warto podkreślić, że na rynku występuje duża liczba
systemów uczących się, które w wypadku rozbudowanych
baz danych są naprawdę niezastąpione.
37
Upowszechnianie wiedzy
Upowszechnianie wiedzy
Internet
Intranet
Extranet
38
Internet
Początki Internetu sięgają 1969 roku, kiedy Adyanced
Research Projects Agency (Agencja Badań Naukowych)
zainteresowała się możliwością połączenia łączami
komputerowymi ośrodków naukowych i akademickich na
całym świecie. Ośrodki te miały własne sieci komputerowe,
lokalne (LocalArea Neworks LAN), obejmujące komputery
usytuowane blisko siebie i połączone zwykłymi kablami, lub
rozległe (Wide Area Networks — WAN), o większym zasięgu
terytorialnym, z łączami podobnymi do telefonicznych.
Internet wymyślono jako sieć łączącą te wszystkie sieci w
jedną całość i obsługiwaną przez specjalne komputery zwane
ruterami.
Internet
Generalnie biorąc, stworzono coś na kształt systemu
pocztowego, który wymagał ustalenia uniwersalnego zestawu
reguł, określającego sposób przesyłania i odbierania danych.
Ten zestaw reguł czy inaczej — protokół nazwano TCP/IP
(Transmission Control Protocol/Internet Protocol); dzieli on
zbiór danych lub informacji na pokaźne pakiety przesyłane do
komputera ulokowanego w innym punkcie sieci, a TCP
składa je na miejscu przeznaczenia w całość. Każdy
komputer w Internecie ma własny niepowtarzalny adres IP,
dzięki czemu każdy pakiet danych jest oznakowany adresem
nadawcy i adresem odbiorcy.
39
Internet
Jednym z podstawowych zastosowań
Internetu jest poczta elektroniczna. Oprócz
zwykłych wiadomości umożliwia ona
przesyłanie w postaci załączników,
sformatowanych dokumentów oraz plików
graficznych, dźwiękowych i wideo.
Internet
Całe oprogramowanie stosowane w Internecie opiera
się na technologii klient-serwer. Oznacza to, że dany
program działa albo jako serwer oferujący usługi
innym komputerom podłączonym do sieci, albo jako
klient korzystający z usług serwerów. Wszystkie
dane, czy to w postaci e-maili, czy stron
internetowych, są przechowywane w komputerach
zwanych serwerami. Program-klient prosi o
informacje umieszczone na innym komputerze, a
program-serwer wysyła żądaną informację do klienta
poprzez Internet.
40
Internet
Podstawowym dokumentem w sieci WWW jest strona internetowa o
określonej lokalizacji. Lokalizację tę określa adres URL (Uniform
Resource Locator), czyli inaczej identyfikator strony zaczynający się od
takiego skrótu, jak „http” lub „ftp”. Kiedy klikamy na odsyłacz,
przeglądarka (klient) wysyła pod dany adres prośbę o wybraną stronę, a w
odpowiedzi serwer przesyła ją do komputera.
W przeszłości większość stron internetowych tworzono z użyciem języka
znaczników HTML (Hypertext Markup Language). Każda taka strona
składa się z ciągu znaczników albo instrukcji
- określających rozmieszczenie i wygląd elementów tekstowych,
graficznych, wideo i dźwiękowych - oraz z odsyłaczy do innych
dokumentów.
XML
Niedawno pojawił się nowy język znaczników — XML (Extensible
Markup Language), stanowiący uzupełnienie HTML i zwiększający
użyteczność Sieci.
O ile HTML przekazuje głównie informacje dotyczące sposobu
formatowania strony, o tyle XML dostarcza także cennych informacji co
do jej zawartości. Na przykład znacznik HTML wskazuje jedynie, że dana
liczba ma być wyświetlona w określony sposób, z użyciem wytłuszczonej
lub pochylonej czcionki, jako nagłówek lub tekst właściwy. Natomiast
XML pozwala także opisać, co oznacza dana liczba, czy jest to prędkość,
data, czy wielkość sprzedaży. Te dodatkowe informacje umieszczone w
kodzie strony umożliwiają nowym programom komputerowym
automatyczne operowanie danymi i ich interpretację oraz wykonywanie
różnych działań bez bezpośredniej ingerencji człowieka. Informacje te
nazywa się metadanymi, czyli danymi na temat danych.
41
XML
Metadane są ściśle powiązane z ich zawartością i zapewniają bezpośredni do niej
dostęp.
W roku 1995 opracowano standard opisu zasobów bibliotecznych za pomocą
metadanych, nazwany Dublin Core. Umożliwia on pełniejszą kontrolę nad
zasobami zgromadzonymi w Sieci. W opisie wykorzystuje się następujące
elementy: tytuł, autor, temat i kluczowe słowa, opis, wydawca, współtwórca, data,
typ zasobu, format, identyfikator zasobu, źródło, język, odniesienie, zakres,
zarządzanie prawami. Pojawiły się także inne standardy opisu, tworzone
specjalnie na użytek różnych sektorów gospodarki. Przyjmują one postać pliku
DTD (Document Type Definition), często nazywanego słownikiem, a
określającego formalną strukturę dokumentu zapisanego w języku XML. Ze
względu na globalny zasięg Internetu XML opiera się na zestawie znaków
Unicode, który docelowo ma obejmować znaki wszystkich alfabetów świata.
Ponadto XML uwzględnia kierunek pisania tekstu (na przykład od prawej do
lewej w języku arabskim), reguły dzielenia wyrazów oraz zasady zwracania się do
innych osób.
XML - zalety
Przedsiębiorstwa mogą udostępnić swoje zasoby danych
klientom i dostawcom przy stosunkowo niskim nakładzie
pracy poprzez stworzenie odrębnych schematów DTD dla
poszczególnych partnerów.
Plik źródłowy można odczytywać w różnej postaci i na
różnych platformach typu komputer osobisty, komputer
kieszonkowy, notes elektroniczny itp. Ponieważ informacje
zawarte w dokumentach XML są tak szczegółowe,
zapewniają znacznie lepsze efekty wyszukiwania za pomocą
wyszukiwarek sieciowych.
42
XML - wady
Korzystając z istniejących standardów
branżowych, będzie można tak ustawić
wyszukiwarki oparte na języku XML, aby
preferowały informacje, opinie, produkty i
usługi.
Rozwój sieci WWW
Rozwój sieci WWW, zdaniem jej twórcy, Tima Bernersa-
Lee, będzie zmierzać W kierunku sieci semantycznej. Sieć
taka zapewniałaby użytkownikowi natychmiastowy dostęp do
szczegółowych informacji potrzebnych do podjęcia decyzji,
bez konieczności przeglądania całej masy dokumentów.
Chodzi o to, aby uczynić sieć bardziej efektywną. Jednak
standardowym językiem i formatem sieci semantycznej
będzie najprawdopodobniej nie XML, lecz RDF (Resource
Description Framework), który obrazuje powiązania w
sposób bezpośredni i jednoznaczny w postaci
zdecentralizowanego modelu, a specjalne programy, zwane
parserami, z łatwością mogą odszyfrować tak zapisane
informacje.
43
Intranet
Intranet to sieć komputerowa oparta na technologii
internetowej, ale o zasięgu ograniczonym do jednej
organizacji. Obejmuje takie funkcje, jak poczta
elektroniczna, zdalny dostęp, narzędzia do pracy
zespołowej, równoczesne korzystanie z aplikacji
oraz wewnętrzny system komunikacji. Chroni ona
zasoby informacyjne organizacji przed
nieuprawnionymi użytkownikami za pomocą
oprogramowania typu firewall, które uniemożliwia
osobom postronnym wejście do sieci z zewnątrz, ale
jednocześnie nie blokuje pracownikom dostępu do
Internetu.
Najpopularniejsze zastosowania
intranetu to:
• dostęp do baz danych;
• fora dyskusyjne;
• rozsyłanie dokumentów elektronicznych;
• zarządzanie wynagrodzeniami i
ś
wiadczeniami pracowniczymi;
• szkolenia online;
• pomoc dla użytkowników — zestawienia
odpowiedzi na najczęściej zadawane pytania
(FAQ).
44
Intranet
Budując sieć wewnętrzną, organizacja powinna się
wystrzegać tworzenia wielkich, skomplikowanych
systemów wyposażonych w wyrafinowane funkcje,
z których nikt nie korzysta. Wszelkie rozwiązania
należy projektować pod kątem rzeczywistych, jasno
określonych potrzeb użytkowników. Inne
niebezpieczeństwo polega na wykorzystaniu
intranetu do wznoszenia elektronicznych barier
dzielących organizację, wbrew deklarowanej
zasadzie wymieniania się wiedzą.
Bezpieczeństwo intranetu
Większość organizacji korzysta z technologii
firewall w celu zabezpieczenia swoich
zasobów informacyjnych przed
nieuprawnionymi osobami.
45
Do najważniejszych funkcji systemów
firewall należą:
• kontrola dostępu do sieci na różnych poziomach
uprzywilejowania;
• kontrola na poziomie aplikacji;
• zarządzanie uprawnieniami użytkowników;
• izolowanie określonych usług;
• tworzenie kopii zapasowych i analiza raportów;
• alarmowanie;
• maskowanie wewnętrznej struktury sieci;
• ochrona poufności;
• odpieranie ataków elektronicznych włamywaczy.
Bezpieczeństwo intranetu
Za pomocą systemu firewall bada się (z użyciem specjalnego
filtra) każdy pakiet danych przesyłany do sieci, aby odrzucić
te wiadomości lub próby dostępu, które nie spełniają
kryteriów określonych przez administratora.
Zaawansowany firewall wykorzystuje dwa filtry pakietów,
które uzupełniają się nawzajem. Atak na tak zabezpieczony
serwer nie zagraża sieci wewnętrznej. Jednak o
stuprocentowym bezpieczeństwie nie ma mowy. W celu
zwiększenia skuteczności technologii firewall w przyszłości
najprawdopodobniej będzie się wykorzystywać technologie
szyfrujące.
46
Internet oferuje klika sposobów wymiany myśli,
poglądów i informacji w trybie tekstowym
Grupy dyskusyjne to globalne fora poświęcone
najrozmaitszym tematom. Mają one postać elektronicznych
tablic ogłoszeniowych, na których użytkownicy umieszczają
swoje wiadomości, aby inni mogli je przeczytać.
Innym rodzajem publicznego forum ułatwiającego dzielenie
się wiedzą na określone tematy są listy dyskusyjne.
Wystarczy się zapisać na taką listę, aby za pośrednictwem e-
maila otrzymywać wiadomości wysyłane przez jej członków i
ewentualnie na nie odpowiadać. W przeciwieństwie do grup
dyskusyjnych nad listami dyskusyjnymi czuwa przeważnie
moderator, który ma prawo blokować dostęp do listy osobom,
które pisząc wiadomości, łamią ustalone zasady
Internet oferuje klika sposobów wymiany myśli,
poglądów i informacji w trybie tekstowym
Ogromną popularnością cieszą się tzw. chaty, czyli
tematyczne kawiarenki internetowe, w których użytkownicy
mogą rozmawiać ze sobą na żywo, wystukując wypowiedzi
na klawiaturze. Jeśli z czasem liczba odwiedzających dany
chat znacząco wzrasta, można z niego wyodrębnić kolejne,
węższe tematycznie chaty.
Pojawiły się już też kawiarenki internetowe obsługujące
komunikację głosową. Użytkownicy umawiają się na
spotkanie w kawiarence o konkretnej godzinie, aby potem do
woli wymieniać się przemyśleniami i informacjami.
47
Narzędzia do pracy w grupach
Oprogramowanie do pracy w grupach ma
przede wszystkim ułatwiać ludziom
współpracę, a tym samym dzielenie się
wiedzą. Od strony ekonomicznej założenie
jest takie, że lepsza współpraca prowadzi do
wzrostu produktywności, obniżenia kosztów i
poprawy jakości, bo zapewnia podejmowanie
trafniejszych decyzji.
Narzędzia do pracy w grupach
Narzędzia do pracy w grupach należą do
technologii informacyjno-komunikacyjnych
(Information Communication Technology -
ICT), wspomagających:
współpracę,
komunikację,
koordynację działań w czasie i przestrzeni,
korzystanie ze wspólnych obszarów roboczych
48
Narzędzia do pracy w grupach
Dwie najpopularniejsze technologie tej
kategorii to:
poczta elektroniczna,
dyskusyjne bazy danych Lotus Notes (Lotus
Notes uważa się powszechnie za pierwszy
produkt oferujący użytkownikom możliwość
korzystania z dyskusyjnych baz danych, e-maili z
załącznikami, wspólnych baz danych,
automatyzacji obiegu pracy oraz tworzenia
własnych aplikacji).
Narzędzia do pracy w grupach -
funkcje
• wspomaganie grupowego podejmowania
decyzji poprzez burzę mózgów, generowanie
pomysłów i głosowanie;
• kolektywne pisanie i wirtualne tablice;
• konferencje komputerowe;
• planowanie spotkań i terminarze zajęć;
• twórcze wykorzystanie poczty
elektronicznej.
49
Wideokonferencje
Technologia wideokonferencji biurkowych
(Desktop yideoconferencing — DTVC)
umożliwia dwóm lub więcej osobom
widzenie i słyszenie się za pośrednictwem
komputera osobistego, a tym samym wspólną
pracę i wymianę wiedzą bez wstawania od
biurka. Do przekazywania sygnału do
pozostałych rozmówców służą mała kamera i
mikrofon, umieszczone na monitorze.
Książka telefoniczna ekspertów:
katalog umiejętności
Organizacje często stają przed koniecznością wyszukania
wśród personelu osób mających określone umiejętności lub
wiedzę, potrzebne do rozwiązania zaistaniałego problemu. Z
tego względu wiele firm prowadzi obecnie coś w rodzaju
wewnętrznych żółtych książek telefonicznych. Zawierają one
spis wszystkich pracowników wraz z krótką charakterystyką
ich wiedzy, umiejętności i doświadczenia. Do spisów tych ma
dostęp każdy zatrudniony. Wystarczy, że poda w intranetowej
wyszukiwarce odpowiednie kluczowe słowa, a otrzyma listę
specjalistów spełniających jego potrzeby.
Podobne katalogi można tworzyć dla istniejących w
organizacji wspólnot, grup zainteresowań i list dyskusyjnych.
50
E-learning
Przez pojęcie e-learning rozumiemy uczenie
się w trybie online oraz szkolenia z
wykorzystaniem komputerów lub Internetu.
Inaczej mówiąc, chodzi o zastosowanie
technologii internetowych do zarządzania
procesem nabywania wiedzy i umiejętności,
przy czym Internet wcale nie jest niezbędny
do osiągnięcia tego celu.
Najlepsze produkty w tej kategorii zazwyczaj wiążą się z całym
wachlarzem rozmaitych metod uczenia się, takich jak:
• nauka pod okiem mentora;
• fora dyskusyjne;
• dyskusje prowadzone przez ekspertów;
• seminaria sieciowe;
• spotkania w trybie online;
• lekcje w wirtualnych klasach.
51
E-learning
Rozwiązania z zakresu e-learning powinny
zaspokajać rzeczywiste potrzeby organizacji i
stanowić integralną część programu szkolenia
i rozwoju personelu. Nie ma
sensu wprowadzać ich tylko dlatego, że
obniżają koszty.
Przechowywanie i
prezentowanie wiedzy
52
Hurtownie danych
Hurtownia danych to rozbudowana baza
danych, która służy do przechowywania
ogromnych ilości informacji, pochodzących z
najrozmaitszych źródeł. Powinna
funkcjonować jako uniwersalny magazyn
danych, z którego można korzystać, chcąc
zastosować różnego typu narzędzia
analityczne.
Wśród podstawowych cech hurtowni
danych wymienia się:
• orientację tematyczną dane można uporządkować
według zagadnień biznesowych;
• jednorodność - dane wykorzystywane przez różne
aplikacje są przetwarzane z zachowaniem spójności;
• zmienność w czasie - dane podlegają aktualizacji
wraz ze zmianą uwarunkowań;
• stabilność - wprowadzanie i wyszukiwanie danych
w bazie nie nastręczają żadnych trudności.
53
Dane zgromadzone w hurtowni mogą być podzielone na różne
kategorie i poziomy, takie jak:
szczegółowe dane bieżące,
szczegółowe dane historyczne,
dane słabo skondensowane (na potrzeby
kierowników średniego szczebla),
dane mocno skondensowane (na potrzeby
naczelnego kierownictwa),
metadane.
Hurtownia danych
Szczegółowe dane historyczne najczęściej umieszcza się na
najniższym poziomie struktury, ponieważ liczą co najmniej
2—3 lata i rzadko się do nich sięga.
Metadane opisują znaczenie i strukturę danych oraz sposób,
w jaki zostały stworzone, udostępnione i wykorzystane, a
także ułatwiają zlokalizowanie poszczególnych elementów
zawartości hurtowni oraz sporządzenie jej mapy. Ponadto są
wskazówką przy stosowaniu różnych algorytmów
syntetyzowania danych.
54
Hurtownia danych
Funkcję hurtowni danych umożliwiającej
przechowywanie, przeszukiwanie i
przetwarzanie dużych zbiorów danych
najczęściej pełnią dzisiaj relacyjne bazy
danych. Praktycznie każde większe
przedsiębiorstwo posiada takie bazy danych,
wspomagające zarządzanie wynagrodzeniami,
sprzedażą, działalnością marketingową itp.
Wizualizacja
Technologie wizualizacji, ułatwiające
wychwycenie i zrozumienie
skomplikowanych zależności między danymi
dzięki użyciu rozbudowanej grafiki
komputerowej, mają stosunkowo krótką
historię. Stanowią one nieocenione narzędzie,
zwłaszcza jeśli chodzi o przedstawianie
efektów eksploracji danych czy wyszukiwania
informacji.
55
W systemach wyszukiwania informacji na przykład dane można
obrazować i modelować z wykorzystaniem następujących
technik:
dwu- lub trójwymiarowe wykresy rozrzutu;
dwu- lub trójwymiarowe pola wektorowe z danymi
wyrażonymi w sposób geometryczny;
ujęcie danych w formie drzewa lub innej struktury
hierarchicznej w celu uzyskania pełniejszego obrazu
zagadnienia;
siatki przestrzenne;
mapy odzwierciedlające wzajemne usytuowanie elementów
domeny;
mapy bibliometryczne obrazujące wzajemne usytuowanie
autorów i ich prac oraz grupujące te osoby według różnych
kryteriów.
Narzędzia wizualizacji
Bardziej zaawansowane narzędzia
wizualizacji wykorzystują kolor oraz techniki
renderingu i fotorealizmu,
56
Przechowywanie i prezentowanie
wiedzy - podsumowanie
Wiele ze stosowanych w tej dziedzinie
technik w dłuższej perspektywie z pewnością
zostanie przeniesionych na grunt zarządzania
wiedzą wymusi to rosnąca złożoność samych
informacji i ich analizy.