T 1. Teoria decyzji – co to takiego, czym się zajmuje, przykłady problemów, podział systematyczny, terminologia, podejście normatywne i deskryptywne, etc. - koniec
Najprościej rzec ujmując teoria decyzji jest to zagadnienie dotyczące podejmowania decyzji, zajmuje się ona badaniami multidyscyplinarnymi. Posiada wiele różnych podejść i tradycji badawczych. Skupia zainteresowanie wielu różnych dziedzin nauki, obejmujący analizę i wspomaganie procesu podejmowania decyzji, między innymi w kognitywistyce, matematyce itd. Metody teorii decyzji stosujemy wszędzie tam, gdzie koszt ich zastosowania może przynieść wymierne korzyści. Teoria decyzji zajmuje się sytuacją problemową w której podmiot staje przed koniecznością wyboru jednego z przynajmniej dwóch wariantów działania. W pierwszym kroku należy ustalić cel i warunki ograniczające decyzję, w rezultacie buduje się zbiór decyzji dopuszczalnych. Wyodrębniamy wszystkie istotne kryteria oceny decyzji i dokonujemy oceny każdej decyzji na podstawie kryteriów. Następnie budujemy model decyzyjny, czyli sposób wybrania decyzji optymalnej lub wystarczającej.
W ten sposób możemy wyróżnić:
- klasyczną inżynieryjną teorię decyzji szuka rozwiązań optymalnych/najlepszych w dziedzinie dobrze sformalizowanej
- kognitywistyczne teorie decyzji szukają rozwiązań wystarczających/ skutecznych
Klasyczna teoria decyzji zajmuje się:
- analizą decyzji – rozpatruje się konkretny przypadek decyzji podjętej przez osobę lub grupę osób; analiza polega na wyznaczeniu decyzji optymalnej oraz, jeśli podjęta decyzja nie była optymalna, znalezieniu przyczyn pomyłki;
- wspomaganiem decyzji – próbą wyznaczenia rozwiązania najlepszego przy danym zasobie wiedzy i informacji o możliwych konsekwencjach.
Metody teorii decyzji wykorzystuje się w przypadku:
- duża liczba możliwych wariantów
- skomplikowana sytuacja decyzyjna
- możliwość wysokich korzyści lub dużych strat
- skomplikowany proces decyzyjny
- waga problemu decyzyjnego
Podejście normatywne i deskryptywne:
- charakter normatywny, tzn. zajmuje się wyznaczeniem optymalnego rozwiązania przez idealnego decydenta, który całkowicie wykorzystuje dostępne mu informacje, wyznacza korzyści z perfekcyjną dokładnością i działa w pełni racjonalnie. Celem jest wyznaczenie decyzji optymalnej, to znaczy przynoszącej największe korzyści lub minimalizującej stratę.
Jeśli decyzja jest podejmowana w warunkach pewności, mówimy o deterministycznych metodach teorii decyzji, natomiast niepewnością i ryzykiem zajmują się metody niedeterministyczne. W przypadku, gdy znamy wszystkie możliwe konsekwencje wariantów decyzyjnych, wybór wariantu optymalnego sprowadza się do wyboru decyzji przynoszącej największe korzyści. W warunkach ryzyka konsekwencje każdej decyzji są określone przez rozkłady prawdopodobieństwa.
- podejście deskryptywne tzn. opisowe, opisujące typowe zachowania człowieka w danej sytuacji decyzyjnej i wskazuje na czynniki mające wpływ na podjęcie ostatecznej decyzji. Rozpatruje się takie czynniki jak: asymetria pomiędzy zyskiem i stratą, poprzednie porażki, selektywna uwaga, podejmowanie decyzji w warunkach zewnętrznego obciążenia Szczególnie silnie koncentruje się na zagadnieniach związanych ze skłonnością do podejmowania ryzyka.
Podział problemów decyzyjnych ze względu na posiadane informacje:
-decyzja podejmowana w warunkach pewności – każda decyzja pociąga za sobą określone, znane konsekwencje;
- decyzja podejmowana w warunkach ryzyka – każda decyzja pociąga za sobą więcej niż jedną konsekwencję, znamy zbiór możliwych konsekwencji i prawdopodobieństwa ich wystąpienia;
- decyzja podejmowana w warunkach niepewności – nie znamy prawdopodobieństw wystąpienia konsekwencji danej decyzji.
Psychologiczna teoria decyzji
Szczególnie przydatna w obszarze, gdzie podejście normatywne zawodzi: przy decyzjach podejmowanych w warunkach niepewności, rozwinięto na ten temat teorię subiektywnej oczekiwanej użyteczności (SEU). Teoria SEU zakłada, że podejmujący decyzje człowiek dąży do maksymalizacji użyteczności wyniku. Użyteczność rozumiana jest jako maksymalizacja szansy osiągnięcia celu. Zatem decyzje podejmowane są ze względu na pewien zamierzony stan przyszłości, a wybór optymalnego wariantu opiera się na porównaniu przewidywanego skutku działania do tego stanu.
Podejście kognitywistyczne
Koncentruje się na myślowym modelu podejmowania decyzji i meta-decyzji, i dotyczy zarówno człowieka jak i robota.
Komputerowe wspomaganie decyzji
W licznych obszarach działalności różne kategorie systemów pełnią różne role (np. systemy BI):
- systemy transakcyjne – zadaniem tych systemów jest dostarczanie aktualnych informacji, potrzebnych do podejmowania decyzji na poziomie operacyjnym
- hurtownie danych – dostarczają zagregowanych informacji potrzebnych do podejmowania decyzji taktycznych i strategicznych;
- systemy informowania kierownictwa – dostarczają z niższych systemów informacje przygotowane w sposób ułatwiający podejmowanie decyzji na najwyższych szczeblach kierowniczych
Systemy wspomagania decyzji – kategoria ta obejmuje dwa typy systemów:
- systemy klasy business intelligence – systemy analityczno-decyzyjne
- specjalistyczne systemy decyzyjne – ich zadaniem jest ułatwienie korzystania z jednego lub kilku modeli
T 2. Wielokryterialna analiza decyzyjna (Multi-Criteria Decision Anayisis) – co to takiego i jaki ma sens, optymalizacja wielokryterialna (sformułowanie zagadnienia, podstawowe metody), Pareto-optymalność. - koniec
Przypadkiem więcej niż jednego kryterium oceny decyzji zajmuje się dział teorii decyzji zwany wielokryterialną analizą decyzyjną, która angażuje wiele skonfliktowanych celów. Analiza ta dostarcza rozwiązanie, będącego kompromisem tych konfliktów, które zapewnia zadawalającą realizacje konkretnych celów. Rozwiązanie satysfakcjonujące nie musi być optymalne, a wielorakość celów wręcz wuklucza taką sytuacje. Istnieją dwie główne definicje problemu wielokryterialnego w ramach wielokryterialnej analizy decyzyjnej: amerykańska (MCDM) i europejska (MCDA).
Wielokryterialną sytuację decyzyjną scharakteryzować można następująco:
- wyodrębniona jest skończona liczba mierzalnych lub stopniowalnych celów opisującej obiekt decyzji
- cele są urzeczywistnione przez wspólny zbiór decyzji dopuszczalnych
- podstawę oceny i podjęcie oceny stanowi zespół kryteriów sformułowanych w stosunku do celów
- w zbiorze celów występuje zjawisko konkurencyjności, które powodują, że większy stopień realizacji jednego z celów oznacza zmieszenie stopnia realizacji innych celów
Trzy podstawowe problematyki, którymi zajmuję się wielokryterialna analiza decyzyjna:
- wybór
- porządkowanie (rangowanie)
- klasyfikacja/sortowanie
Główne modele postępowania:
- funkcjonalny – agregowanie różnych punktów widzenia w jedną funkcję, która musi być później zoptymalizowana
- relacyjny – polega na budowaniu relacji, zwanej relacją przewyższania, która na podstawie posiadanych informacji, reprezentuje ściśle określone preferencje podejmującego decyzje
- regułowy - preferencje wyrażone są za pomocą formuł logicznych
Optimum Pareta
Oznacza taki podział dostępnych dóbr, że nie można poprawić sytuacji jednego podmiotu (dostarczyć mu większej ilości dóbr) nie pogarszając sytuacji któregokolwiek z pozostałych podmiotów. Nazwa terminu pochodzi od nazwiska włoskiego ekonomisty - Vilfreda Pareta. Każda decyzja lepsza od decyzji pareto-optymalnej ze względu na pewne kryterium, musi być od niej gorsza ze względu na inne.
T 3. Model, rachunek prawdopodobieństwa i statystyka – czym jest model, podstawowe typy, sposoby tworzenia, prawdopodobieństwo (podstawowe definicje, zastosowanie), statystyka (metody, zastosowania, testowanie hipotez, estymacja), funkcja strat, planowanie eksperymentu.
-koniec
Model - zbiór pewnych reguł i/lub równań opisujących niektóre aspekty eksperymentu, zjawiska. Obiekt lub proces posiadający częściowo te same własności co oryginalny,
modelowany obiekt, lecz prostszy w opisie, działaniu, etc. Zazwyczaj ma na celu reprezentację rzeczywistego zjawiska w sposób ułatwiający jego analizę, może być formalny lub opisowy. Model do symulacji komputerowych - program umożliwiający śledzenie zmian pewnych parametrów modelowanego obiektu w czasie.
Typy:
Model korelacyjny skupia się na korelacji, a nie związkach przyczynowych.
Model deterministyczny - generuje odpowiedź dla zadanego wyjścia na podstawie pewnej stałej reguły.
Model stochastyczny (losowy) – generuje odpowiedź, spośród pewnego zbioru możliwości,
na podstawie ustalonych rozkładów prawdopodobieństwa (symulacja zachowań rzeczywistych systemów w warunkach losowych)
Model dynamiczny opisuje zmienny w czasie (dynamiczny) proces systemu
Model statyczny zakłada, że system znajduje się w stanie równowagi
Model analityczny – model matematyczny dany w postaci analitycznej, można znaleźć rozwiązanie (numerycznie bądź analitycznie)
Model symulacyjny – model, w którym rozwiąza4nie odczytuje się na podstawie jego symulacji
Model optymalizacyjny – przewidując zachowanie systemu bierzemy pod uwagę również zachowania innych decydentów mające wpływ na odpowiedź systemu, zakładając, że każdy z nich optymalizuje pewną funkcję kryterialną
Tworzenie modelu:
- Identyfikacja - ustalenie struktury oraz parametrów modelu
- Estymacja - znalezienie wartości parametrów na podstawie badań eksperymentalnych
- Walidacja - sprawdzanie poprawności modelu dla danych eksperymentalnych innych, niż użyte przy estymacji
Prawdopodobieństwo – ogólne określenie jednego z wielu pojęć mających na celu modelowanie doświadczenia losowego poprzez przypisanie poszczególnym zdarzeniom losowym liczby, zwykle z przedziału jednostkowego, wskazującej szansę jego zajścia.
Przestrzeń probabilistyczna – w teorii prawdopodobieństwa struktura umożliwiająca modelowanie doświadczenia losowego poprzez wskazanie zdarzeń losowych i przypisanie im w sensowny sposób prawdopodobieństwa; układ składający się z niepustego zbioru Ω nazywanego przestrzenią zdarzeń elementarnych, określonego na nim σ-ciała
nazywanego przestrzenią zdarzeń losowych oraz określonej na
(dodatniej) miary
spełniającej
i nazywanej miarą probabilistyczną bądź prawdopodobieństwem; w teorii miary tego rodzaju miary określa się jako unormowane.
Statystyka - gałąź matematyki zajmująca się zbieraniem, analizą, interpretacją i prezentacją danych numerycznych. Związana z i oparta na teorii prawdopodobieństwa. Zastosowania statystyki to: testowanie hipotez, estymacja charakterystyk numerycznych (parametrów), predykcja przyszłych obserwacji, opis powiązań (korelacji), modelowanie relacji (regresja).
Działy statystyki:
Eksperyment i obserwacja:
- Studium eksperymentalne: pomiary systemu, zmiana parametrów, kolejne pomiary
- Studium obserwacyjne: zbieranie danych bez manipulowania opisywanym systemem
Testowanie hipotez - Algorytm minimalizujący założone ryzyko, który określić ma, czy hipoteza może być prawdziwa. Hipoteza musi być określona w języku statystyki, aby dało się obliczyć odpowiednie prawdopodobieństwa.
Teoria estymacji - szuka wartości parametrów na podstawie danych empirycznych. Często zakłada się istnienie szumu lub zakłóceń.
Proces estymacji:
- zbudowanie modelu opisywanego systemu
- zbadanie ograniczeń estymatora
- sprawdzenie, czy estymator jest optymalny (jeśli znamy inne)
- przeprowadzenie eksperymentów sprawdzających estymator, czasem może się okazać, że estymator zbudowany został w oparciu o błędne dane
Funkcja strat - Przekształca zdarzenie w liczbę rzeczywistą opisującą jego koszt lub stratę z niego wynikającą. Koszt może być natury finansowej, jak i innej, np. śmiertelność, zachorowalność, etc. Zwykle funkcja strat związana jest z funkcją użyteczności U i jest równa k-U.
Projektowanie eksperymentu - Sir Ronald A. Fisher jako pierwszy statystyk rozważał metodologię projektowania eksperymentu, którą oparł na analizie wariancji.
4. Teoria gier - dział matematyki zajmujący się badaniem optymalnego zachowania w przypadku konfliktu interesów, wywodzi się z badania gier hazardowych,jednak zastosowanie znajduje głównie w ekonomii, biologii (szczególnie w socjobiologii), socjologii oraz informatyce
- reprezentacja gry - Forma normalna - Reprezentacja za pomocą macierzy przedstawiającej graczy, strategie i związane z nimi zyski. Zakładamy, że gracze wykonują ruch jednocześnie. Forma rozszerzona - Formalizuje gry o ustalonym porządku ruchów. Często reprezentowana w postaci drzewa. Możliwość reprezentacji gry z niepełną informacją (modyfikacja drzewa). Pozwala na analizowanie sytuacji decyzji podejmowanych przez graczy ekwencyjnie. Sposób z funkcją charakterystyczną - Dotyczy gier kooperatywnych, gdzie nie ma danych indywidualnych wypłat zysków. Funkcja charakterystyczna opisuje zysk dla każdej z możliwych koalicji. W przypadku utworzenia się koalicji, możemy rozpatrywać z jej punktu widzenia grę jako dwuosobową. Sposób z funkcją podziału - Umożliwia wzięcie pod uwagę nie tylko jednej koalicji. Dopuszcza możliwość uzależniania wyniku od sposobu podziału pozostałych graczy na koalicje
- gry nieskończone - Teoretycznie – nieskończona liczba ruchów, wygrana dopiero po ich zakończeniu. W rzeczywistości - w skończonej liczbie ruchów. Dla takich gier wykazuje się istnienie (lub nie) wygrywających strategii
- gra o sumie stałej- Gra w której zysk jednego gracza oznacza stratę drugiego. Proporcja zysku jednego gracza do straty drugiego w wyniku przejścia między dowolnymi stanami jest stała
- gra o sumie zerowej - Szczególny przypadek gry o sumie stałej. Np.: poker. Każdą grę można spróbować przekształcić w grę o sumie zerowej dodając dodatkowego gracza.
- gra Bayesowska - W grach takich nie znamy charakterystyk graczy. Modeluje się je wprowadzając Naturę jako dodatkowego gracza:przypisuje ona rozkłady prawdopodobieństwa wystąpienia odpowiednich cech u graczy. Gracze mają początkowe przekonania dotyczące innych graczy i modyfikują je w trakcie gry, na podstawie nowych informacji, za pomocą reguły Bayes’a
- gra symetryczna - wygrana zależy jedynie od strategii, a nie od gracza, który ją wybierze. Zwykle symetryczne są gry reprezentowane tablicą 2x2 (np. dylemat więźnia)
- strategia minmax. - Strategia polegająca na minimalizacji maksymalnej możliwej straty. Rekurencyjny algorytm pozwala na wybór optymalnego ruchu w dwuosobowej grze o sumie zerowej. Przyporządkowuje każdemu ruchowi liczbę opisującą jego wartość . Gracz wykonuje ruch maksymalizujący min. wartość kolejnej pozycji przy założeniu kolejnych ruchów przeciwnika.
5. Sztuczne sieci neuronowe – co to takiego i do czego służą, model neuronu, podstawowe typy sieci, podstawowe typy algorytmów uczenia, przykłady i możliwości ich zastosowań.
Sieć neuronowa – Zbiór prostych jednostek obliczeniowych przetwarzających dane, komunikujących się ze sobą i pracujących równolegle. Z każdym połączeniem skojarzona jest waga, która może zostać zmieniona w trakcie uczenia. SSN znajdują zastosowanie w rozpoznawaniu i klasyfikacji wzorców, predykcji szeregów czasowych, analizie danych statystycznych, odszumianiu i kompresji obrazu i dźwięku oraz w zagadnieniach sterowania i automatyzacji.
Model neuronu (budowa) - można rozpatrywać jako specyficzny przetwornik sygnałów. Podstawowe elementy składowe: n wejść neuronu wraz z wagami wi (wektor wag w i wektor sygnałów wejściowych x), jeden sygnał wyjściowy y.
Rodzaje SSN: Sieć jednowarstwowa - Składa się z węzłów wejściowych, oraz warstwy neuronów. W zależności od metody uczenia, oraz funkcji aktywacji może to być: perceptron prosty, sieć jednokierunkowa (sigmoidalna lub radialna), czy też sieć samoorganizująca typu Kohonena. Sieć wielowarstwowa - Składa się z węzłów wejściowych, jednej lub kilku warstw ukrytych, oraz warstwy wyjściowej. Sieci te to sieci jednokierunkowe sigmoidalne. Mogą być traktowane jako uniwersalne aproksymatory. Sieci rekurencyjne - Posiadają sprzężenie pomiędzy sygnałami wyjść, a wejściami sieci. Opis – dynamika nieliniowa: dynamiczne ustalanie się sygnałów (operatory opóźnień) i nieliniowe funkcje aktywacji.
Podstawowe typy algorytmów uczenia: Reguła perceptronu, Reguła Widrowa-Hoffa, Metoda wstecznej propagacji błędu, Reguła delta.
Zastosowania: Rozpoznawanie, klasyfikacja, Klasteryzacja, Analiza i przetwarzania obrazów, Przetwarzanie sygnałów (aproksymacja, filtracja), Predykcja szeregów czasowych, Optymalizacja, Pamięci autoasocjacyjne, Kompresja.
6. Podejście Bayesowskie – prawdopodobieństwo Bayesowskie, czym różni się od podejścia klasycznego, jak się je oblicza, wzory Bayesa (prawd. a priori i a posteriori), przykłady zastosowań, wnioskowanie Bayesowskie, klasyfikatory Bayesowskie. ZAKOŃCZONE
Jest to podejście, w którym zamiast prawdopodobieństwa (częstości, proporcji) występuje wiarygodność (prawdziwość) jakiegos zdarzenia lub twierdzenia. Dzięki temu można przypisać prawdopodobieństwa nie tylko zdarzeniom losowym, ale również innym typom zdarzeń. Ponadto różni obserwatorzy mogę przypisać jednemu i temu samemu zdarzeniu różne wiartgodności (prawdopodobieństwo subiektywne). Występuje tu również modyfikacja stwierdzeń na podstawie nowo uzyskanych informacji i dowodów. W miarę zbierania informacji hipotezy staja się coraz bardziej lub mniej prawdopodobne. (np. prawdopodobieństwo tego, że żul Wacław najebie się jutro pod sklepem jest bardzo duże. Mamy na to 40 lat dowodów. Dodatkowo jutro to prawdopodobieństwo wzrośnie jeszcze bardziej, bo przeciez na bank się najebie).
Twierdzenie Bayesa dla dwóch zdarzeń solowych A i B:
P(A|B) = P(B|A)P(A)\P(B)
P(A|B)P(B) = P(B, A) = P(B|A)P(A)
P(A) - prawdopodobieństwo a priori, oznacza prawdopodobieństwo przed pojawieniem się informacji o B
P(A|B) - prawdopodobieństwo a posteriori, A pod warunkiem B
P(B) - aprioryczne prawdopodobieństwo B, stała normalizująca
Prosty (lub naiwny) klasyfikator Bayesowski:
- zakładamy niezależność zmiennych (zwykle jest to niespełnione)
- klasyfikator uczy się metodami nauczania z nauczycielem (nauczajacym nauczania nauki...)
- pomimo swej prostoty i niespeniania wiekszości wymaganych warunków działa bardzo dobrze i jest powszechnie stosowany
- jest przydatny do testowania hipotez i do minimalizacji błędów pierwszego rodzaju. Ponadto jest podstawa wielu metod rozpoznawania wzorców.
7. Systemy eksperckie – czym są, co mogą, czym różnią się od innych systemów wnioskujących, reguły i sposoby wnioskowania, reprezentacja wiedzy, przykłady zastosowań, data mining, drzewa decyzyjne, etc. ZAKOŃCZONE
System ekspercki to system komputerowy emulujący proces podejmowania decyzji przez eksperta (zastępowanie człowieka-eksperta programem komputerowym o analogicznych zdolnościach i wiedzy). Systemy ekspertowe rozwiązują złożone problemy na podstawie analizy baz wiedzy, a nie realizację prostego algorytmu jak to ma miejsce w przypadku programów tradycyjnych. Dodatkowo systemy eksperckie mogą mieć dostęp do innych niż urzytkownik i baza danych źródeł informacji (czujniki, systemy raportujące), oraz mogą byc zdolne do wywołania określonych procedur w celu uzyskania dodatkowych danych.
System ekspercki składa się z co najmniej 2 elementów:
- silnika programu i interfejsu urzytkownika umożliwiającego zadawanie pytań i znajdywanie na nie odpowiedzi
- bazy danych spośród której wyszukiwana jest najlepsza możliwa odpowiedź
- opcjonalnie mechanizmu wyjasniającego opowiedzi. Bardzo trudny lub niemożliwy do zaimplementowania w tradycyjnym systemie. Zbudowany na zasadzie “if... then...”
- opcjonalnie edytora bazy danych
Przykładowe zastosowania:
- diagnozowanie chorób
- poszukiwanie złóż minerałów
- identyfikacja struktur molekularnych
- udzielanie porad prawnych
- diagnoza problemu (np. nieprawidłowego działania urządzenia)
- dokonywanie wycen i kalkulacji kosztów naprawy pojazdów przez firmy ubezpieczeniowe.
- prognozowanie pogody
- sterowania robotami, automatycznymi pojazdami, rakietami, statkami kosmicznymi
- analiza notowań giełdowych
Powody stosowania:
- Zastąpienie ludzkiego eksperta, ponieważ wiedza przez niech posiadana jest trudna do przekazania, szczegółowa i dotyczy najczęściej bardzo wąskiej dziedziny.
- Pozwala również na zawarcie wiedzy wielu ekspertów w danej dziedzinie w jednym programie komputerowym
Różniece między tradycyjnym systemem wnioskowania:
- Główna różnica to sposób zakodowania problemu. W tradycyjnym systemie wiedza zakodowana jest w programie (regółach, algorytmach) oraz w strukturach danych.
- W systemie ekspertowym wiedza zakodowana jest jedynie w bazie danych (strukturach danych / bazie wiedzy). Reguły wnioskowania i dochodzenia do odpowiedzi na pytanie sa niezależne od problmu (uniwersalne).
Reguły wnioskowania są elementami bazy danych i składają się z dwóch części: warunku i zdania wynikowego. Przesledzienie reguł pozwala na przygotowanie wyjeśnienia. Proces wnioskowania polega na odpytaniu urzytkownika i wyszukaniu w bazie pasujących zdarzeń. Urzytkownik nie musi odpowiadac na wszystkie pytania.
Data mining:
- jest to proces wydobywania wiedzy z baz wiedzy (baz danych)
- zadaniem jest znalezienie pewnych niewidocznych początkowo prawidlowości w durzych zbiorach danych
- metody dataminingu oparte są głównie na statystyce, uczeniu maszynowym i sieciach neuronowych
Drzewa decyzyjne:
- są to grafy opisujące decyzje i ich możliwe konsekwencje
- istnieja drzewa regresyjne, które aproksymują funkcje o wartościach rzeczywistych(np klasyfikacja samochodów na podstawie ich spalania), oraz drzewa klasyfikacji dla zmiennych dyskretnych (na przykład te nieszczęsne irysy)
- zalety drzew to przejżystość informacji, szybka analiza dużych zbiorów danych, oraz uniwersalność
8. Zbiory rozmyte i logika rozmyta – podstawowe pojęcia i definicje teorii zbiorów rozmytych, podstawy logiki rozmytej, sposoby opisu, liczba i przedział rozmyty, sposoby implementacji, wyostrzanie, zastosowania. ZAKOŃCZONE
Logika rozmyta ( fuzzy logic), jedna z logik wielowartościowych, stanowi uogólnienie klasycznej dwuwartościowej logiki. Została zaproponowana przez Lotfi Zadeha, jest ściśle powiązana z jego teorią zbiorów rozmytych. W logice rozmytej między stanem 0 (fałsz) a stanem 1 (prawda) rozciąga się szereg wartości pośrednich, które określają stopień przynależności elementu do zbioru. Funkcja przynależności przyjmować może wartości z ciągłego zbioru [0,1], a nie jedynie wartości 0 lub 1. Neuro – fuzzy systems - Systemy łączące cechy wnioskowania w oparciu o logikę rozmytą z teorią sieci neuronowych.
Sposób stosowania logiki rozmytej:
Zapisuje się zdania warunkowe i wynikowe, lub tworzy tablice asocjacyjne dla zdań typu: IF variable IS set THEN action.
Wyostrzanie - Proces przedstawienia wyników działania logiki rozmytej w sposób możliwy do późniejszego wykorzystania. Zwykle wynik działania systemu rozmytego opisany jest jako przynależność do zbiorów rozmytych możliwych działań. Rolą wyostrzania jest przetłumaczenie tego na konkretne działanie. Wyostrzanie – podstawowe metody: Metoda maksimum, Metoda środka ciężkości, Metoda średnich wartości centrów.
Zastosowania logiki rozmytej: ABS, kontrola trakcji, Sprzęt AGD: pralki, zmywarki, suszarki, Kuchenki, Cyfrowe przetwarzanie obrazów, Sprzęt fotograficzny, Gry komputerowe.
9. Zbiory przybliżone – Formalne uogólnienie klasycznej teorii zbiorów. Opracowane przez prof. Zdzisława Pawlaka w latach 80.Stanowią podstawę aproksymacji zbiorów klasycznych za pomocą przybliżenia dolnego i górnego zbioru
- własności - Definiowalność zbiorów. Redukt zbioru. Usunięcie rdzenia skutkuje zmianą struktury klas abstrakcji zbioru. Możliwość analizy znaczenia danych. Możliwość tworzenia zbioru decyzji na podstawie wprowadzonych danych.
- reprezentacja danych - system danych LERS może wywoływać wartości z niespójnych danych. Algorytm LEM2 przetwarza je przy pomocy aproksymacji. Dane pewne pochodzą z dolnego zaokrąglenia, prawdopodobne - z górnego.Informacja w systemie opartym na metodzie zbiorów przybliżonych przechowywana jest w postaci stabelaryzowanej. Zapis taki reprezentuje zgromadzoną wiedzę w postaci reguł IF-THEN.
- zależność atrybutów - Wybierzmy dwa rozłączne zbiory atrybutów P i Q, oraz odpowiadające im klasy abstrakcji. Niech oznacza strukturę klas abstrakcji wynikającą z Q. Wtedy zależność zbioru atrybutów Q od zbioru atrybutów P definiujemy jako:
- przykłady zastosowań - Bioinformatyka, Ekonomia i finanse, Medycyna i farmakologia, Multimedia, Web- i text- mining, Przetwarzanie sygnałów i obrazów, Robotyka, Systemy automatyki, Systemy baz danych, w analizie i klasyfikacji danych (w obrębie metod eksploracji danych). Są rezultatem badań dotyczących reprezentacji i analizy danych. Umożliwiają modelowanie niepewności (zbiór rozmyty).
10. Kognitywistyka
Dział nauki zajmujący się badaniem, opisywaniem i modelowaniem zjawisk dotyczących działania ludzkiego umysłu. Zajmuje się również metodami uczenia i rozwoju, tworzeniem sztucznej inteligencji, a także modelowaniem pamięci. Ważnym elementem kognitywistyki jest badanie umiejętności językowych człowieka, czyli lingwistyka. Do metod badawczych kogniwistyki należą metody znane z innych dziedzin naukowych, takie jak:
-eksperymenty behawioralne : mierzenie czasu reakcji, mierzenie odpowiedzi psychofizycznej, śledzenie ruchów gałki ocznej
- obrazowanie mózgu: tworzenie map mózgu przy pomocy technik takich jak EEG, wstrzykiwanie do krwi kontrastu,
- modelowanie obliczeniowe: tworzenie modeli komputerowych, modelowanie symboliczne i podsymboliczne
- metody neurobiologii: stymulacja mózgu, obserwacja aktywności pojedynczych neuronów, badania zwierząt, badania post mortem
11. Odporne metody analizy danych
Dziedzina statystyki zajmująca się projektowaniem metod odpornych na dane błędne, niepełne lub słabej jakości. Naczęściej występujące błędne dane:
- błędy grube
- dane odstające
Powodem ich występowania mogą być szumy, błędy człowieka, błędy urządzeń.
Model wykorzystywany w statystyce odpornej:
Gross error model F = (1-ε) Φ + εG, gdzie ε - szum lub zakłócenia
Metody uczenia sieci są dedykowane dla danych z gaussowskim rozdkładzie błędów. Uczenie sieci neuronowych przy wykorzystaniu błędnych danych powoduje modelowanie nieprawidłowych relacji. Tak zamodelowana sieć będzie działała nieprzewidywalnie, nawet jeśli będzie pracowała na poprawnych danych.
12. Podejście ewolucyjne i alg. genetyczne
Podejście oparte na przeszukiwaniu przestrzeni rozwiązań za pomocą utworzonej losowo populacji rozwiązań. Każdy osobnik jest reprezentowany za pomocą genotypu. Utworzone rozwiązania są oceniane na podstawie odpowiednich kryteriów, a następnie selekcjonowane. Najlepsze z rozwiązań są ze sobą krzyżowane oraz poddawane mutacjom. Operacje te są wykonywane przy pomocy operatorów genetycznych. Jeśli kolejne pokolenie utworzonych rozwiązań jest wystarczająco dobre, wtedy algorytm się zatrzymuje. W przeciwnym wypadku populacja jest ponownie selekcjonowana oraz poddawana działaniu operatorów genetycznych.