8857685664

8857685664



przetwarzanie danych wejściowych w celu wygenerowania sygnału diagnostycznego, stanowiącego sygnał wejściowy innych metod przetwarzania, jak np. kompresji danych [34], [29] czy redukcji wymiarowości [147], [212], [232].

Metody inteligencji obliczeniowej wykorzystywane są do zwiększenia skuteczności mechanizmów klasycznych. Wśród takich metod można wyróżnić dwa stosowane podejścia. Pierwsze opiera się na narzędziowym wykorzystaniu danej metody ze względu na własności, charakterystykę, szybkość działania czy rodzaj uzyskiwanych wyników. Przykładem jest zastosowanie sztucznych sieci neuronowych [218], [219], [233], [241], [247], [90]. Drugie podejście związane jest z wykorzystaniem analogii zadania detekcji zdarzeń do innych zjawisk, w szczególności spotykanych w naturze1. Podejście to ma zastosowanie dla zwiększania skuteczności działania mechanizmów klasycznych, a także wpływa na efektywniejsze wykorzystanie mocy obliczeniowych powszechnie dziś dostępnych komputerów (m.in. poprzez rozpraszanie obliczeń, zastosowanie architektury klastrowej/gridowej). Jednym z wykorzystywanych paradygmatów jest podejście immunologiczne [40], którego założenia i mechanizmy znajdują także odwzorowanie w przetwarzaniu sygnałów oraz detekcji zdarzeń w szeregach czasowych [59].

Z punktu widzenia niniejszej pracy szczególną rolę odgrywa analiza składowych szybkozmiennych. Jak wspomniano w poprzednim rozdziale, mogą one być uzyskane przez wyznaczenie reszt modeli predykcyjnych i traktowane jako procesy stochastyczne reprezentujące czynniki losowe wpływające na proces. Można oczekiwać, że w tych składowych znajdują odzwierciedlenie nagłe zdarzenia jakościowe zewnętrzne, zarówno incydentalne (ujawniające się w postaci krótkotrwałych anomalii), jak i te powodujące długoterminowe skutki. Dla takich sygnałów prowadzone są analizy diagnostyczne zmierzające do detekcji zdarzeń. Analizy te mogą być prowadzone zarówno w dziedzinie czasu [235], [205], [25] oraz częstotliwości [22].

Istotnym elementem selekcji informacji jest eliminacja mniej istotnych cech szeregu, pozwalająca na skuteczniejszą ocenę najbardziej istotnych cech badanych procesów. Przykładowo, dla badania współzależności szeregów czasowych w ekonometrii powszechnie stosowane są korelacje rangowe Spearmana [225] oraz korelacje x Kendalla [126].

18

1

W pracy [214] przeprowadzono analizę istnienia analogii pomiędzy sygnałem giełdowym, a sygnałem naturalnym - pulsem serca organizmu. Pomimo znalezienia podobieństw stwierdzono, że w obydwu przypadkach wiedza ekspercka ogrywa istotną rolę, co powoduje problemy algorytmizacji (brak możliwości identyfikacji modelu), natomiast można wykorzystywać podobne narzędzia analiz.



Wyszukiwarka

Podobne podstrony:
P6080220 Zadania bloku przetwarzania danych 11. Gromadzenie próbek sygnału (lub bieżąca analiza) Ide
c)    zgodę każdego członka zespołu na przetwarzanie danych osobowych w celu przeprow
Wstęp - model przetwarzania danych wejście
Wstęp - model przetwarzania danych wejście
Cześć, Andrzej! Witaj w chatbocie marki Semilac £ Czy wyrażasz zgodę na przetwarzanie danych osobowy
Slajd66 2 Analiza Analizę stanowisk pracy to systematyczny proces zbierania, analizowania i przetwar
Projektowanie eksperymentu, sygnały testowe; technika obróbki i przetwarzania danych pomiarowych. MA
Obraz0 3 Przetwarzanie danych układu EDCSygnały wejściowe Czujniki oraz nastawniki są urządzeniami
Obraz8 (5) 160 Przetworniki położenia tłoka (lub drogi tłoka) służą do wygenerowania sygnału propor
Metrologia15 X. W obrotowym przetworniku potencjometiycznym kąt ot będący sygnałem wejściowym przetw
Metrologia30 sygnał wejściowy przetwornika, w którym amplituda Em zmiennego sygnału wyjściowego - si
WP 1412228 Etap I - kodowanie stanów, sygnałów wejściowych ! wyjść yt Do kodowania stanów wystarczy
2)    Określenie danych wejściowych. 3)    Określenie celu. 4)
Kod korekcji Sygnał błędu M Wyjście danych Wejście danych _L / 4- Pamięć Działanie kodu

więcej podobnych podstron