W literaturze detekcja zdarzeń określana jest między innymi jako detekcja anomalii (ang. anomaly detection), nowości (ang. novelty detectioń) [165], [157], [157], [7], [223], [222], [144], [40], wartości odstających (ang. outlier detection) [197], [122], [2], [172], [145], [31], [224] czy zmian punktowych (ang. change point detection) [102], [184]. Znajdowanie w szeregu czasowym określonych sekwencji nazywane jest rozpoznawaniem wzorców (ang. pattem recognition) [44], [87], [198], [130], [54], [186].
Detekcja zdarzeń związana jest z przetwarzaniem danych wejściowych, ukierunkowanym na identyfikację krótko oraz długoterminowych okresów niestandardowego zachowania sygnału w analizowanym oknie, zazwyczaj wydzielania okresów stacjonamości i niestacjonarności (pojawienie się niestacjonarności o nielosowych przyczynach).
Zadanie detekcji anomalii może być postrzegane jako znalezienie odpowiedniego rozkładu prawdopodobieństwa określonych cech (atrybutów) anomalii [158]. Innym podejściem spotykanym w literaturze [211] jest rozpatrywanie problemu wykrywania zdarzeń jako zadania nienadzorowanej klasyfikacji (problem jednej klasy), gdzie zakłada się, że dane treningowe zawierają jedynie przykłady z jednej klasy, natomiast dane testowe mogą być zaliczone do wielu klas. Opisywana jest zazwyczaj tylko jedna klasa (klasyfikacja binarna) oraz sposób rozróżnienia pomiędzy innymi możliwymi obiektami. Detekcja zdarzeń jest więc problemem generowania granic decyzyjnych pomiędzy klasą normalną i klasą nieprawidłową (klasą anomalii) [81], a więc znalezienie odwzorowania przynależności danych wejściowych do danej klasy. Funkcja odwzorowująca (minimalizująca błąd odwzorowania [211]) jest algorytmem klasyfikacji, który jest trenowany (uczony) na podstawie zestawu danych treningowych.
Jak wspomniano we wstępie tej pracy, zaawansowane algorytmy detekcji zdarzeń w szeregach czasowych są rzadko publikowane, jednak z pewnością są one przedmiotem badań w wielu ośrodkach naukowych. Klasyczne podejście opiera się na analizach istotności odchyłek [208], [237] oraz testach stosunku funkcji wiarygodności (ang. Likelihood Rado Test, LR) znanych jako metoda Page’a-Hinkleya [18], wraz z uogólnieniami opartymi m.in. na wielokryterialnej analizie istotności trendów [67], [235]. Metody te wykazują bardzo dobrą skuteczność detekcji zmian dla sygnałów
19