Ten problem dotyczy w zasadzie wykrywania pożaru, ale jest ściśle analogiczny do niektórych problemów z wykrywaniem rozpadu radioaktywnego. Obserwowane zjawiska są zarówno sporadyczne, jak i bardzo zmienne; dlatego szereg czasowy będzie się składał z długich ciągów zer zerowanych wartościami zmiennymi.
Celem jest nie tylko przechwytywanie zdarzeń (łamanie zer), ale ilościowa charakterystyka samych zdarzeń. Jednak czujniki są ograniczone i dlatego czasami rejestrują zero, nawet jeśli „rzeczywistość” jest różna od zera. Z tego powodu podczas porównywania czujników należy podać zera.
Czujnik B może być bardziej czuły niż czujnik A i chciałbym móc to statystycznie opisać. Do tej analizy nie mam „prawdy”, ale mam czujnik C, który jest niezależny od czujników A&B. Zatem oczekuję, że lepsza zgodność między A / B i C wskazuje na lepszą zgodność z „prawdą”. (To może wydawać się niepewne, ale musisz mi zaufać - jestem tutaj na solidnym gruncie, w oparciu o to, co wiadomo z innych badań na temat czujników).
Problem polega na tym, jak określić ilościowo „lepszą zgodność szeregów czasowych”. Korelacja jest oczywistym wyborem, ale wpływ na nią będą te wszystkie zera (których nie można pominąć) i oczywiście nieproporcjonalnie na maksymalne wartości. Można również obliczyć RMSE, ale byłby silnie obciążony zachowaniem czujników w przypadku bliskiego zera.
P1: Jaki jest najlepszy sposób zastosowania skalowania logarytmicznego do wartości niezerowych, które następnie zostaną połączone z zerami w analizie szeregów czasowych?
Q2: Jakie „najlepsze praktyki” możesz zalecić do analizy szeregów czasowych tego rodzaju, w której koncentruje się zachowanie przy wartościach niezerowych, ale dominują wartości zerowe i nie można ich wykluczyć?