O wykorzystaniu wektorów własnych do oszacowania podstawowej częstotliwości sygnałów za pomocą MUSIC


14

Kontekst:

(Zastrzeżenie: NIE jest to problem z komunikacją).

Próbuję oszacować podstawową częstotliwość prawdziwego, okresowego sygnału. Sygnał ten został skonstruowany przez filtrowanie dopasowania surowego sygnału do impulsu. (dopasowany filtr). Powstały sygnał ma następujące cechy:

  • To jest okresowe. (Podstawa to 1 / kropka) i właśnie to próbuję oszacować.

  • Z czasem jest niestacjonarny. W szczególności amplitudy okresowych impulsów mogą różnić się amplitudą. (np. jeden impuls może być niski, podczas gdy drugi jest wysoki, a następny ponownie niski i jeden po tym medium itp.).

  • Uważam, że ma on częstotliwość stacjonarną (o ile akceptujesz zmieniające się amplitudy, ale nie zmieniające pasm).

  • Ma zniekształcenia harmoniczne. Chodzi mi tutaj o to (i poprawcie mnie, jeśli się mylę), ale poszczególne impulsy w sygnale nie są sinusoidami, ale mają „funky” kształty, takie jak gaussowski, trójkątny, półparaboli itp. .

Próbuję oszacować podstawową częstotliwość tego sygnału.

Oczywiście, czasami surowy sygnał jest niczym innym jak szumem, ale nadal przechodzi przez ścieżkę i jest dopasowywany i tak filtrowany. (Więcej na ten temat później).

Co próbowałem:

Teraz jestem świadomy wielu podstawowych estymatorów częstotliwości, takich jak

  1. Metoda autokorelacji
  2. YIN i wszystkie jego zależności
  3. Metoda FFT.

itp,

  • YIN: Jeszcze nie próbowałem YIN.

  • Metoda FFT: Metoda FFT da ci wszystkie harmoniczne i podstawowe, ale zauważyłem, że może być wybredna, szczególnie w tym niestacjonarnym biznesie, ponieważ podstawa nie zawsze jest najwyższym szczytem. Bardzo szybko próbujesz ustalić, który z wielu szczytów jest fundamentalny i staje się trudnym problemem.

  • Autokorelacja: metoda autokorelacji wydaje się działać lepiej niż metoda FFT, ale nadal jest wrażliwa na nieregularności amplitudowe sygnału w dziedzinie czasu. Metoda autokorelacji mierzy odległość między środkowym płatem, a następnym najwyższym płatem. Odległość ta odpowiada wartości podstawowej. Jednak w niestacjonarnych przypadkach ten wtórny płat może być o wiele za niski i możesz go przegapić w pewnym schemacie progowym.

Wtedy przyszło mi do głowy, że być może mogę użyć metody podprzestrzeni, takiej jak MUSIC, do oszacowania fundamentu. Po przetestowaniu tego stwierdziłem, że naprawdę daje bardzo dobre wyniki - osiąga szczyt - solidnie - a nawet w niestacjonarnych przypadkach - na częstotliwościach odpowiadających fundamentowi twojego sygnału. (Ustaw liczbę poszukiwanych sygnałów na 2, a odzyska podstawową wartość - tj. Wybierze 2 najwyższe wektory własne (odpowiadające najwyższym wartościom wartości własnych) macierzy kowariancji sygnałów, odrzuci je i zbuduje podprzestrzeń szumów z pozostałych, rzutuj na nie hipotezę złożoną sinusoidy, weź odwrotność i voila, ładne pseudo-spektrum).

Pytania i problemy:

  1. Biorąc to pod uwagę, nadal chciałbym zrozumieć, dlaczego to działa lepiej.
  2. W MUSIC odrzucamy podprzestrzeń sygnału i używamy podprzestrzeni szumu. Wydaje mi się, że wektory własne podprzestrzeni sygnałowej faktycznie są jakimś „najlepszym dopasowaniem” - w rzeczywistości są optymalnie dopasowanymi filtrami. Więc: dlaczego po prostu nie użyć bezpośrednio wektorów własnych podprzestrzeni sygnału? (Wiem, że to już nie MUZYKA, ale dlaczego lepiej jest używać podprzestrzeni hałasu?)
  3. Wreszcie ostatni problem polega na tym, że chociaż metoda ta wydaje się działać o wiele solidniej w przypadku sygnałów niestacjonarnych (jak zdefiniowano powyżej), problem polega na tym, że teraz ZAWSZE otrzymuję odpowiedź - nawet gdy w systemie jest tylko szum! (Wspomniałem powyżej, że surowy wstępnie dopasowany filtrowany sygnał może czasem być po prostu białym szumem, gdy nie ma sygnału okresowego).

Jakie mogą istnieć sposoby przeciwdziałania temu? Próbowałem przyjrzeć się wartościom własnym i w ich rozpadzie jest trochę więcej „krzywizny” w przypadkach, gdy występuje tylko szum VS w przypadkach, w których występuje sygnał, ale obawiam się, że może to nie być wystarczająco solidne.

Premia:

  1. Kiedy wektory własne macierzy sinusoudów kowariancji kontra coś jeszcze? Co decyduje o tym, czy są sinusoidami, czy nie? Dlaczego nie są falami kwadratowymi? A może wstawić tutaj sygnały o innym kształcie?

Mohammad - Czy możesz wprowadzić kilka zmian / wyjaśnień? Mogę być zwolennikiem terminologii, ale jest to ważne dla przyszłych gości. Oprócz „ładnego i czystego” można powiedzieć o zniekształceniach harmonicznych. Zamiast powtarzania możesz powiedzieć okresowo. Stacjonarne mogą odnosić się do statystyki zmieniającej się w czasie lub spektrum zmieniającego się w czasie. Możesz wyjaśnić? Metoda autokorelacji jest aliasem dla metody Yule-Walker. Kiedy mówisz „liczba sygnałów”, czy to prawdziwe sinusoidy lub złożone wykładnicze? Czy możesz użyć wartości własnej o największej wartości? Ranga ma inne znaczenie w algebrze liniowej. To samo z „najwyższą wariancją” ...
Bryan

1
... (kont.) Jedną ważną rzeczą (i zauważę to w mojej odpowiedzi, kiedy wyjaśnisz), jest to, że metoda MUSIC jest metodą podprzestrzeni szumu. Idealnie więc wektory własne podprzestrzeni sygnału, te o największej wartości wartości własnych, nie są używane. Ponadto twój sygnał jest sumą sinusoid, jeśli jest okresowy. Jeśli jest okresowy, można go zdefiniować szeregiem Fouriera, który jest sumą dyskretnych sinusoid.
Bryan

@Bryan Przepraszam za opóźnienie w powrocie (długi weekend), właściwie przerobię całe pytanie i dam znać - dzięki!
Spacey

@Bryan W końcu odnowiłem cały post, dodałem wasze sugestie, a także wyjaśniłem wiele z kontekstu / problemu. Proszę zobaczyć. Daj mi znać, czy mogę coś jeszcze wyjaśnić.
Spacey

@Mohammad Czy potrafisz rozpoznać, czy sygnał jest obecny na podstawie „siły” wektorów własnych, tj. Wartości własnych?
Jim Clay

Odpowiedzi:


8

fa(t,s)=doov(X(t),X(s))=doov(X(t-u),X(s-u))=fa(t-u,s-u)
fa(t,s)=fa(t-s,0)t-s
doov(X(s),X(t))=-mija(s-t)xreμ(x)

Intuicja jest taka, że ​​macierz autokorelacji oszacowana dla pewnego skończonego zestawu obserwacji w asymptotycznie zachowanym sygnale przypomina macierz krążącą, ponieważ korelacja zależy tylko od różnic czasowych, a nie od pozycji absolutnych, a macierze krążące mają dyskretne sinusoidy jako swoje wektory własne (ponieważ są one splotem operatorzy). Istnieje wiele dowodów na to i jest to pobieżna intuicja.

Zbiór funkcji autokorelacji, które są diagonalizowane przez sinusoidy, jest dokładnie tymi, które odpowiadają procesom stacjonarnym, ale wiele funkcji autokorelacji innych procesów będzie w przybliżeniu diagonalizowanych przez sinusoidy przez pewien okres czasu. Procesy te odpowiadają procesom, które mogą być aproksymowane przez procesy stacjonarne w określonym przedziale czasu. Więcej szczegółów tutaj .

Ogólne procesy niestacjonarne mogą mieć funkcje autokorelacji, które nie muszą być przekątne przez sinusoidy.

Lokalnie stacjonarne procesy będą miały albo wolno zmieniające się widmo i / lub niewielką liczbę dobrze rozmieszczonych nagłych zmian w widmie. Mowa, odgłosy zwierząt, muzyka i wiele innych naturalnych dźwięków pasuje do tego opisu. Powodem, dla którego algorytmy identyfikacji podprzestrzeni działają, tak jak rozumiem, jest to, że niektóre z lokalnych stacjonarności (nie rygorystycznych) zasadniczo mają zastosowanie do rodzajów analizowanych sygnałów.


μ

@ MarkS Dziękuję bardzo. Mam kilka następstw: 1) Czy na tej podstawie możemy powiedzieć, że proces jest stacjonarny, o ile wektory własne jego matrycy kowariancji są sinusoidalne? Czy może to być swego rodzaju miara stacjonarności? 2) Wspominasz „... a macierze krążące mają dyskretne sinusoidy jako swoje wektory własne (ponieważ są operatorami splotu)…” Nie jestem pewien, co to znaczy - jakie operatory? Czy możesz wyjaśnić. 3) Kiedy mówisz „Zestaw funkcji autokorelacji”, mówisz o wierszach macierzy kowariancji? Dzięki jeszcze raz.
Spacey

@Mohammad Cheers: 1) Tak, można to luźno traktować jako miarę stacjonarności. 2) Matryca krążąca powstaje ze wszystkich cyklicznych permutacji wektora, więc pomnożenie macierzy krążącej przez inny wektor jest splotem między tymi dwoma wektorami. 3) Funkcja autokorelacji Corr (s, t) to autokorelacja między X (s) i X (t) dla jakiegoś losowego procesu X. Nazywam to funkcją, ponieważ chcę jednocześnie obsługiwać ciągły i dyskretny przypadek. Przykładową macierz autokorelacji można postrzegać jako dyskretne przybliżenie tej funkcji.
Mark S

@ Bardzo dziękuję za wskazanie twierdzenia Wienera – Khinchina. Nauczyłem się najpierw mojej analizy Fouriera na grupach i nigdy nie zostałem formalnie do niej wprowadzony w klasie przetwarzania sygnałów.
Mark S
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.