Dlaczego tyle metod obliczania PSD?


53

Metoda Welcha była moim głównym algorytmem do obliczania gęstości widmowej mocy (PSD) równomiernie próbkowanych szeregów czasowych. Zauważyłem, że istnieje wiele innych metod obliczania PSD. Na przykład w Matlabie widzę:

  • PSD metodą Burg
  • PSD metodą kowariancji
  • PSD za pomocą periodogramu
  • PSD przy użyciu zmodyfikowanej metody kowariancji
  • PSD przy użyciu metody wielopunktowej (MTM)
  • PSD metodą Welcha
  • PSD przy użyciu metody AR Yule-Walker
  • Spektrogram przy użyciu krótkotrwałej transformacji Fouriera
  • Estymacja widmowa

Jakie są zalety tych różnych metod? Jako praktyczne pytanie, kiedy chciałbym użyć czegoś innego niż metoda Welcha?


Nawet nowicjusz w przetwarzaniu sygnałów, ale zgadnij {to} może być istotne, również {this} . Właśnie googlowałem.
Deweloper

4
W rzeczywistości nie „obliczasz” PSD, ale go „szacujesz”. Jest ogromna różnica.
leonbloy

1
Ten link zawiera przykłady niektórych z wyżej wymienionych technik: mathworks.com/help/signal/ug/nonparametric-methods.html

Odpowiedzi:


67

Nie jestem zaznajomiony z metodą Multitaper. To powiedziawszy, zadałeś dość pytanie. W ramach mojego dyplomu MSEE wziąłem cały kurs, który obejmował oszacowanie PSD. Kurs obejmował wszystkie wymienione elementy (z wyjątkiem metody Multitaper), a także metody podprzestrzeni. Nawet to obejmuje tylko niektóre z głównych pomysłów i istnieje wiele metod wynikających z tych pojęć.

W przypadku starterów istnieją dwie główne metody szacowania gęstości widmowej mocy: nieparametryczna i parametryczna.

Metody nieparametryczne są stosowane, gdy niewiele wiadomo na temat sygnału z wyprzedzeniem. Zazwyczaj mają one mniejszą złożoność obliczeniową niż modele parametryczne. Metody w tej grupie są dalej podzielone na dwie kategorie: periodogramy i korelogramy. Periodogramy są czasami nazywane metodami bezpośrednimi, ponieważ prowadzą do bezpośredniej transformacji danych. Należą do nich spektrum próbek, metoda Bartletta, metoda Welcha i Periodogram Daniella. Korelogramy są czasami nazywane metodami pośrednimi, ponieważ wykorzystują twierdzenie Wienera-Khinchina. Dlatego te metody opierają się na przyjęciu transformacji Fouriera pewnego rodzaju oszacowania sekwencji autokorelacji. Ze względu na dużą wariancję związaną z opóźnieniami wyższego rzędu (z powodu małej ilości próbek danych użytych w korelacjach), zastosowano okienkowanie. Metoda Blackmana-Tukeya uogólnia metody korelogramu.

Metody parametryczne zazwyczaj zakładają pewien rodzaj modelu sygnału przed obliczeniem oszacowania gęstości widmowej mocy. Dlatego zakłada się, że pewna znajomość sygnału jest znana z wyprzedzeniem. Istnieją dwie główne kategorie metod parametrycznych: metody autoregresyjne i metody podprzestrzeni.

Metody autoregresyjne zakładają, że sygnał można modelować jako sygnał wyjściowy filtra autoregresyjnego (takiego jak filtr IIR) napędzany sekwencją szumu białego. Dlatego wszystkie te metody próbują rozwiązać dla współczynników IIR, dzięki czemu łatwo obliczona jest uzyskana gęstość widmowa mocy. Należy jednak ustalić kolejność modeli (lub liczbę odczepów). Jeśli kolejność modeli jest zbyt mała, widmo zostanie bardzo wygładzone i będzie pozbawione rozdzielczości. Jeśli kolejność modeli jest zbyt wysoka, zaczynają pojawiać się fałszywe piki z dużej liczby biegunów. Jeżeli sygnał można modelować za pomocą procesu AR modelu „p”, wówczas sygnał wyjściowy filtra rzędu> = p sterowany przez sygnał wytworzy biały szum. Istnieją setki wskaźników do wyboru kolejności modeli. Należy zauważyć, że metody te są doskonałe dla sygnałów SNR o wąskim paśmie od wysokiego do średniego. Pierwsza z nich polega na tym, że model rozpada się na znaczny hałas i jest lepiej modelowany jako proces ARMA. To ostatnie wynika z impulsywnego charakteru widma wynikowego z biegunów w transformacie Fouriera uzyskanego modelu. Metody AR oparte są na liniowej predykcji, która służy do ekstrapolacji sygnału poza jego znane wartości. W rezultacie nie cierpią z powodu bocznych skrzydeł i nie wymagają okienkowania.

Metody podprzestrzeni rozkładają sygnał na podprzestrzeń sygnałową i podprzestrzeń szumową. Wykorzystanie ortogonalności między dwiema podprzestrzeniami pozwala na utworzenie pseudospektrum, w którym mogą pojawić się duże piki w komponentach wąskopasmowych. Metody te działają bardzo dobrze w środowiskach o niskim SNR, ale są bardzo kosztowne obliczeniowo. Można je podzielić na dwie kategorie: metody podprzestrzeni szumu i metody podprzestrzeni sygnałowej.

Obie kategorie można wykorzystać na jeden z dwóch sposobów: rozkład wartości własnej macierzy autokorelacji lub rozkład wartości osobliwej macierzy danych.

Metody podprzestrzeni hałasu próbują rozwiązać dla jednego lub więcej wektorów własnych podprzestrzeni hałasu. Następnie ortogonalność między podprzestrzenią szumu a podprzestrzenią sygnału wytwarza zera w mianowniku wynikowych oszacowań widma, co powoduje duże wartości lub skoki na prawdziwych składowych sygnału. Liczba dyskretnych sinusoid lub stopień podprzestrzeni sygnału muszą zostać określone / oszacowane lub znane z wyprzedzeniem.

Metody podprzestrzeni sygnałowej próbują odrzucić podprzestrzeń szumową przed oszacowaniem widmowym, poprawiając SNR. Macierz autokorelacji o zmniejszonym stopniu jest tworzona tylko z wektorami własnymi określonymi jako należącymi do podprzestrzeni sygnałowej (ponownie problem z porządkiem modelu), a macierz o zmniejszonym stopniu jest wykorzystywana w dowolnej innej metodzie.

Teraz postaram się szybko pokryć twoją listę:

  • PSD metodą Burg: Metoda Burg wykorzystuje rekurencję Levinsona nieco inaczej niż metoda Yule-Walkera, ponieważ szacuje współczynniki odbicia, minimalizując średnią błędu prognozy liniowej do przodu i do tyłu. Daje to średnią harmoniczną współczynników częściowej korelacji błędu prognozowania liniowego do przodu i do tyłu. Daje oszacowania o bardzo wysokiej rozdzielczości, jak wszystkie metody autoregresyjne, ponieważ wykorzystuje predykcję liniową do ekstrapolacji sygnału poza znanym rekordem danych. To skutecznie usuwa wszystkie zjawiska boczne. Jest lepszy od metody YW w przypadku krótkich rekordów danych, a także usuwa kompromis między wykorzystaniem tendencyjnych i bezstronnych oszacowań autokorelacji, gdy dzielą się czynniki ważące. Jedną wadą jest to, że może wykazywać podział linii widmowej. Dodatkowo, cierpi na te same problemy, co wszystkie metody AR. Oznacza to, że niski do średniego SNR poważnie obniża wydajność, ponieważ nie jest już odpowiednio modelowany przez proces AR, ale raczej proces ARMA. Metody ARMA są rzadko stosowane, ponieważ generalnie dają nieliniowy zestaw równań w odniesieniu do parametrów średniej ruchomej.

  • PSD z zastosowaniem metody kowariancji : Metoda kowariancji jest szczególnym przypadkiem metody najmniejszych kwadratów, w której odrzucona jest część okienkowa błędów prognozowania liniowego. Ma to lepszą wydajność niż metoda Burga, ale w przeciwieństwie do metody YW, macierzą odwrotną do rozwiązania nie jest generalnie Hermitian Toeplitz, ale raczej produkt dwóch macierzy Toeplitz. Dlatego rekurencji Levinsona nie można zastosować do rozwiązania dla współczynników. Ponadto nie można zagwarantować, że filtr wygenerowany tą metodą będzie stabilny. Jednak do oceny spektralnej jest to dobra rzecz, ponieważ powoduje bardzo duże piki dla zawartości sinusoidalnej.

  • PSD przy użyciu periodogramu : jest to jeden z najgorszych estymatorów i jest szczególnym przypadkiem metody Welcha z pojedynczym segmentem, okienkiem prostokątnym lub trójkątnym (w zależności od tego, które oszacowanie autokorelacji jest używane, stronnicze lub bezstronne) i nie nakłada się. Jest to jednak jeden z „najtańszych” pod względem obliczeniowym. Wynikowa wariancja może być dość wysoka.

  • PSD przy użyciu zmodyfikowanej metody kowariancji : poprawia to zarówno metodę kowariancji, jak i metodę Burg. Można to porównać do metody Burg, przy czym metoda Burg minimalizuje jedynie średni błąd przewidywania liniowego do przodu / do tyłu w odniesieniu do współczynnika odbicia, metoda MC minimalizuje go w odniesieniu do WSZYSTKICH współczynników AR. Ponadto nie cierpi z powodu podziału linii widmowych i zapewnia znacznie mniejsze zniekształcenie niż wcześniej wymienione metody. Ponadto, chociaż nie gwarantuje stabilnego filtru IIR, jego realizacja jest bardzo stabilna. Jest to również bardziej wymagające obliczeniowo niż pozostałe dwie metody.

  • PSD przy użyciu metody Welcha: Metoda Welcha poprawia periodogram poprzez rozwiązanie problemu braku uśredniania zespołu, który występuje w prawdziwej formule PSD. Uogólnia metodę Barletta, wykorzystując nakładanie się i okienkowanie, aby zapewnić więcej „próbek” PSD dla średniej pseudoelementu. W zależności od zastosowania może to być tania, skuteczna metoda. Jednak jeśli masz sytuację z blisko rozmieszczonymi sinusoidami, metody AR mogą być bardziej odpowiednie. Jednak nie wymaga szacowania kolejności modeli, takich jak metody AR, więc jeśli niewiele wiadomo o swoim spektrum z góry, może to być doskonały punkt wyjścia.

  • PSD przy użyciu metody AR Yule-Walker : Jest to szczególny przypadek metody najmniejszych kwadratów, w której wykorzystuje się resztki błędów całkowitych. Powoduje to zmniejszenie wydajności w porównaniu do metod kowariancji, ale można je skutecznie rozwiązać za pomocą rekurencji Levinsona. Jest również znany jako metoda autokorelacji.

  • Spektrogram przy użyciu krótkotrwałej transformacji Fouriera : teraz przechodzisz do innej domeny. Służy to do widm zmieniających się w czasie. To znaczy, którego widmo zmienia się z czasem. Otwiera to zupełnie inną puszkę robaków i istnieje tyle metod, ile wymieniono w analizie czasowo-częstotliwościowej. Jest to z pewnością najtańszy, dlatego jest tak często używany.

  • Ocena spektralna : nie jest to metoda, ale ogólny termin na resztę postu. Czasami Periodogram jest określany jako „spektrum próbek” lub „Periodogram Schustera”, z których pierwszy może być tym, o którym mowa.

Jeśli jesteś zainteresowany, możesz również przyjrzeć się metodom podprzestrzeni, takim jak MUSIC i rozkład harmoniczny Pisarenko. Rozkładają one sygnał na podprzestrzeń sygnału i szumu i wykorzystują ortogonalność między podprzestrzenią szumu i wektorami własnymi podprzestrzeni sygnału do wytworzenia pseudospektrum. Podobnie jak w przypadku metod AR, możesz nie uzyskać „prawdziwej” oceny PSD, ponieważ najprawdopodobniej moc nie jest zachowana, a amplitudy między składowymi widmowymi są względne. Wszystko zależy jednak od aplikacji.

Twoje zdrowie


Dzięki za świetną odpowiedź! Czy możesz dodać kilka uwag wprowadzających na temat różnicy między metodami parametrycznymi i nieparametrycznymi? Może być również bardziej jasne grupowanie metod, które są ze sobą blisko powiązane lub pochodzą od siebie, tj. Periodogram method metoda Bartletta method metoda Welcha.
nibot

Na pewno. Właśnie dodałem wprowadzenie i niektóre kategorie.
Bryan

Witamy. Dziękujemy za udzielenie tak szczegółowej odpowiedzi.
Jason R

Jeśli mógłbyś bardziej szczegółowo omówić zalety / wady, a nie sposób obliczania każdego z nich, dałoby nam to lepsze wyobrażenie o tym, jak wybrać jeden do konkretnej aplikacji.
CyberMen,

1
Jeśli przeczytałeś odpowiedź, właśnie to zrobiłem. Ponadto w przypadku praktycznych wdrożeń sposób obliczania każdego z nich jest bardzo zaletą / wadą. Niektóre z nich są bardzo wydajne obliczeniowo, ale nie działają tak dobrze. Niektóre z nich działają bardzo dobrze, ale są bardzo złożone i trudne do wdrożenia w przypadku celów o niskiej mocy.
Bryan

12

Chciałem dodać do jedynej kategorii, której nie uwzględniał pierwszy post. Metoda wielopunktowa jest nieparametryczną metodą obliczania widma mocy podobną do metody periodogramu. W tej metodzie widmo mocy jest obliczane przez okienkowanie danych i obliczenie transformaty Fouriera, biorąc wielkość wyniku i kwadrat. Metoda wielopunktowa uśrednia z góry określoną liczbę okresogramów obliczanych w innym oknie. Ta metoda działa, ponieważ wybrane okna mają dwie właściwości matematyczne. Po pierwsze, okna są ortogonalne. Oznacza to, że każdy z periodogramów jest nieskorelowany, więc uśrednienie wielu okresogramów daje oszacowanie z mniejszą wariancją niż przy użyciu tylko jednego stożka. Po drugie, okna mają najlepsze możliwe stężenie w dziedzinie częstotliwości dla stałej długości sygnału.

W matlab funkcje okna można wywoływać za pomocą funkcji dpss. Oprócz korzystania z optymalnych okien opracowano algorytm do ważenia różnych okresogramów w oparciu o to, ile wycieku dodadzą do oszacowania widma mocy. Algorytm daje zestaw wag dostosowujących dane. Oszacowanie widma z zestawem wag dostosowujących dane można wykonać w Matlabie, tworząc obiekt widmo.mtm z „adaptacyjnym” użytym jako opcja łączenia.

Jeśli chodzi o metody nieparametryczne, metoda MT jest prawdopodobnie najlepszą metodą szacowania widma mocy dla stacjonarnych szeregów czasowych.


Patrząc na ostatnie zdanie w poście, zawsze chciałbyś zastosować obliczenia MT w stosunku do metody Welcha.
ncRubert
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.