Odpowiedzi:
Brian jest na miejscu. Ale myślę, że warto dodać trochę skompresowanego kontekstu wykrywania.
Po pierwsze, zwróć uwagę, że tak zwana 0 norma - funkcja liczności lub liczba niezerowych wartości w - nie jest normą . Prawdopodobnie najlepiej jest napisać go jako coś w rodzaju w niczym innym, jak w najbardziej przypadkowych kontekstach. Nie zrozum mnie źle, jesteś w dobrym towarzystwie, gdy używasz skrótu , ale myślę, że może to powodować zamieszanie.
Ludzie od dawna wiedzą, że minimalizacja normy prowadzi do rzadkich rozwiązań. Istnieje kilka teoretycznych powodów, które mają związek z komplementarnością liniową. Ale najciekawsze nie było to, że rozwiązania były rzadkie, ale że często były najrzadsze z możliwych . Oznacza to, że minimalizacja naprawdę daje rozwiązanie minimalnej liczności w niektórych przydatnych przypadkach. (Jak to odkryli, kiedy problem minimalnej liczności jest trudny do NP? Konstruując sztuczne problemy ze znanymi rzadkimi rozwiązaniami.) Nie było to coś, co mogłaby przewidzieć liniowa teoria komplementarności.
Dziedzina wykrywania skompresowanego narodziła się, gdy naukowcy zaczęli identyfikować warunki na macierzy , które pozwoliłyby im z góry zagwarantować, że rozwiązanie było również najrzadsze. Zobacz na przykład najwcześniejsze artykuły Candés, Romberg i Tao oraz inne dyskusje na temat właściwości ograniczonej izometrii lub RIP . Inną przydatną stroną internetową, jeśli naprawdę chcesz zagłębić się w jakąś teorię, jest skompresowana strona wykrywająca Terence Tao .
Chcielibyśmy być w stanie rozwiązać
św
ale ten problem jest problemem optymalizacji kombinatorycznej NP-trudny jest to niemożliwe do rozwiązania w praktyce, gdy , i są w rozmiarach typowych ściskanie wykrywania. Możliwe jest skuteczne rozwiązanie
św
zarówno w teorii (można to zrobić w czasie wielomianowym), jak iw praktyce obliczeniowej nawet w przypadku dość dużych problemów, które pojawiają się w wykrywaniu kompresyjnym. Używamy jako „surogat” dla . Ma to pewne intuicyjne uzasadnienie (minimalizacja jednej normy preferuje rozwiązania z mniejszą liczbą niezerowych wpisów w ), a także znacznie bardziej wyrafinowane uzasadnienia teoretyczne (twierdzenia postaci „Jeśli ma rozwiązanie k-rzadkie, to minimalizuje znajdzie to rozwiązanie z dużym prawdopodobieństwem. ”
W praktyce, ponieważ dane często są zaszumione, dokładne ograniczenie jest często zastępowane ograniczeniem formy .
Dość powszechna jest również praca z wariacyjną postacią ograniczonego problemu, gdzie na przykład możemy zminimalizować .
Nie mam nic do dodania do wyjaśnienia Briansa i Michaelsa o vs. . Ale ponieważ wydaje się, że chodzi o pytanie o skompresowane wykrywanie, chciałbym dodać mój punkt widzenia: w wykrywaniu skompresowanym nie chodzi o rozwiązywanie ani o Kompresyjne wykrywanie jest bardziej paradygmatem , co można z grubsza określić jako
Możliwe jest zidentyfikowanie rzadkich sygnałów na podstawie kilku pomiarów.
Kompresyjne wykrywanie polega na wykonaniu jak najmniejszej liczby pomiarów w celu zidentyfikowania sygnału w pewnej klasie sygnałów.
Jedna chwytliwa fraza to:
Dlaczego 5-megapikselowy aparat powinien mierzyć 15 milionów wartości (trzy na każdy piksel), co kosztuje 15 megabajtów danych, gdy przechowuje tylko około 2 megabajtów (po kompresji)?
Czy można od razu zmierzyć 2 megabajty?
Możliwe są całkiem różne ramy:
I są też bardziej rozrzedzone metod do obliczania rozwiązań takich jak poszukiwanie dopasowujące (warianty jak prostopadłe poszukiwanie dopasowujące (OMP), uregulowany prostopadłe poszukiwanie dopasowujące (ROMP), CoSaMP) lub nowsze metody oparte na przekazywanie komunikatów algorytmów.
Jeśli ktoś rozpoznaje Compressed Sensing ze zwykłą minimalizacją - lub , traci się dużą elastyczność przy rozwiązywaniu praktycznych problemów z pozyskiwaniem danych.
Jeśli ktoś jest zainteresowany jedynie uzyskaniem rzadkich rozwiązań dla systemów liniowych, robi coś, co nazwałbym rzadką rekonstrukcją .