Czy istnieje algorytm wielomianowy do określania, czy rozpiętość zbioru macierzy zawiera macierz permutacji?


30

Chciałbym znaleźć algorytm wielomianowy, który określa, czy rozpiętość danego zestawu macierzy zawiera macierz permutacji.

Jeśli ktoś wie, czy ten problem ma inną klasę złożoności, byłoby to równie pomocne.


EDYCJA: Oznacziłem to pytanie za pomocą programowania liniowego, ponieważ mam poważne podejrzenia, że ​​gdyby istniało takie rozwiązanie, byłby to rodzaj algorytmu programowania liniowego. Uważam, że powodem tego jest to, że skrajnymi punktami polytopu Birkhoffa są właśnie matryce permutacyjne. Jeśli możesz następnie znaleźć funkcję celu, która jest albo zmaksymalizowana, albo zminimalizowana tylko na wierzchołkach polytopu Birkhoffa, możesz ograniczyć swoją funkcję do przecięcia polytopu i podprzestrzeni wektora, a następnie zmaksymalizować ją w czasie wielomianowym. Gdyby ta wartość była macierzą permutacji, wiedziałbyś, że zestaw zawiera permutację. To są moje przemyślenia na ten temat.


EDYCJA 2: Po dłuższej refleksji wydaje mi się, że macierze permutacji są właśnie elementami polytopu Birkhoffa z normą euklidesową n , uważamy, że polytop Birkhoffa jest wypukłym kadłubemmatryc permutacyjnychn×n. Być może to może być również znaczące.


EDYCJA 3: Dodałem znacznik programowania półfinałowego, ponieważ po moim poprzednim komentarzu zaczynam myśleć, że rozwiązanie programowania półfinałowego może być możliwe, ponieważ jest to teraz liniowo ograniczony algorytm kwadratowej optymalizacji.


2
Jakiego rodzaju wpisy miałyby macierze wejściowe?

Wpisy mogą znajdować się w dowolnym polu, istnieje pewna swoboda w konfigurowaniu macierzy; jednak chcesz mieć wystarczająco duże pole (więc pole charakterystyki 2 nie byłoby na przykład dobre).
Nick

Czy można wyjaśnić, jaki jest zakres zestawu matryc?
Mohammad Al-Turkistany,

Mohammad: Myślę, że jest to liniowa kombinacja zestawu matryc.
Vivek Bagaria,

4
@DavidRicherby Myślę, że zamieszanie Mohammada wynika z faktu, że zwykle myślimy o matrycach jako o mapach liniowych, a rozpiętość mapy liniowej jest czasem używana jako inny termin określający jej zasięg. Ale to nie ma sensu, więc myślę, że powinniśmy myśleć o macierzach jako elementach przestrzeni wektorowej
Sasho Nikolov

Odpowiedzi:


5

Twierdzenie. Problem na stanowisku jest trudny NP, przez redukcję z sumy częściowej.

Oczywiście wynika z tego, że mało prawdopodobne jest, aby problem zawierał algorytm wieloczasowy, zgodnie z żądaniem op.


Oto intuicja. Problem w poście jest

  • Czy istnieje macierz permutacji na rozpiętości danego zestawu macierzy?

Jest to w zasadzie to samo co

  • Czy istnieje macierz permutacyjna, która (myśląc o macierzy jako wektorze) spełnia pewne dane ograniczenia liniowe?

To z kolei jest takie samo jak

  • Czy istnieje idealne dopasowanie (na pełnym grafie dwudzielnym), którego wektor występowania spełnia określone ograniczenia liniowe?

Zmniejszenie sumy częściowej do tego drugiego problemu jest standardowym ćwiczeniem.

Oto szczegółowy dowód.


Zdefiniuj następujący problem pośredni:

Dopasowana suma:

dane wejściowe: Pełny, dwustronny wykres z nie-ujemnych wag krawędzi liczbę całkowitą, a nieujemną liczbą całkowitą docelowej T .sol=(U,V.,mi)T.

wynik: czy zawiera idealne dopasowanie masy dokładnie do T ?solT.


Lemat 1 . Wielo-czasowy podzbiór sumy zmniejsza się do sumy dopasowania.

Udowodnienie, że jest to standardowe zadanie domowe. Dowód jest na końcu.

Lemat 2. Wielokrotnie dopasowywana suma sprowadza się do problemu na stanowisku.

Dowód lematu 2. Naprawić sumę dopasowującą: pełny wykres dwudzielny z nieujemnymi wagami całkowitymi krawędzi w : U × V N + i docelowym T N + , gdzie U = { u 1 , , u n } i V = { , j { 1 , 2 , , nsol=(U,V.,mi)w:U×V.N.+T.N.+U={u1,,un} . Dla każdego IV.={v1,,vn} , zdefiniuj M ( i j ) jako macierz w R ( n + 1 ) × ( n + 1 ) gdzie M ( i j ) i j = T i M ( i j ) n + 1 , n + 1 = w ( uja,jot{1,2),,n}M.(jajot)R(n+1)×(n+1)M.jajot(jajot)=T. , a wszystkie inne wpisy są zerowe. Redukcja generuje następujący zestaw macierzy: { M ( i j ) : i , j { 1 , , n } } . To określa redukcję.M.n+1,n+1(jajot)=w(uja,vjot)

{M.(jajot):ja,jot{1,,n}}.

Roszczenie. Rozpiętość tego zestawu matrycy składa się z tych macierzy , spełniającego liniowe ograniczenia M H , n + 1 = M n + 1 , h = 0 dla wszystkich h n i ograniczenie liniowe M.R(n+1)×(n+1)M.h,n+1=M.n+1,h=0hn

ja=1njot=1nM.jajotw(uja,vjot)=T.M.n+1,n+1.

( Potwierdzenie według zastrz. Poprzez kontrolę każdej macierzy w zestawie spełnia te ograniczenia, aby każdy liniową kombinacją tych macierzy nie. Z drugiej strony, jeśli M R ( n + 1 ), x ( n + 1 ) spełnia ograniczeń , następnie M równa się kombinacji liniowej M = n i = 1n j = 1 ) macierzy, gdzie α i jM.(jajot)M.R(n+1)×(n+1)M.M.=ja=1njot=1nαjajotM.(jajot) . Należy zauważyć w szczególności, że według różnych definicji i ograniczeń liniowych M n + 1 , n + 1 = i j α i j w ( u i ,αjajot=M.jajot/M.jajot(jajot)=M.jajot/T. To potwierdza roszczenie.)

M.n+1,n+1=jajotαjajotw(uja,vjot)=jajotM.jajotw(uja,vjot)/T.=(T.M.n+1,n+1)/T.=M.n+1,n+1.

Teraz pokazujemy, że redukcja jest poprawna. Oznacza to, że dany wykres ma dopasowanie wagi T wtedy i tylko wtedy, gdy zbiór macierzy obejmuje macierz permutacji.solT.

( Tylko jeśli. ) Najpierw załóżmy, że podany wykres ma T- idealne dopasowanie M . Niech K { 0 , 1 } ( n + 1 ), x ( n + 1 ) jest odpowiednia n x n macierzy permutacji, z dodatkowego rzędu i kolumny dodaje się tak, że M n + 1 , n + 1 = 1 i M H , n +solT.M.M.{0,1}(n+1)×(n+1)n×nM.n+1,n+1=1dla wszystkichhn. Zatemn i = 1n j = 1 M i j w( u i , v j )jest wagą M , to znaczyTi M n + 1 , n + 1 =1M.h,n+1=M.n+1,h=0hnja=1njot=1nM.jajotw(uja,vjot)M.T.M.n+1,n+1=1Tak liniowe ograniczenia w ładowni zastrzeżeń oraz rozpiętość dany zestaw matryc zawiera macierz permutacji .M.

( If. ) Z drugiej strony, załóżmy, że przedział zawiera elementy macierzy permutacji . Przy żądaniu tylko niezerowej wejścia w wierszu n + 1 lub kolumny n + 1 to M n + 1 , n + 1 , to (a M jest macierzą permutacji) musi być tak M n + 1 , n + 1 = 1 . Zatem usunięcie ostatniego wiersza i kolumny daje macierz permutacji n × n . Niech M ' być idealne dopasowanieM.n+1n+1M.n+1,n+1M.M.n+1,n+1=1n×nM. odpowiadające temu n × nsoln×n macierzy permutacji . Masa jest Σ n i = 1 Ď n j = 1 K i J W ( U I , v j ) , który (z zastrzeżeń) jest T M n + 1 , n + 1 = T . Tak więc podany wykres ma dopasowanie wagi T , co dowodzi lematu 2. M.ja=1njot=1nM.jajotw(uja,vjot)T.M.n+1,n+1=T.T.  

Oto opóźniony dowód na Lemat 1:

Dowód lematu 1. Biorąc pod uwagę instancję sumy częściowej , redukcja generuje instancję sumy dopasowania ( G = ( U , V , E ) , T ), gdzie U = { u 1 , u 2 , , u 2 n } , V = { v 1 , v 2 ,(w,T)N+n×N+(G=(U,V,E),T)U={u1,u2,,u2n}V={v1,v2,,v2n} dla każdego , krawędź ( U I , V i ) ma masę w I , a wszystkie pozostałe krawędzie mają ciężar wynosił zero.i{1,,n}(ui,vi)wi

For any perfect matching with edge weights summing to T, the set S={i:(ui,vi)M,in} is a solution to the given Subset-Sum instance (as these are the only non-zero weight edges in M).

S{1,,n}iSwi=T{(uja,vja):jaS.}T.T.

{(uja+n,vja+n):jaS.}ja{1,,n}S.{(uja,vja+n),(uja+n,vja)}.

   


p.s. As an aside, according to this answer, the restriction of Matching-Sum to instances with polynomially-bounded edge weights is in P. But I'm sure that the restriction of the problem in the post to matrices with polynomially-bounded (integer) entries remains NP hard.


2
It seems like you take the convex hull of the matrices rather than the span. The span of the matrices you described is the full space of matrices. Or am I missing something?
Vanessa

@Squark, you are correct - I misinterpreted "span". Thanks. I corrected the proof to use the correct definition of span (as any linear combination of the matrices.)
Neal Young

Miły! Myślę, że lepiej byłoby pomnożyć definicjęM(ijot) przez w(uja,vjot), abyśmy nie musieli dzielić przez coś, co może wynosić 0? Wydaje się również, że dowód można nieco uprościć, łącząc dwie redukcje bez pośredniego problemu.
Vanessa,

Dobra uwaga na temat dzielenia przez zero. Naprawię to. Obie redukcje zostawię osobno, dla mnie jest to bardziej intuicyjne.
Neal Young

3

Regarding the problem of computing the diameter of a polytope presented as the intersection of halfspaces, the problem is NP-hard in general, and also NP-hard to approximate within any constant factor, see Brieden's paper and references therein. I think for centrally symmetric polytopes, an SDP gives an O(logm) approximation where m is the number of inequalities defining the polytope. I sketch this below the line.

In your case the Birkhoff polytope P is not centrally symmetric, but working with the convex hull of P and P suffices for your purposes. I think this "symmetric Birkhoff" polytope can be represented as the set of all square matrices M that satisfy:

i,j:iMij=jMij=c

i,j:1Mij1

1c1

If this is a correct representation (not sure), then you can just add the constraints that restrict this polytope to your given subspace. It is not hard to adapt the SDP below the line to this representation, but I choose not to go through it in order to keep notation managable.

I am not sure what approximate diameter does for your problem: it probably lets you decide if the given subspace is close to a permutation matrix or far from all of them, but I have not worked out the calculations.


Let me finish with a sketch of the SDP rounding (which is fairly standard fare). Let P={x:bAxb} be a centrally symmetric polytope, where A is m×n. Zdefiniuj program wektorowy:

α2)=maxja=1nvja2)2)

z zastrzeżeniem:

1jam:jot=1nZAjajotvjot2)2)bja2)

Wyżej vja zasięg powyżej nwektory wymiarowe. Można to zapisać jako SDP w standardowy sposób i jest to rozluźnienie średnicyP., tj α jest co najmniej średnicą euklidesową P..

Teraz to twierdzę αO(logm)diam(P.). Aby to pokazać, dam ci algorytm, który, biorąc pod uwagę(vja)ja=1n wartości α, wyjścia xP. co najmniej długości αO(logm). The algorithm is just a random projection: pick a random n-dimensional vector g where each gi is a standard gaussian. Set x~i=gTvi. By standard properties of gaussians:

E x~22=α2
im:E |(Ax~)i|2bi2    E maxi=1m|(Ax~)i|biClogm.
where the last bound holds for large enough C (this is a standard fact about the maximum of m subguassian random variables, and can be proven using the Chernoff bound).

The two equations already imply there exists an x such that xP and x2)2)1dologmα. Lub używając granic stężenia, możesz to pokazać ze stałym prawdopodobieństwem12)dologmx~P. i x~2)12)α.

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.