Pytania otagowane jako optimization

Ten znacznik jest przeznaczony do zadawania pytań na temat metod (ograniczonej lub nieograniczonej) minimalizacji lub maksymalizacji funkcji.

1
skalować niezmienność algorytmów wyszukiwania linii i regionu zaufania
W książce Nocedal & Wright o optymalizacji numerycznej znajduje się stwierdzenie w sekcji 2.2 (strona 27): „Ogólnie rzecz biorąc, łatwiej jest zachować niezmienność skali dla algorytmów wyszukiwania linii niż dla algorytmów regionu zaufania”. W tej samej sekcji mówią o posiadaniu nowych zmiennych, które są skalowanymi wersjami oryginalnych zmiennych, które mogą …

2
Zrozumienie kosztu metody łączenia dla optymalizacji ograniczonej przez pde
Próbuję zrozumieć, jak działa metoda optymalizacji oparta na sprzężeniu dla optymalizacji ograniczonej przez PDE. W szczególności staram się zrozumieć, dlaczego metoda łączenia jest bardziej wydajna w przypadku problemów, w których liczba zmiennych projektowych jest duża, ale „liczba równań jest niewielka”. Co rozumiem: Rozważ następujący problem optymalizacji ograniczonej przez PDE: minβ …
11 optimization  pde 

3
Zoptymalizować nieznaną funkcję, którą można ocenić tylko?
Biorąc pod uwagę nieznaną funkcję , możemy ocenić jej wartość w dowolnym punkcie w jej dziedzinie, ale nie mamy jej wyrażenia. Innymi słowy, f jest dla nas jak czarna skrzynka.f:Rd→Rf:Rd→Rf:\mathbb R^d \to \mathbb Rfff Jak nazywa się problem znalezienia minimalizatora ? Jakie są metody?fff Jak nazywa się problem znalezienia rozwiązania …


1
Wystawianie zerowej przestrzeni
Biorąc pod uwagę system gdzie , przeczytałem, że w przypadku gdy iteracja Jacobiego jest używana jako solver, metoda nie zbiegnie się, jeśli ma wartość niezerową składnik zerowa przestrzeni . Jak zatem można formalnie stwierdzić, że pod warunkiem, że ma niezerowy składnik obejmujący zerową przestrzeń , metoda Jacobiego jest niespójna? Zastanawiam …

1
Obliczanie błędów standardowych dla problemów z regresją liniową bez obliczania odwrotności
Czy istnieje szybszy sposób obliczenia błędów standardowych dla problemów z regresją liniową niż odwrócenie ? Tutaj zakładam, że mamy regresję:X′XX′XX'X y=Xβ+ε,y=Xβ+ε,y=X\beta+\varepsilon, gdzie jest macierzą n × k , ay jest wektorem n × 1 .XXXn×kn×kn\times kyyyn×1n×1n\times 1 Dla znalezienia najmniejszych kwadratów rozwiązania problemu jest niepraktyczne nic zrobić z , można …

2
Zejście gradientowe i zejście gradientowe sprzężone
W przypadku projektu muszę zaimplementować te dwie metody i porównać ich działanie na różnych funkcjach. Wygląda na to, że metoda gradientu sprzężonego służy do rozwiązywania układów równań liniowych for Ax=bAx=b A\mathbf{x} = \mathbf{b} Gdzie jest macierzą n-na-n, która jest symetryczna, dodatnia i rzeczywista.AAA Z drugiej strony, kiedy czytam o spadku …

2
Wektory własne małej korekty normy
Mam zestaw danych, który powoli się zmienia i muszę śledzić wektory własne / wartości własne macierzy kowariancji. Używałem scipy.linalg.eigh, ale jest zbyt drogi i nie korzysta z faktu, że mam już rozkład, który jest tylko nieznacznie niepoprawny. Czy ktoś może zaproponować lepsze podejście do rozwiązania tego problemu?


4
Programowanie liniowe z ograniczeniami macierzowymi
Mam problem z optymalizacją, który wygląda następująco minJ,Bs.t.∑ij|Jij|MJ+BY=XminJ,B∑ij|Jij|s.t.MJ+BY=X \begin{array}{rl} \min_{J,B} & \sum_{ij} |J_{ij}|\\ \textrm{s.t.} & MJ + BY =X \end{array} Tutaj moje zmienne są macierzami JJJ i BBB , ale cały problem jest nadal programem liniowym; pozostałe zmienne są ustalone. Kiedy próbuję wprowadzić ten program do moich ulubionych narzędzi do …

4
Maksymalizowanie funkcji wypukłej (minimalizowanie funkcji wklęsłej) z wiązaniem liniowym
Problem jest maxf(x) subject to Ax=bmaxf(x) subject to Ax=b\max f(\mathbf{x}) \text{ subject to } \mathbf{Ax} = \mathbf{b} gdzie f(x)=∑Ni=11+x4i(∑Ni=1x2i)2−−−−−−−−−−√f(x)=∑i=1N1+xi4(∑i=1Nxi2)2f(\mathbf{x}) = \sum_{i=1}^N\sqrt{1+\frac{x_i^4}{(\sum_{i=1}^{N}x_i^2)^2}} , x=[x1,x2,...,xN]T∈RN×1x=[x1,x2,...,xN]T∈RN×1\mathbf{x} = [x_1,x_2,...,x_N]^T \in \mathbb{R}^{N\times 1} i A∈RM×NA∈RM×N\mathbf{A} \in \mathbb{R}^{M\times N} Widzimy, że f (.) Maf(.)f(.)f(.) postać 1+y2−−−−−√1+y2\sqrt{1+y^2} i jest funkcją wypukłą. Można również wykazać, że f (.) …

3
Maksymalizacja nieznanej głośnej funkcji
Interesuje mnie maksymalizacja funkcji , gdzie .f(θ)f(θ)f(\mathbf \theta)θ∈Rpθ∈Rp\theta \in \mathbb R^p Problem polega na tym, że nie znam formy analitycznej funkcji ani jej pochodnych. Jedyne, co mogę zrobić, to ocenić funkcję punktowo, wartość i w tym momencie uzyskać oszacowanie . Jeśli chcę, mogę zmniejszyć zmienność tych szacunków, ale muszę zapłacić …

2
Znaczenie metod (meta) heurystycznych
Do optymalizacji, z Wikipedii : W informatyce metaheurystyka wyznacza metodę obliczeniową, która optymalizuje problem poprzez iteracyjną próbę ulepszenia rozwiązania kandydującego w odniesieniu do danej miary jakości. Metaheurystyki przyjmują niewiele założeń lub nie przewidują optymalizacji problemu i mogą wyszukiwać bardzo duże przestrzenie kandydatów na rozwiązania. Jednak metaheurystyki nie gwarantują znalezienia optymalnego …


4
Nieliniowe najmniejszych kwadratów z ograniczeniami ramek
Jakie są zalecane sposoby wykonywania nieliniowych najmniejszych kwadratów, min ∑ e r rja( p )2)∑erri(p)2\sum err_i(p)^2 , z ograniczeniami ramek l ojot&lt; = pjot&lt; = godz jajotloj&lt;=pj&lt;=hijlo_j <= p_j <= hi_j ? Wydaje mi się (głupcy się spieszą), że można by uczynić kwadratowe ograniczenia kwadratowymi i zminimalizować ∑jae r rja( …

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.