W książce Nocedal & Wright o optymalizacji numerycznej znajduje się stwierdzenie w sekcji 2.2 (strona 27): „Ogólnie rzecz biorąc, łatwiej jest zachować niezmienność skali dla algorytmów wyszukiwania linii niż dla algorytmów regionu zaufania”. W tej samej sekcji mówią o posiadaniu nowych zmiennych, które są skalowanymi wersjami oryginalnych zmiennych, które mogą …
Próbuję zrozumieć, jak działa metoda optymalizacji oparta na sprzężeniu dla optymalizacji ograniczonej przez PDE. W szczególności staram się zrozumieć, dlaczego metoda łączenia jest bardziej wydajna w przypadku problemów, w których liczba zmiennych projektowych jest duża, ale „liczba równań jest niewielka”. Co rozumiem: Rozważ następujący problem optymalizacji ograniczonej przez PDE: minβ …
Biorąc pod uwagę nieznaną funkcję , możemy ocenić jej wartość w dowolnym punkcie w jej dziedzinie, ale nie mamy jej wyrażenia. Innymi słowy, f jest dla nas jak czarna skrzynka.f:Rd→Rf:Rd→Rf:\mathbb R^d \to \mathbb Rfff Jak nazywa się problem znalezienia minimalizatora ? Jakie są metody?fff Jak nazywa się problem znalezienia rozwiązania …
Rozwiązuję dla ogromnej rzadkiej dodatniej określonej macierzy za pomocą metody gradientu sprzężonego (CG). Czy można obliczyć wyznacznik podstawie informacji uzyskanych podczas rozwiązania?A AA x = bZAx=bAx=bZAZAAZAZAA
Biorąc pod uwagę system gdzie , przeczytałem, że w przypadku gdy iteracja Jacobiego jest używana jako solver, metoda nie zbiegnie się, jeśli ma wartość niezerową składnik zerowa przestrzeni . Jak zatem można formalnie stwierdzić, że pod warunkiem, że ma niezerowy składnik obejmujący zerową przestrzeń , metoda Jacobiego jest niespójna? Zastanawiam …
Czy istnieje szybszy sposób obliczenia błędów standardowych dla problemów z regresją liniową niż odwrócenie ? Tutaj zakładam, że mamy regresję:X′XX′XX'X y=Xβ+ε,y=Xβ+ε,y=X\beta+\varepsilon, gdzie jest macierzą n × k , ay jest wektorem n × 1 .XXXn×kn×kn\times kyyyn×1n×1n\times 1 Dla znalezienia najmniejszych kwadratów rozwiązania problemu jest niepraktyczne nic zrobić z , można …
W przypadku projektu muszę zaimplementować te dwie metody i porównać ich działanie na różnych funkcjach. Wygląda na to, że metoda gradientu sprzężonego służy do rozwiązywania układów równań liniowych for Ax=bAx=b A\mathbf{x} = \mathbf{b} Gdzie jest macierzą n-na-n, która jest symetryczna, dodatnia i rzeczywista.AAA Z drugiej strony, kiedy czytam o spadku …
Mam zestaw danych, który powoli się zmienia i muszę śledzić wektory własne / wartości własne macierzy kowariancji. Używałem scipy.linalg.eigh, ale jest zbyt drogi i nie korzysta z faktu, że mam już rozkład, który jest tylko nieznacznie niepoprawny. Czy ktoś może zaproponować lepsze podejście do rozwiązania tego problemu?
Często spotykam się z ogólnym stwierdzeniem, że metody punktów wewnętrznych są trudne do rozgrzania. Czy kryje się za tym intuicyjne wyjaśnienie? Czy są sytuacje, w których można oczekiwać korzyści z ciepłego startu metodą punktową? Czy ktoś może polecić przydatne informacje na ten temat?
Mam problem z optymalizacją, który wygląda następująco minJ,Bs.t.∑ij|Jij|MJ+BY=XminJ,B∑ij|Jij|s.t.MJ+BY=X \begin{array}{rl} \min_{J,B} & \sum_{ij} |J_{ij}|\\ \textrm{s.t.} & MJ + BY =X \end{array} Tutaj moje zmienne są macierzami JJJ i BBB , ale cały problem jest nadal programem liniowym; pozostałe zmienne są ustalone. Kiedy próbuję wprowadzić ten program do moich ulubionych narzędzi do …
Problem jest maxf(x) subject to Ax=bmaxf(x) subject to Ax=b\max f(\mathbf{x}) \text{ subject to } \mathbf{Ax} = \mathbf{b} gdzie f(x)=∑Ni=11+x4i(∑Ni=1x2i)2−−−−−−−−−−√f(x)=∑i=1N1+xi4(∑i=1Nxi2)2f(\mathbf{x}) = \sum_{i=1}^N\sqrt{1+\frac{x_i^4}{(\sum_{i=1}^{N}x_i^2)^2}} , x=[x1,x2,...,xN]T∈RN×1x=[x1,x2,...,xN]T∈RN×1\mathbf{x} = [x_1,x_2,...,x_N]^T \in \mathbb{R}^{N\times 1} i A∈RM×NA∈RM×N\mathbf{A} \in \mathbb{R}^{M\times N} Widzimy, że f (.) Maf(.)f(.)f(.) postać 1+y2−−−−−√1+y2\sqrt{1+y^2} i jest funkcją wypukłą. Można również wykazać, że f (.) …
Interesuje mnie maksymalizacja funkcji , gdzie .f(θ)f(θ)f(\mathbf \theta)θ∈Rpθ∈Rp\theta \in \mathbb R^p Problem polega na tym, że nie znam formy analitycznej funkcji ani jej pochodnych. Jedyne, co mogę zrobić, to ocenić funkcję punktowo, wartość i w tym momencie uzyskać oszacowanie . Jeśli chcę, mogę zmniejszyć zmienność tych szacunków, ale muszę zapłacić …
Do optymalizacji, z Wikipedii : W informatyce metaheurystyka wyznacza metodę obliczeniową, która optymalizuje problem poprzez iteracyjną próbę ulepszenia rozwiązania kandydującego w odniesieniu do danej miary jakości. Metaheurystyki przyjmują niewiele założeń lub nie przewidują optymalizacji problemu i mogą wyszukiwać bardzo duże przestrzenie kandydatów na rozwiązania. Jednak metaheurystyki nie gwarantują znalezienia optymalnego …
Próbuję napisać pełną implementację SVM w Pythonie i mam kilka problemów z obliczaniem współczynników Lagrange'a. Najpierw pozwól mi przeformułować to, co rozumiem z algorytmu, aby upewnić się, że jestem na dobrej drodze. Jeśli jest zbiorem danych, a jest etykietą klasy , toy i ∈ { - 1 , 1 } …
Jakie są zalecane sposoby wykonywania nieliniowych najmniejszych kwadratów, min ∑ e r rja( p )2)∑erri(p)2\sum err_i(p)^2 , z ograniczeniami ramek l ojot< = pjot< = godz jajotloj<=pj<=hijlo_j <= p_j <= hi_j ? Wydaje mi się (głupcy się spieszą), że można by uczynić kwadratowe ograniczenia kwadratowymi i zminimalizować ∑jae r rja( …
Używamy plików cookie i innych technologii śledzenia w celu poprawy komfortu przeglądania naszej witryny, aby wyświetlać spersonalizowane treści i ukierunkowane reklamy, analizować ruch w naszej witrynie, i zrozumieć, skąd pochodzą nasi goście.
Kontynuując, wyrażasz zgodę na korzystanie z plików cookie i innych technologii śledzenia oraz potwierdzasz, że masz co najmniej 16 lat lub zgodę rodzica lub opiekuna.