Pytania otagowane jako machine-learning

Teoretyczne pytania dotyczące uczenia maszynowego, w szczególności obliczeniowej teorii uczenia się, w tym teorii uczenia algorytmicznego, uczenia się PAC i wnioskowania bayesowskiego

2
Nauka trójkątów w płaszczyźnie
I przypisany Moi studenci problem znalezienia trójkąt spójne z kolekcją punktów w R 2 , oznaczonego ± 1 . (Trójkąt T jest zgodny z próbką oznaczoną, jeśli T zawiera wszystkie punkty dodatnie i żaden z punktów ujemnych; z założenia próbka przyjmuje co najmniej 1 spójny trójkąt).mmmR2R2\mathbb{R}^2±1±1\pm1TTTTTT Najlepsze, co mogliby zrobić …


3
Algorytmy modelu statystycznego zapytania?
Zadałem to pytanie w sprawdzonych krzyżowo pytaniach i odpowiedziach, ale wydaje się, że jest ono bardziej związane z CS niż ze statystykami. Czy możesz podać mi przykłady algorytmów uczenia maszynowego, które uczą się na podstawie właściwości statystycznych zestawu danych, a nie samych indywidualnych obserwacji, tj. Wykorzystują statystyczny model zapytań ?


1
Żądanie referencji: minimalizacja submodularna i monotoniczne funkcje boolowskie
Tło: W uczeniu maszynowym często pracujemy z modelami graficznymi reprezentującymi funkcje gęstości prawdopodobieństwa o wysokim wymiarze. Jeśli odrzucimy ograniczenie, które gęstość całkuje (sumuje) do 1, otrzymujemy nienormalizowaną funkcję energii o strukturze grafowej . Załóżmy, że mamy taką funkcję energetyczną zdefiniowaną na wykresie . Na każdy wierzchołek wykresu przypada jedna zmienna …



3
Kiedy stosować lemat Johnson-Lindenstrauss zamiast SVD?
Lemat Johnsona-Lindenstraussa pozwala reprezentować punkty w przestrzeni o dużych wymiarach w punktach o niższych wymiarach. Podczas znajdowania najlepiej dopasowanych mniejszych wymiarów, standardową techniką jest znalezienie rozkładu wartości w liczbie pojedynczej, a następnie wzięcie podprzestrzeni wygenerowanej przez największe wartości w liczbie pojedynczej. Kiedy warto zastosować Johnson-Lindenstrauss zamiast SVD?

5
algorytm grupowania dla danych niewymiarowych
Mam zestaw danych zawierający tysiące punktów i sposób pomiaru odległości między dowolnymi dwoma punktami, ale punkty danych nie mają wymiarów. Chcę algorytmu, aby znaleźć centra klastrów w tym zestawie danych. Wyobrażam sobie, że ponieważ dane nie mają wymiarów, centrum klastrów może składać się z kilku punktów danych i tolerancji, a …

2
Złożoność obliczeniowych zapytań w uczeniu się SQ
Wiadomo, że do uczenia się PAC istnieją naturalne klasy pojęć (np. Podzbiory list decyzji), w których występują wielomianowe luki między złożonością próby potrzebną do teoretycznego uczenia się informacji przez uczonego bez ograniczeń obliczeniowych a złożonością próby potrzebną przez wielomian uczący się czasu. (patrz np. http://portal.acm.org/citation.cfm?id=267489&dl=GUIDE lub http://portal.acm.org/citation.cfm?id=301437 ) Wyniki te …

1
Biorąc pod uwagę
Oto problem o smaku podobnym do nauki junt: Dane wejściowe: Funkcja , reprezentowana przez wyrocznię członkowską, tzn. Wyrocznię, która dała , zwraca .x f ( x )fa: { 0 , 1 }n→ { - 1 , 1 }f:{0,1}n→{−1,1}f: \{0,1\}^n \rightarrow \{-1,1\}xxxfa( x )f(x)f(x) Cel: Znajdź podmoduł S.SS o wartości { …

1
Jak agregacje bazy danych tworzą monoid?
Na cs.stackexchange zapytałem o bibliotekę algebird scala na githubie, spekulując, dlaczego mogą potrzebować abstrakcyjnego pakietu algebry. Strona github zawiera kilka wskazówek: Implementacje Monoidów dla interesujących algorytmów aproksymacyjnych, takich jak filtr Bloom, HyperLogLog i CountMinSketch. Pozwalają ci myśleć o tych wyrafinowanych operacjach, takich jak liczby, i dodawać je w hadoopie lub …

1
Wyniki dla niższych granic / twardości w Noisy Parity (LWE)
Niektóre tło: Chciałbym znaleźć „mniej znane” dolne granice (lub wyniki twardości) dla problemu Uczenie się z błędami (LWE) i ich uogólnienia, takie jak Uczenie się z błędami przez pierścienie. W celu uzyskania szczegółowych definicji itp. Oto miła ankieta przeprowadzona przez Regev: http://www.cims.nyu.edu/~regev/papers/lwesurvey.pdf Standardowym rodzajem założenia w stylu (R) LWE jest …

1
Dolne granice uczenia się w zapytaniu o członkostwo i modelu kontrprzykładowym
Dana Angluin ( 1987 ; pdf ) definiuje model uczenia się z zapytaniami o członkostwo i teoriami (kontrprzykłady do proponowanej funkcji). Pokazuje, że zwykły język reprezentowany przez minimalny DFA z stanów jest możliwy do nauczenia się w czasie wielomianowym (gdzie proponowane funkcje to DFA) z zapytaniami o członkostwo i co …

5
Czy istnieje jakakolwiek technika polegająca na wyszukiwaniu absolutnego minimum (maksimum) funkcji w przestrzeni wielowymiarowej?
Znam algorytm spadku gradientu, który może znaleźć lokalne minimum (maksimum) danej funkcji. Czy jest jakaś modyfikacja spadku gradientu, która pozwala znaleźć absolutne minimum (maksimum), gdzie funkcja ma kilka ekstremów lokalnych? Czy istnieją jakieś ogólne techniki, jak ulepszyć algorytm, który może znaleźć ekstremum lokalne, w celu znalezienia ekstremum ekstremalnego?

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.