Pytania otagowane jako neural-networks

Sztuczne sieci neuronowe (ANN) to szeroka klasa modeli obliczeniowych luźno opartych na biologicznych sieciach neuronowych. Obejmują one wyprzedzające NN (w tym „głębokie” NN), splotowe NN, nawracające NN itp.


5
Propagacja wsteczna a algorytm genetyczny dla szkolenia w sieci neuronowej
Przeczytałem kilka artykułów omawiających zalety i wady każdej metody, niektórzy twierdzą, że GA nie daje żadnej poprawy w znalezieniu optymalnego rozwiązania, podczas gdy inni pokazują, że jest on bardziej skuteczny. Wydaje się, że GA jest ogólnie preferowane w literaturze (chociaż większość ludzi modyfikuje ją w jakiś sposób, aby osiągnąć pożądane …



5
Czy SVM może strumieniowo uczyć się jednego przykładu na raz?
Mam zestaw danych do przesyłania strumieniowego, przykłady są dostępne pojedynczo. Musiałbym na nich dokonać klasyfikacji wielu klas. Jak tylko podałem przykład szkolenia do procesu uczenia się, muszę go odrzucić. Jednocześnie używam również najnowszego modelu do prognozowania danych nieznakowanych. O ile mi wiadomo, sieć neuronowa jest w stanie przeprowadzić uczenie strumieniowe, …

1
Jak wytrenować i zweryfikować model sieci neuronowej w R?
Jestem nowy w modelowaniu z sieciami neuronowymi, ale udało mi się stworzyć sieć neuronową ze wszystkimi dostępnymi punktami danych, która dobrze pasuje do obserwowanych danych. Sieć neuronowa została wykonana w R z pakietem nnet: require(nnet) ##33.8 is the highest value mynnet.fit <- nnet(DOC/33.80 ~ ., data = MyData, size = …

4
Dlaczego tanh prawie zawsze jest lepszy niż sigmoid jako funkcja aktywacyjna?
W Andrzej zNg sieci neuronowe i głęboki learning na Coursera mówi, że przy tanhtanhtanh jest prawie zawsze korzystniejsze sigmoidsigmoidsigmoid . Powodem jest to, że daje on wyjść przy użyciu tanhtanhtanh centrum niż około 0 sigmoidsigmoidsigmoid „a 0,5, a to«sprawia, że uczenie się do następnej warstwy trochę łatwiejsze». Dlaczego centrowanie uczenia …

2
Czy Jürgen Schmidhuber wprowadził generatywne sieci przeciwników?
Czytam na https://en.wikipedia.org/wiki/Generative_adversarial_networks : [Generatywne sieci przeciwników] zostały wprowadzone przez Iana Goodfellow i in. W 2014 r. ale Jurgen Schmidhuber twierdzi, że wcześniej wykonał podobną pracę w tym kierunku (np. podczas NIPS 2016 odbyła się debata podczas samouczka generatywnych sieci przeciwników: https://channel9.msdn.com/Events/Neural-Information-Processing-Systems- Konferencja / Neural-Information-Processing-Systems-Conference-NIPS-2016 / Generative-Adversarial-Networks patrz 1h03min). Czy …



2
Dlaczego nie ma mechanizmów uczenia się głębokiego wzmocnienia dla szachów, podobnych do AlphaGo?
Komputery od dawna potrafią grać w szachy za pomocą techniki „brute-force”, szukając określonej głębokości, a następnie oceniając pozycję. Komputer AlphaGo używa jednak tylko ANN do oceny pozycji (o ile mi wiadomo, nie dokonuje głębokiego przeszukiwania). Czy można stworzyć silnik szachowy, który gra w szachy w taki sam sposób, jak AlphaGo …

2
Jaka jest definicja „mapy obiektów” (inaczej „mapy aktywacji”) w splotowej sieci neuronowej?
Wprowadzenie do tła W splotowej sieci neuronowej zwykle mamy ogólną strukturę / przepływ, który wygląda następująco: obraz wejściowy (tj. wektor 2D x) (Pierwsza warstwa konwergencji (konw. 1) zaczyna się tutaj ...) zwinąć zestaw filtrów ( w1) wzdłuż obrazu 2D (tzn. wykonać iloczyny z1 = w1*x + b1iloczynu iloczynu), gdzie z1jest …

5
Zrozumienie jednostek LSTM vs. komórek
Przez jakiś czas studiowałem LSTM. Rozumiem na wysokim poziomie, jak wszystko działa. Jednak zamierzając je zaimplementować za pomocą Tensorflow, zauważyłem, że BasicLSTMCell wymaga szeregunum_units parametrów (tj. ) Parametrów. Z tego bardzo dokładnego wyjaśnienia LSTM wynika, że ​​jedna jednostka LSTM jest jedną z poniższych który w rzeczywistości jest jednostką GRU. Zakładam, …


4
Dlaczego używamy ReLU w sieciach neuronowych i jak go wykorzystujemy?
Dlaczego używamy rektyfikowanych jednostek liniowych (ReLU) z sieciami neuronowymi? Jak to poprawia sieć neuronową? Dlaczego mówimy, że ReLU jest funkcją aktywacyjną? Czy funkcja aktywacji softmax nie jest dostępna dla sieci neuronowych? Zgaduję, że używamy zarówno ReLU, jak i softmax: neuron 1 z wyjściem softmax ----> ReLU na wyjściu neuronu 1, …

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.