Pytania otagowane jako neural-networks

Struktura sieci inspirowana uproszczonymi modelami neuronów biologicznych (komórek mózgowych). Sieci neuronowe są uczone do „uczenia się” za pomocą technik nadzorowanych i nienadzorowanych i mogą być wykorzystywane do rozwiązywania problemów optymalizacji, problemów z aproksymacją, klasyfikowania wzorców i ich kombinacji.

2
Dlaczego sieci neuronowe wydają się działać lepiej z ograniczeniami nałożonymi na ich topologię?
W pełni połączone (przynajmniej warstwa po warstwie z więcej niż 2 ukrytymi warstwami) sieci backprop są uniwersalnymi uczniami. Niestety, często są powolne w nauce i mają tendencję do nadmiernego dopasowania lub mają niezręczne uogólnienia. Po wygłupianiu się z tymi sieciami zauważyłem, że przycinanie niektórych krawędzi (tak, że ich waga jest …


4
Jaka jest różnica między siecią neuronową, systemem głębokiego uczenia się i siecią głębokich przekonań?
Jaka jest różnica między siecią neuronową, systemem głębokiego uczenia się i siecią głębokich przekonań? O ile pamiętam, twoja podstawowa sieć neuronowa jest czymś w rodzaju 3 warstw, a Deep Belief Systems opisałem jako sieci neuronowe ułożone jedna na drugiej. Do niedawna nie słyszałem o Deep Learning Systems, ale mocno podejrzewam, …

1
Wydajne obliczanie lub przybliżanie wymiaru VC sieci neuronowej
Moim celem jest rozwiązanie następującego problemu, który opisałem na podstawie jego danych wejściowych i wyjściowych: Wejście: Kierunkowy wykres acykliczny z m węzłami, n źródłami i 1 ujściem ( m > n ≥ 1 ).GGGmmmnnn111m>n≥1m>n≥1m > n \geq 1 Wynik: VC wymiar (lub zbliżanie niego) dla sieci neuronowej z topologii .GGG …

2
Jakie są krytyki dotyczące wydajności HTM?
Niedawno dowiedziałem się o istnieniu tej hierarchicznej pamięci czasowej (HTM) . Przeczytałem już dokument Hierarchical Temporal Memory: Concepts, Theory and Terminology (autorstwa Jeffa Hawkinsa i Dileepa George'a), który wydaje się raczej łatwy do zrozumienia, ale jedną czerwoną flagą jest to, że dokument nie jest recenzowany ani nie próbuje wyjaśnić, dlaczego …

2
Czy sieci neuronowe muszą zawsze się zbieżne?
Wprowadzenie Krok pierwszy Napisałem standardową sieć neuronową z propozycją wsteczną i aby ją przetestować, zdecydowałem się na mapowanie XOR. Jest to sieć 2-2-1 (z funkcją aktywacji tanh) X1 M1 O1 X2 M2 B1 B2 Do celów testowych ręcznie skonfigurowałem górny środkowy neuron (M1), aby był bramką AND, a dolny neuron …




4
Ewolucja sztucznych sieci neuronowych do rozwiązywania problemów NP
Niedawno przeczytałem naprawdę ciekawy wpis na blogu Google Research Blog o sieci neuronowej. Zasadniczo wykorzystują te sieci neuronowe do rozwiązywania różnych problemów, takich jak rozpoznawanie obrazów. Używają algorytmów genetycznych do „ewolucji” ciężarów aksonów. Więc w zasadzie mój pomysł jest następujący. Gdybym miał napisać program, który rozpoznaje liczby, nie wiedziałbym, jak …

1
Znaczenie współczynnika rabatu w uczeniu się przez wzmocnienie
Po przeczytaniu osiągnięć Google Deepmind w grach Atari , próbuję zrozumieć q-learning i q-sieci, ale jestem trochę zdezorientowany. Zamieszanie powstaje w koncepcji współczynnika dyskontowego. Krótkie streszczenie tego, co rozumiem. Głęboka splotowa sieć neuronowa służy do oszacowania wartości optymalnej oczekiwanej wartości działania. Sieć musi zminimalizować funkcję utraty gdzie to Gdzie Q …

2
Jest mocą obliczeniową sieci neuronowych związaną z funkcją aktywacyjną
Udowodniono, że sieci neuronowe o racjonalnych wagach mają moc obliczeniową uniwersalnej maszyny Turinga. Obliczalność Turinga z sieciami neuronowymi . Z tego, co otrzymuję, wydaje się, że użycie ciężarów o wartościach rzeczywistych daje jeszcze więcej mocy obliczeniowej, chociaż nie jestem tego pewien. Czy istnieje jednak korelacja między mocą obliczeniową sieci neuronowej …


1
Jak działa termin na algorytm propagacji wstecznej?
Czy podczas aktualizacji wag sieci neuronowej za pomocą algorytmu propagacji wsteczne z terminem pędu należy zastosować szybkość uczenia się również do terminu pędu? Większość informacji, które mogłem znaleźć na temat używania pędu, ma równania wyglądające mniej więcej tak: W′i=Wi−αΔWi+μΔWi−1Wi′=Wi−αΔWi+μΔWi−1W_{i}' = W_{i} - \alpha \Delta W_i + \mu \Delta W_{i-1} gdzie …

3
Kiedy powinienem wyjść poza najbliższego sąsiada
W przypadku wielu projektów uczenia maszynowego, które wykonujemy, zaczynamy od k klasyfikatora Nearest Neighbor. Jest to idealny klasyfikator początkowy, ponieważ zwykle mamy wystarczająco dużo czasu na obliczenie wszystkich odległości, a liczba parametrów jest ograniczona (k, metryka odległości i waga) Jednak często powoduje to, że trzymamy się klasyfikatora KNN, ponieważ w …

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.