Pytania otagowane jako neural-network

Sztuczne sieci neuronowe (ANN) składają się z „neuronów” - konstruktów programistycznych, które naśladują właściwości neuronów biologicznych. Zestaw ważonych połączeń między neuronami umożliwia rozprzestrzenianie się informacji przez sieć w celu rozwiązania problemów sztucznej inteligencji, bez projektanta sieci posiadającego model prawdziwego systemu.


4
Wyszukiwanie hiperparametrów dla LSTM-RNN za pomocą Keras (Python)
Z samouczka RNN firmy Keras: „RNN są trudne. Wybór wielkości partii jest ważny, wybór straty i optymalizatora ma kluczowe znaczenie itp. Niektóre konfiguracje nie będą zbieżne”. Jest to więc bardziej ogólne pytanie dotyczące dostrajania hiperparametrów LSTM-RNN w Keras. Chciałbym wiedzieć o podejściu do znalezienia najlepszych parametrów dla Twojego RNN. Zacząłem …

4
Pochodna roli funkcji sigmoidalnej w sieciach neuronowych
Staram się zrozumieć rolę pochodnej funkcji sigmoidalnej w sieciach neuronowych. Najpierw wykreślam funkcję sigmoidalną i pochodną wszystkich punktów z definicji za pomocą pytona. Jaka jest dokładnie rola tej pochodnej? import numpy as np import matplotlib.pyplot as plt def sigmoid(x): return 1 / (1 + np.exp(-x)) def derivative(x, step): return (sigmoid(x+step) …

2
Dlaczego warto korzystać zarówno z zestawu sprawdzania poprawności, jak i zestawu testowego?
Rozważ sieć neuronową: Dla danego zestawu danych dzielimy je na zestaw szkoleniowy, walidacyjny i testowy. Załóżmy, że robimy to w klasycznym stosunku 60:20:20, a następnie zapobiegamy przeuczeniu, sprawdzając poprawność sieci, sprawdzając ją na zestawie sprawdzania poprawności. Jaka jest więc potrzeba przetestowania go na zestawie testowym, aby sprawdzić jego działanie? Czy …

1
Dlaczego ReLU jest lepszy niż inne funkcje aktywacyjne
Tutaj odpowiedź odnosi się do znikania i eksplodowania gradientów, które były sigmoidpodobne do funkcji aktywacyjnych, ale, jak sądzę, Relumają wadę i są to oczekiwana wartość. nie ma ograniczeń dla wyjścia, Reluwięc jego oczekiwana wartość nie jest równa zero. Pamiętam czas, zanim popularność Reluta tanhbyła najbardziej popularna wśród ekspertów w dziedzinie …

3
Bagging vs Dropout w Deep Neural Networks
Bagging to generowanie wielu predyktorów, które działają tak samo, jak jeden predyktor. Dropout jest techniką, która uczy sieci neuronowe uśredniania wszystkich możliwych podsieci. Patrząc na najważniejsze zawody Kaggle, wydaje się, że te dwie techniki są bardzo często używane razem. Nie widzę żadnej teoretycznej różnicy poza faktyczną implementacją. Kto może mi …

4
Dodatkowa warstwa wyjściowa w sieci neuronowej (dziesiętna do binarnej)
Pracuję nad pytaniem z książki online: http://neuralnetworksanddeeplearning.com/chap1.html Rozumiem, że jeśli dodatkowa warstwa wyjściowa składa się z 5 neuronów wyjściowych, prawdopodobnie mogłabym ustawić odchylenie na 0,5 i wagę 0,5 dla każdej poprzedniej warstwy. Ale pytanie wymaga teraz nowej warstwy czterech neuronów wyjściowych - co jest więcej niż wystarczające do przedstawienia 10 …

5
powiększ mapę cieplną dna morskiego
Tworzę plik corr()df z oryginalnego pliku df. corr()Df wyszedł 70 x 70 i to jest niemożliwe, aby wyobrazić sobie mapę cieplną ... sns.heatmap(df). Jeśli spróbuję wyświetlić corr = df.corr(), tabela nie pasuje do ekranu i widzę wszystkie korelacje. Czy jest to sposób na wydrukowanie całości dfbez względu na jej rozmiar …
17 visualization  pandas  plotting  machine-learning  neural-network  svm  decision-trees  svm  efficiency  python  linear-regression  machine-learning  nlp  topic-model  lda  named-entity-recognition  naive-bayes-classifier  association-rules  fuzzy-logic  kaggle  deep-learning  tensorflow  inception  classification  feature-selection  feature-engineering  machine-learning  scikit-learn  tensorflow  keras  encoding  nlp  text-mining  nlp  rnn  python  neural-network  feature-extraction  machine-learning  predictive-modeling  python  r  linear-regression  clustering  r  ggplot2  neural-network  neural-network  training  python  neural-network  deep-learning  rnn  predictive-modeling  databases  sql  programming  distribution  dataset  cross-validation  neural-network  deep-learning  rnn  machine-learning  machine-learning  python  deep-learning  data-mining  tensorflow  visualization  tools  sql  embeddings  orange  feature-extraction  unsupervised-learning  gan  machine-learning  python  data-mining  pandas  machine-learning  data-mining  bigdata  apache-spark  apache-hadoop  deep-learning  python  convnet  keras  aggregation  clustering  k-means  r  random-forest  decision-trees  reference-request  visualization  data  pandas  plotting  neural-network  keras  rnn  theano  deep-learning  tensorflow  inception  predictive-modeling  deep-learning  regression  sentiment-analysis  nlp  encoding  deep-learning  python  scikit-learn  lda  convnet  keras  predictive-modeling  regression  overfitting  regression  svm  prediction  machine-learning  similarity  word2vec  information-retrieval  word-embeddings  neural-network  deep-learning  rnn 

1
Deep Neural Network - Propagacja wsteczna z ReLU
Mam pewne trudności w uzyskaniu wstecznej propagacji za pomocą ReLU i wykonałem trochę pracy, ale nie jestem pewien, czy jestem na dobrej drodze. Funkcja kosztu: gdzie jest wartością rzeczywistą, a jest wartością przewidywaną. Zakładamy również, że > 0 zawsze.Y Y x12(y−y^)212(y−y^)2\frac{1}{2}(y-\hat y)^2yyyy^y^\hat yxxx 1 warstwa ReLU, gdzie waga na 1. …

2
Czy powinniśmy stosować normalizację również do testowania danych?
Robię projekt dotyczący problemu z identyfikacją autora. Zastosowałem normalizację tf-idf do trenowania danych, a następnie wyszkoliłem svm na tych danych. Teraz, używając klasyfikatora, powinienem również znormalizować dane testowe. Wydaje mi się, że podstawowym celem normalizacji jest sprawienie, aby algo uczenia się przywiązywało większą wagę do ważniejszych funkcji podczas nauki. Więc …

5
Konwolucyjna nadmierna sieć neuronowa. Porzucenie nie pomaga
Gram trochę z konwekcjami. W szczególności korzystam z zestawu danych kaggle koty kontra psy, który składa się z 25 000 obrazów oznaczonych jako kot lub pies (po 12500 każdego). Udało mi się osiągnąć około 85% dokładności klasyfikacji na moim zestawie testowym, jednak wyznaczyłem sobie cel osiągnięcia 90% dokładności. Moim głównym …


3
Jak połączyć funkcje jakościowego i ciągłego wprowadzania danych do szkolenia w sieci neuronowej
Załóżmy, że mamy dwa rodzaje funkcji wprowadzania danych, kategoryczne i ciągłe. Dane kategoryczne mogą być reprezentowane jako jeden kod A, natomiast dane ciągłe to po prostu wektor B w przestrzeni N-wymiarowej. Wydaje się, że samo użycie concat (A, B) nie jest dobrym wyborem, ponieważ A, B to zupełnie różne rodzaje …

8
Jak nauczyć się sieci neuronowych?
Jestem studentem pierwszego roku (wspominając o tym, abyś mógł wybaczyć moją nieznajomość), który obecnie prowadzi badania z wykorzystaniem sieci neuronowych. Zakodowałem trójwęzłową sieć neuronową (która działa) na podstawie wskazówek mojego profesora. Chciałbym jednak kontynuować karierę w sztucznej inteligencji i nauce o danych i chciałbym dowiedzieć się więcej na ich temat. …


Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.