Pytania otagowane jako deep-learning

W przypadku pytań związanych z uczeniem głębokim, które odnosi się do podzbioru metod uczenia maszynowego opartych na sztucznych sieciach neuronowych (SSN) z wieloma ukrytymi warstwami. Zatem przymiotnik głęboki odnosi się do liczby warstw SSN. Wyrażenie głębokie uczenie się zostało najwyraźniej wprowadzone (choć nie w kontekście uczenia maszynowego lub SSN) w 1986 r. Przez Rinę Dechter w artykule „Uczenie się podczas wyszukiwania problemów z ograniczeniami”.



2
Kodowanie wejścia / wyjścia dla sieci neuronowej do nauki gry opartej na siatce
Piszę prostą grę z zabawkami z zamiarem trenowania głębokiej sieci neuronowej. Zasady gry są z grubsza następujące: Gra ma planszę złożoną z sześciokątnych komórek. Obaj gracze mają tę samą kolekcję elementów, którą mogą dowolnie umieszczać na planszy. Umieszczanie różnych rodzajów elementów nagradza (lub zmniejsza punkty przeciwnika) w zależności od ich …



1
Jak wyglądałaby nowa „zróżnicowalny komputer neuronowy” Deepminda?
Deepmind właśnie opublikował artykuł o „różniczkowalnym komputerze neuronowym” , który zasadniczo łączy sieć neuronową z pamięcią . Chodzi o to, aby nauczyć sieć neuronową tworzenia i przywoływania użytecznych, wyraźnych wspomnień dla określonego zadania. Uzupełnia to możliwości sieci neuronowej, ponieważ sieci NN przechowują wiedzę niejawnie tylko w wagach, a informacje używane …

2
Czy istnieje jakikolwiek argument naukowy / matematyczny, który uniemożliwia głębokiemu uczeniu się tworzenie silnej sztucznej inteligencji?
Przeczytałem „ Księgę powodu” Judei Pearl , w której wspomina, że ​​głębokie uczenie się to tylko chwalebna technologia dopasowania krzywej i nie będzie ona w stanie wytworzyć inteligencji podobnej do człowieka. W jego książce znajduje się diagram ilustrujący trzy poziomy zdolności poznawczych: Chodzi o to, że „inteligencja” wytwarzana przez obecną …

7
Czy sztuczną inteligencję można wytrenować, aby generowała zarys historii?
Wiem, że jednym z ostatnich trendów jest trenowanie sieci neuronowej w celu generowania scenariuszy i nowych odcinków, np. Przyjaciół lub Simpsonów, i to dobrze: jest interesujące i może być niezbędnym pierwszym krokiem w kierunku tworzenia programów, które mogą generować sensowne / zrozumiałe historie. W tym kontekście, czy sieci neuronowe mogą …

2
Czy głębokie sieci rezydualne należy postrzegać jako zbiór sieci?
Pytanie dotyczy architektury Deep Residual Networks ( ResNets ). Model, który zdobył pierwsze miejsce na „Large Scale Visual Recognition Challenge 2015” (ILSVRC2015) we wszystkich pięciu głównych torach: Klasyfikacja ImageNet: „Ultra-deep” (cytat Yann) 152-warstwowe sieci Wykrywanie ImageNet: 16% lepsze niż drugie Lokalizacja ImageNet: 27% lepsza niż druga Wykrywanie COCO: 11% lepsze …

1
Do czego służą różne rodzaje sieci neuronowych?
Znalazłem następujący arkusz ściągający sieci neuronowej ( Ściągawki dla AI, Sieci neuronowe, Uczenie maszynowe, Głębokie uczenie się i Big Data ). Do czego służą te różne rodzaje sieci neuronowych? Na przykład, które sieci neuronowe można wykorzystać do regresji lub klasyfikacji, które można wykorzystać do generowania sekwencji itp.? Potrzebuję tylko krótkiego …


5
Dlaczego głębokie sieci neuronowe i głębokie uczenie się nie wystarczają do osiągnięcia ogólnej inteligencji?
Wszystko, co dotyczy sieci Deep Learning (DL) i deep (er), wydaje się „udane”, przynajmniej postępuje bardzo szybko i kultywuje przekonanie, że AGI jest w zasięgu ręki. To popularna wyobraźnia. DL to ogromne narzędzie do rozwiązywania tak wielu problemów, w tym tworzenia AGI. To jednak nie wystarczy. Narzędzie jest niezbędnym składnikiem, …

1
Czy warstwy głębokich sieci neuronowych można postrzegać jako sieci Hopfielda?
Sieci Hopfield są w stanie przechowywać wektor i wyszukiwać go, zaczynając od hałaśliwej wersji. Robią to, ustawiając ciężary, aby zminimalizować funkcję energii, gdy wszystkie neurony są ustawione na równe wartościom wektorów, i odzyskują wektor, używając jego hałaśliwej wersji jako danych wejściowych i pozwalając sieci osiąść na minimum energetycznym. Pomijając problemy, …

1
Strata gwałtownie skacze, gdy zmniejszam tempo uczenia się za pomocą optymalizatora Adama w PyTorch
Trenuję auto-encodersieć z Adamoptymalizatorem (z amsgrad=True) i MSE lossdla zadania Separacja źródła dźwięku jednokanałowego. Ilekroć zmniejszam współczynnik uczenia się czynnikowo, utrata sieci gwałtownie skacze, a następnie maleje aż do następnego spadku współczynnika uczenia się. Używam Pytorch do implementacji sieci i szkolenia. Following are my experimental setups: Setup-1: NO learning rate …

1
Jak zastosować gradienty polityki w przypadku wielu ciągłych działań?
Trusted Region Policy Optimization (TRPO) i Proximal Policy Optimization (PPO) to dwa najnowocześniejsze algorytmy gradientowe. Podczas korzystania z pojedynczego działania ciągłego normalnie użyłbyś pewnego rozkładu prawdopodobieństwa (na przykład Gaussa) dla funkcji straty. Wersja przybliżona to: L ( θ ) = log( P(za1) ) A ,L.(θ)=log⁡(P.(za1))ZA,L(\theta) = \log(P(a_1)) A, gdzie ZAZAA …

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.